Dans une étude fascinante, l’équipe de recherche d’Apple démontre comment des modèles d’intelligence artificielle peuvent estimer le rythme cardiaque à partir d’enregistrements de stéthoscope. Cette avancée pourrait révolutionner la santé connectée, faisant des AirPods des outils potentiels pour détecter des maladies cardiaques. Voici pourquoi cela mérite notre attention.
Une Étude d’Apple Montre Comment les AirPods Pourraient Doubler en Tant que Moniteurs Cardiaques AI
L’équipe de recherche d’Apple a publié une étude fascinante qui explore si des modèles d’IA peuvent estimer le rythme cardiaque à partir d’enregistrements de stéthoscope, même s’ils n’ont pas été spécifiquement entraînés à cet effet. La réponse courte est : oui. Et c’est une excellente nouvelle. Voici pourquoi.
Résumé de l’Étude
L’équipe a examiné six modèles de base populaires formés sur l’audio ou la parole, pour tester comment leurs représentations audio internes pouvaient être utilisées pour estimer le rythme cardiaque à partir d’enregistrements de sons cardiaques, ou phonocardiogrammes.
Un point intéressant : même si ces modèles n’étaient pas conçus pour des données de santé, les résultats se sont révélés étonnement solides. La plupart des modèles ont montré des performances comparables aux méthodes plus anciennes, qui s’appuyaient sur des caractéristiques audio conçues manuellement, des moyens de représentation du son qui ont longtemps été utilisés dans les modèles d’apprentissage automatique traditionnels.
Mais ce qui est encore plus fascinant, c’est que le modèle interne d’Apple, une version de CLAP (Contrastive Language-Audio Pretraining) formée sur 3 millions d’échantillons audio, a en réalité surpassé la référence et affiché la meilleure performance globale parmi les différentes comparaisons de modèles.
Comment le Test A-T-il Été Réalisé ?
Les modèles ont été évalués à l’aide d’un ensemble de données disponible publiquement contenant plus de 20 heures de sons cardiaques réels hospitaliers, annotés par des experts, ce qui est essentiel pour la recherche et la performance de l’IA.
Apple a découpé les enregistrements en courts extraits de 5 secondes, avançant d’une seconde à chaque fois. Cela a abouti à environ 23 000 extraits de sons cardiaques, que Apple a ensuite utilisés pour entraîner un réseau de neurones à classer le rythme cardiaque en valeurs de battements par minute.
Surprenant, certaines constatations contredisent les hypothèses typiques en matière d’IA : des modèles plus volumineux ne signifiaient pas toujours de meilleures performances. Techniquement, les couches les plus profondes de ces modèles contenaient souvent moins d’informations cardio-respiratoires utiles, probablement parce qu’elles étaient optimisées pour le langage. Les représentations des couches superficielles ou intermédiaires se sont révélées les plus efficaces.
C’est l’une des découvertes clés de l’étude. Apple sait maintenant où chercher à l’intérieur de ces modèles et quelles couches utiliser pour extraire les signaux de santé les plus pertinents si (ou plutôt quand) elle décidera d’intégrer ce type d’analyse dans ses appareils.
Points Clés à Retenir
L’un des points clés de l’étude est qu’une combinaison de traitement de signal traditionnel avec de l’IA de nouvelle génération permet d’obtenir des estimations du rythme cardiaque plus fiables. Cela signifie que, dans les cas où une approche rencontrait des difficultés, l’autre comblait souvent les lacunes. En gros, ces deux méthodes saisissent différentes parties du signal.
En regardant vers l’avenir, les chercheurs prévoient de continuer à affiner les modèles pour des applications en santé, de créer des versions allégées pouvant fonctionner sur des appareils à faible consommation d’énergie, et d’explorer d’autres sons corporels qui pourraient en valoir la peine.
Ils ont déclaré :
« À l’avenir, nous prévoyons : (i) d’explorer la combinaison de caractéristiques acoustiques avec des représentations FM, en utilisant la concaténation des caractéristiques avant le modèle en aval ou par des méthodes de fusion tardive au sein du modèle, pour améliorer les performances et déterminer si ces méthodes peuvent capturer des informations complémentaires et être plus robustes aux variations individuelles ; (ii) d’étudier un ajustement fin des modèles aux domaines cibles pour réduire le décalage de domaine et examiner si cette adaptation se traduit par de meilleures performances et une meilleure atténuation des défis liés à l’estimation du rythme cardiaque ; (iii) d’évaluer leur applicabilité à d’autres tâches en aval et paramètres physiologiques, y compris les conditions pathologiques ; (iv) d’augmenter et d’adapter davantage de données ayant une signification clinique ; (v) de les comparer avec d’autres modèles de fond bioacoustiques ; et (vi) d’explorer des stratégies de simplification de modèle, telles que l’élagage, la distillation et la conception d’encodeurs légers, pour permettre des solutions déployables avec un coût computationnel réduit tout en maintenant la performance. »
L’étude ne fait évidemment aucune revendication clinique ni promesse de produit. Néanmoins, le potentiel est évident lorsque l’on considère la manière dont Apple pourrait intégrer ces modèles dans ses iPhones, Apple Watches, et surtout les AirPods, qui s’appuient sur des microphones intra-auriculaires pour l’annulation active du bruit. Si vous avez déjà entendu votre propre cœur battre dans vos oreilles en portant des AirPods, vous comprenez ce dont il s’agit.
Pour lire l’intégralité de l’article, consultez arXiv.
Mon avis :
L’étude d’Apple sur l’estimation du rythme cardiaque via des enregistrements acoustiques révèle un potentiel prometteur, combinant intelligence artificielle et traitement du signal traditionnel. Bien que les résultats soient solides, il reste des questions sur la précision clinique. L’intégration dans des appareils comme l’Apple Watch pourrait révolutionner la santé connectée, mais des validations supplémentaires sont nécessaires.
Les questions fréquentes :
Quelle étude a été menée par l’équipe de recherche d’Apple ?
L’équipe de recherche d’Apple a publié une étude examinant si des modèles d’IA peuvent estimer le rythme cardiaque à partir d’enregistrements de stéthoscope, même s’ils n’ont pas été spécifiquement formés à cet effet. Les résultats montrent que c’est effectivement possible, ce qui est une excellente nouvelle pour les futurs développements en santé.
Comment les modèles ont-ils été évalués dans l’étude ?
Les modèles ont été évalués à l’aide d’un ensemble de données public contenant plus de 20 heures de sons cardiaques réels enregistrés à l’hôpital et annotés par des experts. Apple a découpé les enregistrements en clips courts de 5 secondes et a entraîné un réseau de neurones pour classer le rythme cardiaque en valeurs de battements par minute.
Quel modèle a obtenu les meilleurs résultats ?
Le modèle interne d’Apple, une version de CLAP (Contrastive Language-Audio Pretraining) qui a été formée sur 3 millions d’échantillons audio, a surpassé les performances de référence, offrant les meilleurs résultats globaux parmi les comparaisons de modèles effectuées dans l’étude.
Quelles sont les perspectives d’avenir pour ces modèles d’IA ?
Les chercheurs prévoient de continuer à affiner les modèles pour des applications sanitaires, de développer des versions allégées pouvant fonctionner sur des appareils à faible consommation, et d’explorer d’autres sons corporels potentiellement significatifs. L’objectif est de rendre ces technologies applicables pour diverses tâches physiologiques tout en maintenant une performance élevée.