Quand les AI Overviews diffusent des informations médicales erronées
Les résumés générés par l’intelligence artificielle de Google, connus sous le nom d’AI Overviews, occupent désormais une place privilégiée dans les résultats de recherche. Positionnés en tête de page, ces synthèses automatisées visent à fournir aux utilisateurs des réponses rapides et directes. Pourtant, lorsqu’il s’agit de questions médicales, cette promesse de simplicité peut se transformer en véritable danger pour la santé numérique.
Une enquête menée par The Guardian début 2026 révèle des cas alarmants où ces résumés Google ont diffusé des conseils médicaux inexacts et potentiellement mortels. Les exemples documentés concernent des pathologies graves comme le cancer du pancréas, les maladies hépatiques ou encore le cancer vaginal. Anna Jewell, directrice du soutien chez Pancreatic Cancer UK, qualifie certains de ces contenus de « vraiment dangereux ».
Le cas le plus préoccupant concerne les recommandations nutritionnelles pour les personnes atteintes de cancer du pancréas. Les AI Overviews conseillaient aux malades d’éviter les aliments riches en graisses, alors que les spécialistes préconisent exactement l’inverse. Suivre cette indication erronée pourrait compromettre sérieusement les chances d’un patient de supporter les traitements lourds nécessaires à sa survie.
Ces erreurs ne se limitent pas à une seule pathologie. Pour les tests de fonction hépatique, les résumés ont fourni des informations trompeuses sans tenir compte de variables essentielles comme le sexe, l’âge ou l’origine ethnique des patients. Pamela Healy, directrice générale du British Liver Trust, juge ces résultats « alarmants », car ils pourraient conduire des personnes atteintes de maladies hépatiques graves à croire à tort qu’elles sont en bonne santé.

La situation devient encore plus préoccupante lorsqu’on examine le comportement instable de ces algorithmes IA. Athena Lamnisos, directrice de l’association Eve Appeal, souligne que les résumés changent constamment, offrant des réponses différentes selon le moment de la recherche. Cette incohérence rend impossible toute vérification systématique et expose les utilisateurs à des informations contradictoires.
Le domaine de la santé mentale n’est pas épargné par ces dysfonctionnements. Stephen Buckley, responsable de l’information chez Mind, évoque des « conseils très dangereux » dans certains résumés concernant la psychose et les troubles alimentaires. Ces informations erronées pourraient dissuader les personnes en souffrance de chercher l’aide dont elles ont cruellement besoin.
Face à ces critiques, Google maintient que ces exemples constituent des « captures d’écran incomplètes » et affirme investir considérablement dans la qualité de ses AI Overviews. Le géant technologique assure que le taux de précision de ces synthèses serait comparable à celui d’autres fonctionnalités de recherche existant depuis plus de dix ans. Pourtant, cette comparaison soulève une question fondamentale : peut-on appliquer les mêmes standards de qualité aux résultats de recherche traditionnels et aux résumés générés automatiquement qui s’imposent comme une vérité unique?
- Cancer du pancréas : conseils nutritionnels inversés pouvant compromettre les traitements
- Tests hépatiques : interprétation sans prise en compte des variables individuelles
- Cancer vaginal : confusion avec le dépistage du cancer du col de l’utérus
- Troubles mentaux : recommandations susceptibles de décourager la consultation médicale
- Variabilité des réponses : informations changeantes selon le moment de la recherche
L’ampleur du phénomène AI Overviews dans l’écosystème de recherche
Les AI Overviews ne constituent pas un phénomène marginal. Selon les analyses d’Ahrefs portant sur 146 millions de pages de résultats, ces résumés apparaissent dans environ 20,5% des recherches effectuées sur Google. Cette proportion représente des milliards de requêtes quotidiennes à l’échelle mondiale, transformant radicalement l’expérience de recherche d’informations en ligne.
Ces synthèses automatisées sont principalement déclenchées par des mots-clés ayant une intention informationnelle, avec 99,9% des cas identifiés correspondant à ce critère. Autrement dit, lorsqu’un utilisateur cherche à comprendre quelque chose plutôt qu’à acheter un produit ou trouver un lieu, il a une chance sur cinq de voir apparaître un résumé généré par intelligence artificielle.
Cette omniprésence des AI Overviews transforme profondément la manière dont les internautes accèdent à l’information médicale. Traditionnellement, un utilisateur confronté à une question de santé devait parcourir plusieurs sources, comparer les informations et développer un esprit critique face aux contenus trouvés. Aujourd’hui, la présentation d’un résumé unique en tête de page crée une impression d’autorité qui peut court-circuiter cette démarche analytique.
L’impact de cette évolution sur la fiabilité des informations médicales accessibles au grand public ne peut être sous-estimé. Les études montrent que les utilisateurs font davantage confiance aux contenus placés en haut des résultats de recherche, un biais psychologique que les AI Overviews amplifient considérablement. Lorsqu’une synthèse apparaît avant même les liens traditionnels, elle acquiert une légitimité implicite qui la rend particulièrement dangereuse en cas d’erreur.
La question de la responsabilité juridique se pose également avec acuité. Si un patient suit un conseil médical erroné trouvé dans un AI Overview et subit des conséquences graves, qui en porte la responsabilité? Google peut-il se contenter d’affirmer qu’il s’agit d’un outil automatisé sans engager sa responsabilité? Ces interrogations restent largement sans réponse dans le cadre juridique actuel, créant un vide réglementaire préoccupant.
| Caractéristique | Impact sur la santé numérique | Niveau de risque |
|---|---|---|
| Apparition dans 20,5% des recherches | Exposition massive aux erreurs potentielles | Élevé |
| Positionnement en tête des résultats | Biais d’autorité renforcé | Très élevé |
| Variabilité des réponses | Impossibilité de vérification systématique | Critique |
| Absence de disclaimer médical explicite | Confusion avec un avis professionnel | Élevé |
| Synthèse unique vs sources multiples | Perte de l’esprit critique | Moyen |
L’analyse des déclencheurs de ces résumés révèle également des patterns préoccupants. Les requêtes concernant des symptômes, des traitements ou des diagnostics sont particulièrement susceptibles de générer des AI Overviews. Or, ce sont précisément ces questions qui nécessitent la plus grande précision et pour lesquelles les conséquences d’une erreur peuvent être dramatiques.
Certains experts suggèrent que Google devrait désactiver purement et simplement les AI Overviews pour les requêtes médicales. Cette approche préventive permettrait de préserver la sécurité des utilisateurs en attendant que la technologie atteigne un niveau de maturité suffisant. Pourtant, le géant de Mountain View semble privilégier l’amélioration progressive plutôt que la suspension temporaire.

Les mécanismes techniques derrière les erreurs du diagnostic automatisé
Pour comprendre comment ces erreurs médicales se produisent, il faut examiner le fonctionnement même des algorithmes IA qui génèrent les AI Overviews. Ces systèmes reposent sur de grands modèles de langage entraînés sur d’immenses corpus de textes collectés sur Internet. Cette approche présente des failles fondamentales lorsqu’il s’agit d’informations médicales.
Premièrement, ces modèles ne distinguent pas intrinsèquement les sources fiables des contenus douteux. Un blog personnel racontant une expérience médicale individuelle peut avoir autant de poids dans l’apprentissage qu’une publication scientifique validée par des pairs. Cette équivalence artificielle crée un terrain fertile pour la propagation d’informations erronées.
Deuxièmement, les modèles de langage fonctionnent par prédiction statistique du mot ou de la phrase suivante. Ils ne « comprennent » pas réellement le contenu médical qu’ils manipulent. Cette limitation technique explique pourquoi un AI Overview peut recommander l’exact opposé du traitement approprié : l’algorithme identifie une corrélation linguistique entre « cancer du pancréas » et « éviter les graisses » sans saisir que cette association provient de sources qui discutent de ce qu’il ne faut PAS faire.
La question du diagnostic automatisé soulève également des inquiétudes spécifiques. Contrairement à un médecin qui intègre le contexte complet d’un patient – son historique, ses examens, ses facteurs de risque personnels – un AI Overview génère une réponse unique censée s’appliquer universellement. Cette approche ignore la complexité fondamentale de la médecine personnalisée.
- Absence de contextualisation : les résumés ne tiennent pas compte de l’âge, du sexe ou des antécédents médicaux
- Sources non hiérarchisées : blogs personnels et études scientifiques traités avec le même poids
- Prédiction statistique : génération basée sur des probabilités linguistiques plutôt que sur une compréhension réelle
- Absence de vérification humaine : publication automatique sans validation par des professionnels de santé
- Données d’entraînement obsolètes : décalage entre les connaissances médicales actuelles et celles intégrées au modèle
Un autre aspect technique préoccupant concerne la mise à jour des connaissances médicales. La science progresse constamment, particulièrement dans des domaines comme l’oncologie où de nouveaux protocoles thérapeutiques émergent régulièrement. Les modèles d’intelligence artificielle utilisés par les géants technologiques peuvent véhiculer des recommandations obsolètes pendant des mois avant qu’une mise à jour ne les corrige.
La variabilité des réponses observée par Athena Lamnisos révèle également un problème technique fondamental. Les grands modèles de langage incluent souvent un élément de « température » qui introduit une certaine aléatoire dans la génération de texte. Cette caractéristique, utile pour créer du contenu créatif, devient dangereuse lorsqu’il s’agit d’informations médicales où la cohérence et la précision sont primordiales.
| Limitation technique | Manifestation dans les AI Overviews | Solution potentielle |
|---|---|---|
| Sources non hiérarchisées | Confusion entre témoignages et études scientifiques | Pondération selon la fiabilité des sources |
| Absence de compréhension sémantique | Recommandations inversées ou contradictoires | Validation par des systèmes experts |
| Génération probabiliste | Variabilité des réponses selon les requêtes | Désactivation de l’aléatoire pour les contenus médicaux |
| Données d’entraînement figées | Informations médicales obsolètes | Mise à jour continue avec validation professionnelle |
| Absence de contextualisation | Conseils génériques inadaptés aux cas particuliers | Disclaimer systématique recommandant une consultation |
Les chercheurs en éthique de l’IA soulignent qu’il existe une tension fondamentale entre l’objectif commercial de Google – offrir des réponses rapides pour retenir les utilisateurs – et l’impératif de sécurité médicale qui exigerait parfois de ne pas fournir de réponse du tout. Cette contradiction structurelle explique pourquoi les améliorations techniques seules ne suffiront probablement pas à résoudre le problème.
Les enjeux d’éthique de l’IA face aux risques médicaux
Au-delà des aspects techniques, la diffusion de conseils médicaux erronés par les AI Overviews soulève des questions éthiques profondes sur le rôle de l’intelligence artificielle dans la société. Lorsqu’une technologie acquiert une position dominante dans l’accès à l’information médicale, ses créateurs portent une responsabilité proportionnelle à cette influence.
Le principe médical fondamental « primum non nocere » (d’abord ne pas nuire) devrait s’appliquer également aux systèmes d’information santé. Or, l’approche actuelle de Google semble privilégier le déploiement rapide et l’amélioration itérative, acceptant implicitement qu’un certain nombre d’erreurs se produisent en production. Cette logique du « move fast and break things », acceptable pour des applications récréatives, devient éthiquement intenable lorsque des vies sont en jeu.
La question du consentement éclairé se pose également. Les utilisateurs qui effectuent une recherche médicale sur Google sont-ils conscients que le résumé en tête de page provient d’un système automatisé potentiellement faillible? L’absence de disclaimer explicite crée une confusion entre un contenu généré par IA et une information validée par des professionnels de santé. Cette opacité constitue une forme de tromperie, même si elle n’est pas intentionnelle.
Les associations de patients qui se sont exprimées dans l’enquête du Guardian pointent un problème éthique supplémentaire : l’asymétrie de pouvoir entre un géant technologique et des individus vulnérables face à la maladie. Une personne qui vient d’apprendre qu’elle souffre d’un cancer du pancréas se trouve dans un état de fragilité psychologique qui réduit sa capacité à évaluer critiquement les informations trouvées en ligne.
- Principe de non-nuisance : obligation de garantir que la technologie ne cause pas de préjudices
- Consentement éclairé : nécessité d’informer les utilisateurs sur la nature automatisée des résumés
- Équité d’accès : risque que les populations défavorisées soient plus exposées aux erreurs
- Responsabilité algorithmique : qui est juridiquement responsable en cas de préjudice causé par une erreur?
- Transparence : obligation de documenter les limitations connues des systèmes déployés
L’éthique de l’IA médicale exige également de considérer les biais systémiques. Les modèles entraînés sur des corpus anglophones ou occidentaux peuvent véhiculer des recommandations inadaptées à d’autres populations. De même, si les données d’entraînement sous-représentent certaines pathologies rares ou certaines catégories démographiques, les AI Overviews risquent de perpétuer ces inégalités.
Une dimension éthique souvent négligée concerne l’impact sur la relation médecin-patient. Lorsqu’un patient arrive en consultation après avoir lu des informations erronées dans un AI Overview, le temps nécessaire pour déconstruire ces croyances réduit celui disponible pour le diagnostic et le traitement. Cette pollution informationnelle crée une charge cognitive supplémentaire pour les professionnels de santé déjà surchargés.
Les philosophes de la technologie soulignent que l’automatisation de certaines fonctions peut conduire à une déresponsabilisation. Si Google considère que ses algorithmes sont simplement des outils neutres qui agrègent des informations existantes, l’entreprise peut se sentir dédouanée de toute responsabilité morale quant aux conséquences de leurs erreurs. Cette position éthiquement fragile ignore le pouvoir prescriptif que ces systèmes acquièrent de facto.
| Principe éthique | Violation observée | Conséquence potentielle |
|---|---|---|
| Non-nuisance | Conseils médicaux dangereux diffusés | Aggravation de pathologies graves |
| Autonomie | Absence d’information sur les limitations de l’IA | Décisions médicales basées sur des informations fausses |
| Justice | Biais selon les populations et pathologies | Creusement des inégalités de santé |
| Transparence | Opacité sur le fonctionnement des algorithmes | Impossibilité d’évaluer la fiabilité |
| Responsabilité | Flou juridique sur les préjudices causés | Absence de recours pour les victimes |
Certains experts proposent l’établissement d’un comité d’éthique indépendant qui devrait valider tout système d’IA avant qu’il ne puisse diffuser des informations médicales au grand public. Cette approche préventive, similaire aux essais cliniques pour les médicaments, permettrait d’identifier les risques avant qu’ils ne causent des préjudices réels. Pourtant, aucune régulation contraignante n’existe actuellement dans ce domaine.
La dimension éthique s’étend également à la manière dont Google communique sur ces problèmes. Qualifier les exemples documentés de « captures d’écran incomplètes » sans reconnaître l’existence d’un problème systémique peut être interprété comme une stratégie de minimisation qui privilégie la réputation de l’entreprise sur la sécurité des utilisateurs.

Stratégies de prévention des erreurs et solutions émergentes
Face à l’ampleur des risques médicaux identifiés, plusieurs approches de prévention des erreurs émergent parmi les experts en intelligence artificielle appliquée à la santé. Ces solutions potentielles vont de modifications techniques relativement simples à des changements structurels profonds dans la manière dont les systèmes d’IA sont conçus et déployés.
La première solution consisterait à instaurer une validation humaine systématique pour toute information médicale générée automatiquement. Cette approche, déjà utilisée dans certains contextes médicaux critiques, impliquerait qu’un professionnel de santé vérifie chaque AI Overview avant sa publication. Bien qu’efficace pour garantir la précision, cette méthode soulève des questions de scalabilité étant donné le volume considérable de requêtes traitées quotidiennement.
Une alternative plus réaliste consisterait à implémenter un système de classification des requêtes selon leur niveau de risque. Les questions concernant des symptômes bénins pourraient continuer à générer des AI Overviews, tandis que celles portant sur des pathologies graves déclencheraient un disclaimer explicite recommandant une consultation médicale plutôt qu’un résumé automatisé. Cette approche graduée permettrait de concentrer les ressources de vérification sur les cas les plus critiques.
L’amélioration de la traçabilité des sources constitue également une piste prometteuse. Plutôt que de présenter un résumé comme une vérité monolithique, les AI Overviews pourraient systématiquement indiquer quelles sources spécifiques ont été utilisées pour générer chaque affirmation. Cette transparence permettrait aux utilisateurs d’évaluer par eux-mêmes la crédibilité des informations présentées.
- Validation humaine systématique : vérification par des professionnels avant publication
- Classification par niveau de risque : traitement différencié selon la gravité des pathologies
- Traçabilité des sources : indication explicite de l’origine de chaque information
- Disclaimers contextuels : avertissements adaptés selon le type de requête médicale
- Mécanismes de signalement : possibilité pour les utilisateurs de rapporter des erreurs facilement
- Audits indépendants réguliers : évaluation externe de la précision des résumés médicaux
L’utilisation d’ontologies médicales structurées représente une autre voie d’amélioration technique. Plutôt que de se reposer uniquement sur l’apprentissage automatique non supervisé, les systèmes pourraient intégrer des bases de connaissances médicales formalisées comme SNOMED CT ou MeSH. Cette hybridation permettrait de contraindre les réponses générées dans des limites médicalement validées.
Du côté réglementaire, plusieurs juridictions commencent à envisager des cadres spécifiques pour l’IA médicale. L’Union européenne, à travers son AI Act, classe les systèmes d’IA utilisés à des fins médicales dans la catégorie à haut risque, imposant des exigences strictes en matière de transparence et de validation. Une extension de ce cadre aux systèmes d’information santé grand public comme les AI Overviews pourrait forcer une évolution des pratiques.
La formation des utilisateurs constitue également un axe de prévention important mais souvent négligé. Des campagnes d’éducation à la littératie numérique et médicale pourraient aider le grand public à développer un regard plus critique sur les informations trouvées en ligne, y compris celles présentées par des acteurs perçus comme fiables. Cette approche ne résout pas le problème à la source mais réduit la vulnérabilité des utilisateurs.
| Solution proposée | Avantages | Limitations |
|---|---|---|
| Validation humaine systématique | Garantie maximale de précision | Coût prohibitif, problèmes de scalabilité |
| Classification par niveau de risque | Équilibre entre efficacité et sécurité | Difficulté à définir les critères de classification |
| Hybridation avec ontologies médicales | Contraintes formelles sur les réponses générées | Maintenance complexe, couverture incomplète |
| Encadrement réglementaire renforcé | Responsabilisation des acteurs technologiques | Risque de freiner l’innovation, complexité d’application |
| Éducation des utilisateurs | Amélioration durable de l’esprit critique | Portée limitée, évolution lente |
Certains acteurs proposent une approche plus radicale : la création d’un label de certification pour les systèmes d’IA médicale, similaire aux certifications CE pour les dispositifs médicaux. Ce label, délivré après des tests rigoureux par des organismes indépendants, permettrait aux utilisateurs d’identifier rapidement les systèmes ayant fait l’objet d’une validation approfondie. Google et d’autres géants technologiques résistent toutefois à cette perspective, invoquant le risque de surréglementation.
L’intelligence collective pourrait également jouer un rôle dans la prévention des erreurs. Des plateformes permettant aux professionnels de santé de signaler et commenter les AI Overviews problématiques créeraient une boucle de rétroaction continue. Cette approche collaborative, inspirée des systèmes de pharmacovigilance, permettrait d’identifier rapidement les patterns d’erreurs émergents et d’y remédier avant qu’ils ne causent des préjudices massifs.
Enfin, une évolution fondamentale de la philosophie de conception s’impose. Plutôt que de viser à fournir une réponse définitive à toute question, les AI Overviews sur des sujets médicaux pourraient adopter une posture plus humble, présentant plusieurs perspectives issues de sources médicales fiables et encourageant explicitement la consultation d’un professionnel. Cette approche reconnaîtrait les limites intrinsèques de l’automatisation dans le domaine médical.
Les AI Overviews de Google sont-ils fiables pour les questions médicales?
Les enquêtes récentes révèlent que les résumés générés par l’IA de Google contiennent régulièrement des erreurs médicales graves. Ils ont notamment diffusé des conseils inversés pour le cancer du pancréas, des interprétations erronées d’analyses hépatiques et des confusions sur le dépistage de cancers. Ces résumés ne devraient jamais remplacer l’avis d’un professionnel de santé.
Comment reconnaître un AI Overview dans les résultats Google?
Les AI Overviews apparaissent en tête des résultats de recherche, avant les liens traditionnels. Ils présentent un résumé textuel directement généré par l’intelligence artificielle de Google. Ces résumés concernent environ 20,5% des recherches, principalement celles à intention informationnelle. Il est essentiel de vérifier ces informations auprès de sources médicales validées avant de suivre leurs recommandations.
Que faire si je trouve une information médicale erronée dans un AI Overview?
Il est recommandé de signaler l’erreur via les mécanismes de feedback de Google, bien que leur efficacité reste limitée. Surtout, ne suivez jamais de conseil médical trouvé en ligne sans l’avoir validé avec un professionnel de santé qualifié. Privilégiez les sources médicales officielles comme les sites des associations de patients ou des autorités sanitaires nationales.
Pourquoi les algorithmes d’IA font-ils des erreurs sur les informations médicales?
Les grands modèles de langage qui génèrent les AI Overviews ne comprennent pas réellement le contenu médical. Ils fonctionnent par prédiction statistique basée sur des corpus de textes qui mélangent sources fiables et contenus douteux. Ils ne peuvent pas contextualiser l’information selon l’âge, le sexe ou les antécédents du patient, et véhiculent parfois des connaissances obsolètes.
Existe-t-il des réglementations pour encadrer l’IA médicale?
Certaines juridictions comme l’Union européenne commencent à réguler les systèmes d’IA à usage médical via l’AI Act, qui les classe comme systèmes à haut risque. Toutefois, les AI Overviews de Google échappent actuellement à la plupart des cadres réglementaires car ils ne sont pas formellement classés comme dispositifs médicaux. Cette zone grise juridique pose problème en termes de responsabilité et de protection des utilisateurs.

