Intelligence artificielle et santé : peut-on vraiment faire confiance à ChatGPT pour un diagnostic médical ?

Utilisation de ChatGPT Santé sur un ordinateur portable pour assister à la rédaction ou à la recherche médicale
adil.benlyazid

Intelligence artificielle et santé : peut-on vraiment faire confiance à ChatGPT pour un diagnostic médical ?

Dans un monde où l’intelligence artificielle médicale explose sur nos écrans et nos smartphones, une question inquiète autant qu’elle intrigue : faut-il se fier à ChatGPT santé ou à d’autres agents conversationnels pour poser un diagnostic médical fiable ?

Alors que des millions de patients tapent chaque mois leurs symptômes sur Google ou consultent des IA comme ChatGPT, une étude britannique de référence publiée dans la revue Nature Medicine vient d’apporter une réponse cinglante : l’IA reste très loin de remplacer un vrai médecin ORL ou généraliste, surtout dans le contexte d’une vraie consultation. Et les résultats sont… troublants.

Utilisation de ChatGPT Santé sur un ordinateur portable pour assister à la rédaction ou à la recherche médicale
L’intelligence artificielle comme ChatGPT est de plus en plus utilisée dans le domaine de la santé pour générer des textes médicaux, accompagner le diagnostic ou créer du contenu éducatif.

Le mot-clé principal, ChatGPT santé, n’a jamais été aussi populaire dans les moteurs de recherche. Sur TikTok, Instagram et Google, les internautes s’interrogent : « J’ai mal à la gorge, est-ce que c’est grave ? », « Est-ce un cancer du larynx ? », « L’IA peut-elle me dire si je dois aller à l’hôpital ? »

Mais derrière cette révolution digitale se cache une faille majeure : une IA, aussi puissante soit-elle, n’est pas un médecin. Et surtout, elle n’a pas accès à votre gorge, vos cordes vocales ni vos antécédents médicaux.

Le verdict de l’étude d’Oxford : seulement 1 bon diagnostic sur 3

Des chercheurs de l’université d’Oxford ont mené une étude de grande ampleur impliquant 1 298 participants répartis sur plusieurs scénarios médicaux types. Chaque personne devait interagir avec une IA (ChatGPT GPT-4o, Llama 3 ou Command R+) ou utiliser Google comme à son habitude. Résultat ?

 

  • Moins de 34,5 % des utilisateurs ont trouvé le bon diagnostic avec l’aide d’une IA.

  • Le choix de la bonne action médicale (aller aux urgences, rester chez soi, voir un ORL…) n’a été correct que dans 44,2 % des cas, soit pas mieux que les internautes livrés à eux-mêmes .

Pourquoi l’IA échoue face à un vrai ORL ?

Parce qu’un diagnostic ORL, comme celui que je pose chaque jour en cabinet à Casablanca, repose sur bien plus qu’un simple échange de questions-réponses.

1. L’IA est forte… mais seule

L’étude a montré que les IA analysaient très bien les scénarios quand elles étaient seules. Par exemple, GPT-4o trouve 94,9 % des bons diagnostics sans intervention humaine. Mais dès qu’un humain entre dans l’équation, la qualité s’effondre.

Pourquoi ? Parce que :

 

  • Le patient ne décrit pas bien ses symptômes.

  • L’IA interprète mal les questions ou propose des pistes trop vagues.

  • Le patient n’applique pas les conseils, même quand ils sont bons.

 

Représentation de l’intelligence artificielle appliquée à la médecine avec les lettres AI en 3D sur fond numérique
L’IA bouleverse la médecine moderne : des outils prédictifs au diagnostic assisté, en passant par la médecine personnalisée.

2. L’interaction homme-machine est le vrai maillon faible

Le problème ne vient donc pas uniquement de l’IA. Il vient aussi de nous, les humains, qui :

 

  • N’utilisons pas les bons mots.

  • Oublions des détails essentiels (par exemple « j’ai aussi de la fièvre »).

  • Prenons pour acquis que l’IA « a tout compris ».

 

Main humaine tenant une main robotique : symbole de l’interaction homme-machine dans le futur
L’avenir de la médecine passera aussi par la collaboration entre intelligence artificielle et intelligence humaine.

ChatGPT et symptômes ORL : les dangers à ne pas sous-estimer

Les erreurs de diagnostic peuvent avoir des conséquences graves. Voici quelques exemples concrets tirés de mon expérience en tant que médecin ORL à Casablanca :

Symptôme mal décrit

Risque d’erreur avec IA

Diagnostic réel (en cabinet ORL)

Gorge qui gratte + fatigue

Simple rhume… ou cancer du larynx ?

Laryngite chronique ou tumeur précoce

Bourdonnements d’oreille

Stress ou tension ?

Acouphènes + perte auditive liée à l’exposition au bruit

Vertiges soudains

Hypoglycémie ?

Névrite vestibulaire ou Ménière

Douleur à la déglutition

Gorge irritée ?

Angine bactérienne ou abcès péri-amygdalien

Toux nocturne persistante

Reflux gastrique ?

Allergie ORL ou asthme d’origine ORL

Tableau comparatif : IA vs consultation ORL réelle

CritèreIA (ChatGPT, etc.)Médecin ORL en cabinet
Examen physique❌ Impossible✅ Observation directe, palpation, endoscopie
Analyse de la voix et du souffle❌ Aucun retour auditif✅ Évaluation en temps réel
Connaissance du patient❌ Aucun antécédent connu✅ Suivi médical personnalisé
Fiabilité du diagnostic⚠️ Aléatoire selon la formulation✅ Diagnostic basé sur l’observation et les données cliniques
Recommandation thérapeutique⚠️ Générique et non adaptée✅ Prescription ajustée avec examens si besoin

Que dit la science ? Des IA brillantes… mais dangereusement séduisantes

L’article publié dans Nature Medicine est sans appel : les IA actuelles, bien que performantes en théorie, échouent en pratique réelle avec des patients non formés. La raison est simple :

Les IA « ne peuvent pas encore interpréter correctement des échanges humains incomplets, ambigus ou émotionnels. »

Même dans le meilleur des cas, les chercheurs estiment que l’IA peut orienter le patient dans la mauvaise direction, créer de la confusion ou induire un faux sentiment de sécurité.

ChatGPT santé : utile pour s’informer, jamais pour se soigner

Soyons clairs : ChatGPT santé peut être un bon point de départ pour apprendre, poser des questions générales, comprendre ce qu’est une sinusite, une otite ou un reflux.

Mais il ne remplacera jamais :

 

  • Un fibroscope ORL pour voir la gorge et les cordes vocales.

  • Un bilan auditif complet en cas de perte d’audition.

  • Un examen clinique avec prise de tension, inspection des ganglions, etc.

 

Mon conseil de médecin ORL à Casablanca

Je reçois tous les jours des patients qui ont consulté une IA ou fait un « pré-diagnostic » en ligne. Parfois, cela les aide à venir plus tôt. Mais souvent, cela retarde la vraie prise en charge. Et cela peut coûter cher, en santé comme en anxiété.

➡️ Mon message est simple :

Faites confiance à votre médecin, pas à une machine.

Pour aller plus loin (liens utiles)

Le Dr BENLYAZID Adil, ORL à Casablanca souriant, assis dans son bureau.
Le Dr BENLYAZID Adil dans son bureau à Casablanca.

Ce que Google ne vous dira jamais

Le numérique est une formidable avancée pour l’éducation et la prévention santé. Mais comme le résume si bien l’étude britannique :

« Aucun modèle d’intelligence artificielle, aussi avancé soit-il, ne remplace une relation médecin-patient. »

Et ça, aucun chatbot ne pourra jamais l’écrire aussi bien que nous, médecins humains.

Questions fréquentes sur l'IA et l'ORL

1️⃣ Peut-on faire confiance à ChatGPT pour un diagnostic médical ?

Non. Les études montrent que ChatGPT n’est pas fiable pour poser un diagnostic précis. Il peut donner des informations générales, mais ne remplace pas un médecin.

ChatGPT ne peut pas observer directement les symptômes (gorge, voix, oreilles). Il lui manque l’examen clinique essentiel à un bon diagnostic ORL.

Oui, mais en complément du médecin. Elle peut aider à informer, orienter ou analyser des données, mais jamais à poser un diagnostic seul.

Une étude publiée dans Nature Medicine révèle que l’IA seule est performante, mais échoue dès qu’elle interagit avec un patient humain.

Toujours. Même si l’IA semble rassurante, seul un médecin ORL peut confirmer un diagnostic après un examen complet.