Les enjeux de ChatGPT Health face aux urgences médicales : une étude alarmante

ChatGPT Health et les urgences médicales : une étude préoccupante
Publié le 03 mars 2026
Par Hélène Bour
L'outil d'intelligence artificielle (IA) ChatGPT Health ne se révèle pas à la hauteur des attentes lorsqu'il s'agit d'évaluer et de gérer une urgence médicale. C'est ce que révèle une nouvelle étude parue le 23 février 2026 dans la revue Nature Medicine.
Galerie

Des résultats édifiants
Cette recherche met en lumière les limites de ChatGPT Health, qui pourrait induire les utilisateurs en erreur en leur fournissant des conseils inappropriés concernant leur santé. Autrement dit, l'IA pourrait ne pas identifier correctement le caractère urgent d'une situation, mettant ainsi en péril la santé des utilisateurs.
Le Dr Isaac S. Kohane, directeur du département d’informatique biomédicale à la faculté de médecine de Harvard, a déclaré : « Les systèmes d’intelligence artificielle sont devenus le premier réflexe des patients pour obtenir des conseils médicaux, mais en 2026, leur fiabilité est moindre aux extrêmes cliniques, là où le jugement fait la différence entre les urgences manquées et les alarmes inutiles. »
Un usage croissant et des interrogations persistantes
Quelques semaines après son lancement, OpenAI, créateur de ChatGPT Health, a rapporté que près de 40 millions de personnes utilisaient quotidiennement cet outil pour obtenir des conseils de santé, notamment pour déterminer s'il était nécessaire de se rendre aux urgences. Toutefois, la fiabilité et la sécurité des conseils fournis n'ont pas encore été évaluées de manière indépendante.
Le Dr Ashwin Ramaswamy, auteur principal de l’étude et professeur d’urologie à l’École de médecine Icahn du Mont Sinaï à New York, a expliqué : « Ce manque a motivé notre étude. Nous souhaitions répondre à une question fondamentale : si une personne est confrontée à une véritable urgence médicale et se tourne vers ChatGPT Health pour obtenir de l’aide, le système lui indiquera-t-il clairement de se rendre aux urgences ? »
Des incohérences inquiétantes dans les réponses
Les résultats de l'étude sont préoccupants. Les chercheurs ont observé des incohérences dans les réponses fournies par l'outil, avec des alertes pour appeler les urgences apparaissant dans des scénarios à faible risque, tandis qu'elles étaient absentes dans des contextes plus graves, comme lors de l'expression d'intentions suicidaires.
Le Dr Girish N. Nadkarni, coauteur de l’étude, a souligné : « Nous nous attendions à une certaine variabilité, mais ce que nous avons observé allait bien au-delà de l’incohérence. Les alertes du système étaient inversées par rapport au risque clinique : elles apparaissaient plus fréquemment dans les scénarios à faible risque que dans les cas où une personne décrivait ses intentions suicidaires. »
En effet, lorsque quelqu’un précise comment il envisage de se faire du mal, cela constitue un signe de danger immédiat et grave, et non l’inverse.
Cas d'urgence bien gérés, mais des limites à reconnaître
Le Dr Ramaswamy a noté que ChatGPT Health a bien fonctionné dans des situations d'urgence classiques, comme un AVC ou une réaction allergique sévère. Cependant, il a rencontré des difficultés dans des situations plus nuancées où le danger n'est pas immédiatement évident. Dans des cas d'asthme, par exemple, le système a identifié des signes avant-coureurs d'insuffisance respiratoire, mais a néanmoins conseillé d'attendre avant de consulter un médecin en urgence.
Recommandations des chercheurs
Face à ces constats, les scientifiques recommandent de consulter directement un médecin plutôt que de se fier à ChatGPT Health ou à tout autre outil d'IA lorsque l'état s'aggrave ou que des symptômes inquiétants apparaissent (comme l'essoufflement, les douleurs thoraciques ou les réactions allergiques graves). En cas de pensées suicidaires, il est conseillé d'appeler le numéro d'urgence dédié, soit le 31 14 en France.
Les chercheurs ne préconisent pas d'abandonner les outils de santé basés sur l'IA, mais soulignent l'importance de connaître leurs limites et de les utiliser avec discernement.
Sources
- Ramaswamy, A., Tyagi, A., Hugo, H. et al. ChatGPT Health performance in a structured test of triage recommendations. Nat Med (2026). https://doi.org/10.1038/s41591-026-04297-7
- “Research identifies blind spots in AI medical triage”, Eurekalert, 24/02/26.




