Sante

ChatGPT Health et les Urgences Médicales : Une Étude Alarmante Révèle des Lacunes Inquiétantes

10 mars 2026
638 mots
ChatGPT Health et les Urgences Médicales : Une Étude Alarmante Révèle des Lacunes Inquiétantes

ChatGPT Health et les Urgences Médicales

Publié le 03 mars 2026 par Hélène Bour

L'outil d'intelligence artificielle (IA) ChatGPT Health ne serait pas aussi efficace qu'on pourrait le penser pour évaluer et gérer les urgences médicales. C'est ce que révèle une nouvelle étude publiée dans la revue Nature Medicine en date du 23 février 2026.

Galerie

Urgences Médicales : Anticiper pour Mieux Agir
Urgences Médicales : Anticiper pour Mieux Agir
Hurry-up : les urgences médicales au cabinet - 13/11/26 - ADAB
Hurry-up : les urgences médicales au cabinet - 13/11/26 - ADAB

Des Résultats Préoccupants

Cette étude met en lumière que l'IA, bien qu'innovante, pourrait induire les utilisateurs en erreur lorsqu'ils recherchent des conseils médicaux. En effet, l'outil pourrait ne pas reconnaître le caractère urgent de certains problèmes de santé, mettant ainsi en danger la vie de ses utilisateurs.

« Les systèmes d'intelligence artificielle sont devenus le premier réflexe des patients pour obtenir des conseils médicaux, mais en 2026, leur fiabilité est moindre dans les cas les plus critiques, là où un jugement avisé peut faire la différence entre une urgence manquée et une alarme inutile », a déclaré le Dr Isaac S. Kohane, directeur du département d'informatique biomédicale de la faculté de médecine de Harvard.

Utilisation Croissante de l'IA

Peu après son lancement, OpenAI a annoncé que près de 40 millions de personnes utilisaient quotidiennement ChatGPT Health pour évaluer la nécessité d'une consultation médicale urgente. Cependant, la fiabilité et la sécurité de ces conseils n'ont pas été évaluées de manière indépendante.

« Ce manque d'évaluation a motivé notre étude », a expliqué le Dr Ashwin Ramaswamy, auteur principal de l'étude et professeur d'urologie à l'École de médecine Icahn du Mont Sinaï à New York. « Nous souhaitions répondre à une question fondamentale : si une personne est confrontée à une véritable urgence médicale et se tourne vers ChatGPT Health pour obtenir de l'aide, le système lui dira-t-il clairement de se rendre aux urgences ? »

Incohérences dans les Réponses

Les résultats ont révélé des incohérences notables dans les réponses de l'outil. Des alertes pour appeler les urgences se déclenchaient dans des scénarios à faible risque, tandis qu'elles manquaient dans des contextes plus préoccupants, notamment en cas de pensées suicidaires clairement exprimées.

« Nous nous attendions à une certaine variabilité, mais ce que nous avons observé était bien plus qu'une simple incohérence. Les alertes du système étaient inversées par rapport au risque clinique », a déploré Girish N. Nadkarni, coauteur de l'étude. « Quand une personne décrit précisément comment elle compte se faire du mal, cela indique un danger immédiat et sérieux, et non l'inverse ».

Situations d'Urgence

Le Dr Ramaswamy a souligné que ChatGPT Health a bien fonctionné dans des situations d'urgence classiques, telles que les AVC ou les réactions allergiques sévères. Cependant, l'outil a montré des lacunes dans des situations plus nuancées où le danger n'est pas immédiatement évident. Par exemple, dans un scénario d'asthme, le système a détecté des signes avant-coureurs d'insuffisance respiratoire mais a conseillé d'attendre plutôt que de consulter un médecin d'urgence.

Recommandations des Chercheurs

Face à ces constatations, les chercheurs recommandent de consulter directement un médecin en cas d'aggravation de l'état de santé ou l'apparition de symptômes inquiétants tels que :

  • Essoufflement
  • Douleurs thoraciques
  • Réactions allergiques graves

En cas de pensées suicidaires, il est crucial d'appeler le numéro d'urgence dédié, soit le 31 14 en France.

Cependant, les chercheurs ne préconisent pas l'abandon des outils de santé basés sur l'IA, mais soulignent l'importance de connaître leurs limites et de les utiliser avec discernement.

Conclusion

Cette étude met en évidence un besoin urgent de mieux évaluer et améliorer les outils d'IA dans le domaine médical. Alors que l'intelligence artificielle continue de transformer le paysage de la santé, il est essentiel que les utilisateurs restent vigilants et consultent des professionnels de santé qualifiés en cas de doute.

Sources :

  • Ramaswamy, A., Tyagi, A., Hugo, H. et al. ChatGPT Health performance in a structured test of triage recommendations. Nat Med (2026). https://doi.org/10.1038/s41591-026-04297-7
  • “Research identifies blind spots in AI medical triage”, Eurekalert, 24/02/26.