Sante

ChatGPT Health et les Urgences Médicales : Une Étude Alarmante sur les Risques d'Erreurs

18 mars 2026
638 mots
ChatGPT Health et les Urgences Médicales : Une Étude Alarmante sur les Risques d'Erreurs

ChatGPT Health : Des Risques Sous-Estimés dans l'Évaluation des Urgences Médicales

Publié le 03 mars 2026 par Hélène Bour

L'outil d'intelligence artificielle (IA) ChatGPT Health pourrait ne pas être aussi fiable qu'on pourrait l'espérer lorsqu'il s'agit d'évaluer et de gérer une urgence médicale. C'est ce que révèle une étude récente publiée dans le numéro du 23 février 2026 de la revue Nature Medicine.

Galerie

Une étude montre que ChatGPT Health a mal évalué la gravité des ...
Une étude montre que ChatGPT Health a mal évalué la gravité des ...
La version gratuite de ChatGPT peut fournir de fausses réponses aux ...
La version gratuite de ChatGPT peut fournir de fausses réponses aux ...

Une Étude Révélatrice

Les chercheurs ont mis en lumière que l'IA ChatGPT Health pourrait induire les utilisateurs en erreur lorsqu'ils se tournent vers cet outil pour des conseils médicaux. Plus précisément, l'outil pourrait ne pas détecter la nature urgente d'une situation, mettant ainsi en péril la santé des utilisateurs.

Le Dr Isaac S. Kohane, directeur du département d'informatique biomédicale de la faculté de médecine de Harvard, a déclaré : "Les systèmes d'intelligence artificielle sont devenus le premier réflexe des patients pour obtenir des conseils médicaux, mais en 2026, leur fiabilité est moindre aux extrêmes cliniques, là où le jugement fait la différence entre les urgences manquées et les alarmes inutiles".

Une Utilisation Croissante, mais Risquée

Quelques semaines après son lancement, OpenAI, le créateur de ChatGPT Health, a signalé que près de 40 millions de personnes utilisaient quotidiennement cet outil pour obtenir des conseils sur leur santé, y compris sur la nécessité de consulter en urgence. Toutefois, la fiabilité et la sécurité des conseils fournis par cet outil n'ont pas encore été évaluées de manière indépendante.

Le Dr Ashwin Ramaswamy, auteur principal de l'étude et professeur d'urologie à l'École de médecine Icahn du Mont Sinaï (New York, États-Unis), a expliqué : "Ce manque a motivé notre étude. Nous souhaitions répondre à une question fondamentale : si une personne est confrontée à une véritable urgence médicale et se tourne vers ChatGPT Health pour obtenir de l'aide, le système lui indiquera-t-il clairement de se rendre aux urgences ?"

Des Résultats Préoccupants

Les résultats de l'étude sont préoccupants. Les chercheurs ont constaté des incohérences dans les réponses de l'outil. Des alertes invitant à appeler les urgences se déclenchaient dans des scénarios à faible risque, tandis qu'elles étaient absentes dans des contextes plus préoccupants, comme lors d'intentions suicidaires clairement exprimées.

Girish N. Nadkarni, coauteur de l'étude, a souligné : "Nous nous attendions à une certaine variabilité, mais ce que nous avons observé allait bien au-delà de l'incohérence. Les alertes du système étaient inversées par rapport au risque clinique : elles apparaissaient plus fréquemment dans les scénarios à faible risque que dans les cas où une personne décrivait ses intentions suicidaires."

Quand l'IA Fait Faute

Selon le Dr Ramaswamy, "ChatGPT Health a bien fonctionné dans les situations d'urgence classiques comme un AVC ou une réaction allergique grave". Cependant, il a rencontré des difficultés dans des situations plus nuancées où le danger n'est pas immédiatement évident. Par exemple, dans un scénario d'asthme, le système a détecté des signes avant-coureurs d'insuffisance respiratoire, mais a conseillé d'attendre au lieu de consulter un médecin en urgence.

Recommandations des Chercheurs

En raison de ces résultats, les scientifiques recommandent de consulter directement un médecin plutôt que de passer par ChatGPT ou tout autre outil basé sur l'IA lorsque l'état s'aggrave ou que des symptômes inquiétants apparaissent, tels que :

  • Essoufflement
  • Douleurs thoraciques
  • Réactions allergiques graves

En cas de pensées suicidaires, il est crucial d'appeler le numéro d'urgence dédié, à savoir le 31 14 en France.

Cependant, les chercheurs ne conseillent pas d'abandonner les outils de santé basés sur l'IA, mais plutôt d'en connaître les limites et de les utiliser avec discernement.

Conclusion

Il est essentiel d'être conscient des limites des technologies d'IA dans le domaine de la santé. Si ces outils offrent des avantages indéniables, leur utilisation doit s'accompagner d'une vigilance constante.

Pour en savoir plus, consultez l'étude complète : ChatGPT Health performance in a structured test of triage recommendations.