ChatGPT Santé inquiète les professionnels de la santé
Alors que l'intelligence artificielle s'immisce dans les recoins les plus intimes de notre quotidien, un vent de panique souffle sur la communauté médicale internationale. En cause : le récent déploiement de « ChatGPT Santé », une déclinaison de l'outil d'OpenAI lancée en toute discrétion en janvier 2026.
Malgré une mise en garde paradoxale de la firme précisant que le programme n'est pas apte à poser des diagnostics, les chiffres sont vertigineux avec près de quarante millions d'utilisateurs quotidiens qui viennent soumettre leurs douleurs et leurs angoisses à l'algorithme. Pourtant, une étude indépendante d'une ampleur inédite, menée par les experts de l'Icahn School of Medicine at Mount Sinai à New York et publiée dans la prestigieuse revue Nature Medicine, vient de jeter un froid polaire sur cette innovation. Les conclusions sont sans appel : en matière d'urgence vitale, la machine se trompe une fois sur deux, au risque de mettre en péril la vie de ceux qui l'interrogent.
Pour mettre à l'épreuve la fiabilité de ce nouveau soignant virtuel, les scientifiques ont élaboré près d'un millier de scénarios cliniques couvrant une vingtaine de spécialités médicales. Ils ont ainsi confronté les réponses du chatbot aux décisions d'un collège de praticiens expérimentés. Le constat est d'une sévérité alarmante puisque dans 52 % des cas jugés critiques par les médecins, l'IA a minimisé la gravité de la situation. Des patients virtuels souffrant d'une détresse respiratoire aiguë ou d'une complication diabétique sévère se sont vus conseiller d'attendre tranquillement un rendez-vous dans les quarante-huit heures, là où chaque minute comptait. Si les situations les plus caricaturales, comme un accident vasculaire cérébral massif, sont généralement bien identifiées, le système échoue dès que les symptômes requièrent une analyse de triage plus subtile.
Plus inquiétant encore, les chercheurs ont mis en lumière un comportement algorithmique totalement incohérent, voire schizophrénique. Dans certains tests portant sur des crises d'asthme graves, le logiciel parvenait à lister correctement les signes d'une insuffisance respiratoire imminente dans son explication, pour finalement conclure sa réponse par un message rassurant incitant à la patience. Ce décalage entre l'observation des symptômes et la recommandation finale s'avère être un piège mortel pour un utilisateur néophyte qui s'en remet à la machine. On espère vivement que ces révélations pousseront les développeurs à revoir de fond en comble la logique de décision de leur outil, car ce type de désamorçage injustifié de l'urgence est jugé « incroyablement dangereux » par les experts en sécurité sanitaire.
L'étude pointe également une vulnérabilité troublante de l'IA face aux influences extérieures et au contexte social. Les chercheurs ont remarqué que si un proche simulé dans la conversation minimisait les douleurs du patient, la probabilité que le chatbot réduise le niveau d'alerte était multipliée par douze. À l'inverse, l'outil a tendance à saturer inutilement les services hospitaliers en envoyant aux urgences près de deux tiers des personnes ne présentant aucune pathologie grave. Cette incapacité à rester objectif face à un discours biaisé montre que l'algorithme est encore loin de posséder la rigueur d'un professionnel de santé. Nul doute que ce manque de discernement pose un problème majeur de santé publique, tant pour la sécurité individuelle que pour l'engorgement des structures médicales réelles.
Le volet le plus sombre de cette enquête concerne sans conteste la gestion des crises psychologiques et des risques suicidaires. Le dispositif de sécurité d'OpenAI, censé déclencher un bandeau d'alerte vers des lignes de secours, s'est révélé être d'une instabilité effrayante. Paradoxalement, les messages d'aide apparaissaient moins souvent lorsque le patient décrivait un plan d'action concret que lorsqu'il restait évasif. Plus absurde encore : l'ajout de simples résultats d'analyses biologiques normales dans la discussion suffisait à faire disparaître instantanément les garde-fous de prévention du suicide, même si le patient exprimait toujours la même détresse. Cette dépendance à des données non pertinentes pour la santé mentale rend le système totalement imprévisible et, par extension, plus menaçant qu'une absence totale de protection.
Face à ces critiques acerbes, OpenAI a tenté de tempérer les résultats en affirmant que l'étude ne reflétait pas l'utilisation réelle du produit et que des améliorations étaient constantes. Cependant, l'argument peine à convaincre alors que le logiciel est déjà entre les mains de millions de personnes sans avoir subi de validation externe préalable. L'ECRI, organisme de référence en sécurité des patients, n'avait d'ailleurs pas hésité à classer l'usage détourné de ces chatbots comme le risque technologique majeur de l'année 2026. On attend impatiemment les prochaines évaluations promises sur la pédiatrie ou la sécurité médicamenteuse pour voir si une prise de conscience s'opère chez les géants de la technologie. En attendant, le message des scientifiques reste limpide : face à un symptôme inquiétant, rien ne remplacera jamais l'avis d'un humain diplômé en médecine.
Soyez le premier à commenter !