Actu

Testé aux urgences, ChatGPT a réalisé des diagnostics « aussi bien » qu’un médecin

19 septembre 2023
Par Kesso Diallo
Malgré ces résultats prometteurs, les chercheurs ont précisé que ChatGPT ne peut pas remplacer le jugement et l’expérience d’un humain.
Malgré ces résultats prometteurs, les chercheurs ont précisé que ChatGPT ne peut pas remplacer le jugement et l’expérience d’un humain. ©Rokas Tenys / Shutterstock

Des chercheurs néerlandais estiment que le chatbot d’OpenAI pourrait « révolutionner le domaine médical ».

Loin de remplacer les cancérologues, ChatGPT serait plus doué aux urgences. Selon une étude parue mercredi dernier dans la revue Annals of Emergency Medicine relayée par l’AFP, le célèbre robot conversationnel a réalisé des diagnostics aussi performants que ceux des médecins, et parfois meilleurs aux urgences d’un hôpital des Pays-Bas. 

Dans le cadre de celles-ci, l’intelligence artificielle (IA) devait analyser 30 cas traités l’année dernière et proposer cinq diagnostics possibles. Pour cela, les chercheurs néerlandais lui ont donné accès aux antécédents des patients, aux tests effectués en laboratoire et aux observatoires des médecins. Résultat : alors que le bon diagnostic se trouvait dans la liste des praticiens dans 87% des cas, ce chiffre s’est élevé à 97% pour la version 3.5 de ChatGPT. Le robot conversationnel « était capable de réaliser des diagnostics médicaux un peu comme l’aurait fait un médecin humain », a déclaré Hidde ten Berg, du service d’urgence de l’hôpital Jeroen Bosch, dans le sud des Pays-Bas.

Ne pas remplacer mais aider les médecins

Malgré ces résultats prometteurs, les chercheurs ont précisé que ChatGPT ne peut pas remplacer le jugement et l’expérience d’un humain. Il est néanmoins potentiellement capable d’accélérer le diagnostic. Steef Kurstjens, coauteur de l’étude, a souligné que celle-ci ne conclut pas que les ordinateurs pourront un jour diriger les urgences mais plutôt que l’IA peut jouer un rôle vital en aidant les médecins sous pression. Elle « peut aider à réaliser un diagnostic et peut peut-être proposer des idées auxquelles le médecin n’avait pas pensé », a expliqué le chercheur à l’AFP. 

Steef Kurstjens a cependant rappelé que les outils tels que ChatGPT ne sont pas conçus comme des dispositifs médicaux, s’inquiétant aussi de la confidentialité des données médicales sensibles dans un robot conversationnel. 

Lors de cette étude, le chatbot a également montré ses limites, notamment avec un raisonnement « parfois médicalement invraisemblable ou incohérent, ce qui peut conduire à des informations erronées ou à un diagnostic incorrect ». Il a aussi commis des « gaffes » médicales, en diagnostiquant, par exemple, une anémie chez un patient dont le taux d’hémoglobine était normal. L’étude présentait en outre certaines lacunes, ont reconnu les chercheurs, comme la petite taille de l’étude ou la simplicité des cas examinés. Autrement dit, il n’est pas sûr que ChatGPT soit aussi doué avec des cas complexes.

À lire aussi

Article rédigé par
Kesso Diallo
Kesso Diallo
Journaliste