Diagnostic rapide aux urgences : comment ChatGPT peut-il aider? (Etude)

Le diagnostic rapide des patients au service des urgences est essentiel pour améliorer les résultats cliniques et réduire la durée de séjour. Des chercheurs néérlandais ont testé ChatGPT dans un service d'urgences aux Pays-Bas. Ils ont constatés que l'IA a réalisé des diagnostics au moins aussi bien que des médecins et les a dans certains cas surpassés.

Les auteurs de l'étude parue mercredi ont toutefois souligné que les jours des médecins urgentistes n'étaient pas encore comptés, le chatbot étant potentiellement capable d'accélérer le diagnostic mais pas de remplacer le jugement et l'expérience d'un humain. 

Trente cas traités dans un service d'urgences aux Pays-Bas en 2022 ont été examinés en alimentant ChatGPT en fonction des antécédents des patients, des tests en laboratoire et des observations des médecins, demandant au chatbot de proposer cinq diagnostics possibles.

Dans 87% des cas, le bon diagnostic se trouvait dans la liste des praticiens, contre 97 % pour la version 3.5 de ChatGPT. 

Le chatbot "était capable de réaliser des diagnostics médicaux un peu comme l'aurait fait un médecin humain", a résumé Hidde ten Berg, du service d'urgence de l'hôpital Jeroen Bosch, dans le sud des Pays-Bas. 

Le coauteur de l'étude Steef Kurstjens a souligné que celle-ci ne concluait pas que des ordinateurs pourraient un jour diriger les urgences mais que l'IA pouvait jouer un rôle vital en aidant les médecins sous pression. 

Le chatbot "peut aider à réaliser un diagnostic différentiel et peut peut-être proposer des idées auxquelles le médecin n'avait pas pensé", a-t-il déclaré à l'AFP. 

De tels outils ne sont pas conçus comme des dispositifs médicaux, a-t-il toutefois relevé, partageant également des inquiétudes quant à la confidentialité des données médicales sensibles dans un chatbot. 

Et, comme dans d'autres domaines, ChatGPT a rencontré certaines limites. 

Son raisonnement était "parfois médicalement invraisemblable ou incohérent, ce qui peut conduire à des informations erronées ou à un diagnostic incorrect, avec des implications importantes", note l'étude. 

Les scientifiques admettent également certaines lacunes dans leurs recherches, comme la petite taille de l'échantillon. 

De plus, seuls des cas relativement simples ont été examinés, avec des patients présentant une seule plainte principale. L'efficacité du chatbot dans des cas complexes n'est pas claire.

Parfois, ChatGPT ne fournissait pas le bon diagnostic dans les cinq possibilités, explique M. Kurstjens, notamment dans le cas d'un anévrisme aortique abdominal, une complication potentiellement mortelle, avec l'aorte qui enfle. 

Mais, consolation pour ChatGPT, dans ce cas, le médecin s'est également trompé. 

Le rapport signale en outre des "gaffes" médicales commises par le chatbot, par exemple en diagnostiquant une anémie  chez un patient présentant un taux d'hémoglobine normal.

Les résultats de l'étude, parus dans la revue spécialisée Annals of Emergency Medicine, seront présentés au Congrès européen de médecine d'urgence (EUSEM) de 2023 à Barcelone.

Lire aussi:

> ChatGPT en consultation médicale : une étude pionnière mesure son potentiel et ses limites

> L’Intelligence Artificielle plus empathique que les médecins? 

 

Vous souhaitez commenter cet article ?

L'accès à la totalité des fonctionnalités est réservé aux professionnels de la santé.

Si vous êtes un professionnel de la santé vous devez vous connecter ou vous inscrire gratuitement sur notre site pour accéder à la totalité de notre contenu.
Si vous êtes journaliste ou si vous souhaitez nous informer écrivez-nous à redaction@rmnet.be.