Diagnostic rapide aux urgences : comment ChatGPT peut-il aider? (Etude)

LESPECIALISTE, 13/09/2023

Partagé par : 

Beesens TEAM

Diagnostic rapide aux urgences : comment ChatGPT peut-il aider? (Etude)

"Le diagnostic rapide des patients au service des urgences est essentiel pour améliorer les résultats cliniques et réduire la durée de séjour. Des chercheurs néérlandais ont testé ChatGPT dans un service d'urgences aux Pays-Bas. Ils ont constatés que l'IA a réalisé des diagnostics au moins aussi bien que des médecins et les a dans certains cas surpassés.

Les auteurs de l'étude parue mercredi ont toutefois souligné que les jours des médecins urgentistes n'étaient pas encore comptés, le chatbot étant potentiellement capable d'accélérer le diagnostic mais pas de remplacer le jugement et l'expérience d'un humain.

Trente cas traités dans un service d'urgences aux Pays-Bas en 2022 ont été examinés en alimentant ChatGPT en fonction des antécédents des patients, des tests en laboratoire et des observations des médecins, demandant au chatbot de proposer cinq diagnostics possibles.

Dans 87% des cas, le bon diagnostic se trouvait dans la liste des praticiens, contre 97 % pour la version 3.5 de ChatGPT.

Le chatbot "était capable de réaliser des diagnostics médicaux un peu comme l'aurait fait un médecin humain", a résumé Hidde ten Berg, du service d'urgence de l'hôpital Jeroen Bosch, dans le sud des Pays-Bas.

Le coauteur de l'étude Steef Kurstjens a souligné que celle-ci ne concluait pas que des ordinateurs pourraient un jour diriger les urgences mais que l'IA pouvait jouer un rôle vital en aidant les médecins sous pression.

Le chatbot "peut aider à réaliser un diagnostic différentiel et peut peut-être proposer des idées auxquelles le médecin n'avait pas pensé", a-t-il déclaré à l'AFP.

De tels outils ne sont pas conçus comme des dispositifs médicaux, a-t-il toutefois relevé, partageant également des inquiétudes quant à la confidentialité des données médicales sensibles dans un chatbot.

Et, comme dans d'autres domaines, ChatGPT a rencontré certaines limites.

Son raisonnement était "parfois médicalement invraisemblable ou incohérent, ce qui peut conduire à des informations erronées ou à un diagnostic incorrect, avec des implications importantes", note l'étude.

Les scientifiques admettent également certaines lacunes dans leurs recherches, comme la petite taille de l'échantillon..." Lire la suite