Sur les 30 patients que comptait cette étude publiée dans Annals of Emergency Medicine, le bon diagnostic se trouvait dans 97% des cas dans les hypothèses fournies par ChatGPT, contre 87% pour les praticiens.
Christian Lovis, médecin chef du Service des sciences de l’information médicale aux Hôpitaux Universitaires de Genève, a cependant nuancé cet enthousiasme au micro de La Matinale. Il souligne notamment que les cas sélectionnés dans l’étude étaient particulièrement simples.
"Déjà, il s'agit de cas qui ont un seul problème. La deuxième chose est que ChatGPT s'en sort bien en donnant les cinq diagnostics les plus probables dans cette situation. Mais il s'en sort très nettement moins bien quand on le compare aux médecins s'agissant de décider lequel est le diagnostic qu'il faut retenir".
"De temps en temps, il se plante", mais sévèrement
"Et de temps en temps, il se plante", prévient aussi le médecin chef. "Or, quand il se plante, n'importe qui dans la rue ferait juste. Si vous dites au médecin que vous avez mal au ventre et qu'on vous a enlevé l'appendicite il y a 10 ans, et que le médecin vous répond 'C'est probablement une appendicite', vous allez quand même vous interroger sur les compétences du médecin!"
Et ChatGPT fait justement ce type d’erreur. Donc, selon Christian Lovis, l’utiliser comme soutien au médecin ou pour résumer la littérature scientifique est envisageable, mais pas pour effectuer des tâches de diagnostic en autonomie.
Sujet radio: Bastien Confino
Adaptation web: Julien Furrer