IA : ChatGPT serait plus empathique que les médecins dans ses réponses aux patients

Après avoir soumis des examens de médecine au logiciel ChatGPT avec plus ou moins de succès, des chercheurs se sont attelés à comparer les capacités d’empathie de cet agent conversationnel à celles de vrais professionnels de santé. On reproche souvent aux médecins une certaine froideur, notamment dans les annonces de diagnostic ou de décès. L’intelligence artificielle aurait-elle ce défaut ?

Pour le savoir, une équipe de recherche américaine a entrepris une étude, dont les résultats sont publiés dans le JAMA Network (Source 1). Les chercheurs ont utilisé des questions publiées sur un forum en ligne, nommé r/AskDocs et comptant environ 474 000 membres, où des professionnels de santé vérifiés et bénévoles apportent des réponses. Ils ont demandé à ChatGPT de répondre aux interrogations des patients, et comparé la qualité de ses réponses et leur caractère empathique aux réponses apportées par les professionnels de santé.

En tout, 195 questions ont été piochées au hasard sur le forum. À l’aveugle, c’est-à-dire sans savoir qui du professionnel de santé ou de ChatGPT était à l’origine de la réponse, des évaluateurs, par ailleurs eux-mêmes professionnels de santé, ont comparé les réponses. La qualité des informations fournies a été évaluée (classée en 5 catégories, de “très mauvaise” à “très bonne”), ainsi que le caractère empathique ou non de la réponse (classé en 5 catégories allant de “pas empathique” à “très empathique”).

...

Lire la suite