En diagnostiquant des patients, les IA reproduisent des biais racistes

ChatGPT, accusé de propager le racisme ?   - Credit:Pierre DESTRADE / MAXPPP / PHOTOPQR/JOURNAL DU CENTRE/MAXPP
ChatGPT, accusé de propager le racisme ? - Credit:Pierre DESTRADE / MAXPPP / PHOTOPQR/JOURNAL DU CENTRE/MAXPP

Google Bard, ChatGPT… Les robots conversationnels utilisant l'intelligence artificielle (IA) font désormais partie de la vie courante de nombre d'entreprises comme de particuliers. Mais derrière leur efficacité apparente se cachent des problèmes préoccupants, notamment pour les hôpitaux et les services de santé.

Certaines de ces institutions ont fait le choix d'intégrer l'intelligence artificielle dans leurs processus, notamment afin de résumer les notes des médecins. Cette approche promet une amélioration de l'efficacité, mais aussi une disponibilité accrue et, par conséquent, une meilleure prise en charge des patients. Toutefois, une étude publiée le 20 octobre dans la revue Digital Medicine et rapportée par l'agence Associated Press remet en question ces avantages.

Racisme ?

Selon les auteurs, chercheurs à l'école de médecine de Stanford (Californie), les robots conversationnels les plus utilisés risquent en effet de reproduire et de propager des préjugés racistes et des informations erronées. Cela s'explique par le fait que ces systèmes s'appuient sur des données textuelles provenant d'Internet, où peuvent être incluses des informations erronées ou d'anciennes études invalidées depuis longtemps.

À LIRE AUSSI « L'intelligence artificielle n'est ni un fléau ni notre salut »

Les experts redoutent que ces systèmes causent de réels préjudices et perpétuent les inégalités médicales persistantes depuis des générations. Or les chatbots, utilisés par les médecins p [...] Lire la suite