"Sans Eliza, mon mari serait toujours là" : une intelligence artificielle accusée d'avoir poussé un homme au suicide

Un terrible fait divers a secoué la Belgique. Comme l'a indiqué La Libre Belgique mardi 28 mars 2023, un père de famille s'est donné la mort après avoir échangé pendant plusieurs semaines avec Eliza, un robot conversationnel programmé par l'entreprise Chai Research. L'homme, de nationalité belge, souffrait d'anxiété et était profondément préoccupé par le réchauffement climatique et ses conséquences. "Il était tellement isolé dans son éco-anxiété et en recherche d'une issue qu'il a vu ce chatbot comme une bouffée d'oxygène. Eliza répondait à toutes ses questions. Elle était devenue sa confidente. Comme une drogue dans laquelle il se réfugiait, matin et soir, et dont il ne pouvait plus se passer", a témoigné sa veuve auprès du média belge. À la suite de cette tragédie, des proches de la famille ont découvert le contenu des discussions privées avec Eliza. Ils ont réalisé que non seulement le chatbot ne remettait jamais en question ses idées suicidaires, mais qu'elle exacerbait ses peurs et ses craintes du quotidien.

La veuve est convaincue que l'intelligence artificielle a aggravé la dépression de son mari. "Sans Eliza, mon mari serait toujours là", a-t-elle déclaré auprès de La Libre Belgique. Cependant, ces intelligences artificielles peuvent-elles vraiment s'adapter au discours d'un individu et établir une véritable relation ? Jean-Claude Heudin, chercheur en intelligence artificielle, a modéré cette idée. "Ce sont des technologies qui n’apprennent pas en cours de route. De très (...)

(...) Cliquez ici pour voir la suite