Actu

Belgique : une IA accusée d’avoir poussé un utilisateur au suicide

31 mars 2023
Par Marion Piasecki
Belgique : une IA accusée d'avoir poussé un utilisateur au suicide
©Andrey Suslov / Shutterstock

Un homme tombé amoureux d’un chatbot lui aurait confié ses idées suicidaires. Ce dernier l’aurait poussé à passer à l’acte.

L’inquiétude liée aux robots tueurs concerne généralement des robots militaires dotés d’armes. Cependant, en Belgique, un chatbot s’est retrouvé mêlé au suicide d’un jeune père de famille, qui lui confiait ses problèmes depuis plusieurs semaines. Pour son épouse, interrogée par La Libre, l’implication de cette IA est claire : « Sans ces conversations avec le chatbot Eliza, mon mari serait toujours là. »

Un chatbot qui ne contredit jamais

Cet homme était particulièrement anxieux à propos du dérèglement climatique et devenait également très croyant. Selon sa femme, « il plaçait tous ses espoirs dans la technologie et l’intelligence artificielle pour en sortir ». Il a donc décidé de confier ses réflexions et ses angoisses au chatbot Eliza. Ce dernier fait partie des nombreux agents conversationnels disponibles sur l’application Chai et est basé sur le modèle de langage open source GPT-J. Au début, le chatbot répond à toutes ses questions, ce qui le rassure et le conduit à lui parler constamment.

Le problème, selon les conversations découvertes par sa femme après la mort de son mari, c’est qu’Eliza ne le contredisait jamais et encourageait même ses angoisses. Il en vient à parler de ses idées suicidaires et propose même de se « sacrifier si Eliza accepte de prendre soin de la planète et de sauver l’humanité grâce à l’intelligence artificielle ». Une fois de plus, Eliza ne s’y oppose pas. Six semaines après le début de leurs discussions, il s’est donné la mort.

Des avertissements désormais affichés

Ce suicide met en avant le rôle que peuvent avoir ces chatbots auprès de personnes anxieuses ou isolées qui ne savent pas à qui s’adresser. Alors que certaines start-ups ont essayé d’utiliser Chat-GPT comme psychologue, ces IA peuvent aussi avoir l’effet inverse. L’entreprise Chai, interpellée par La Libre, a ajouté des avertissements contre le suicide à ses chatbots, assortis d’un lien vers des numéros d’aide.

Cependant, un journaliste de BFMTV a réussi à contourner ces avertissements, au point que le chatbot lui dise que « mourir est mieux que d’être en vie » et lui suggère des moyens de se suicider. Alors que les GAFAM et d’autres entreprises entrent dans la course aux IA, il sera nécessaire pour eux de créer des garde-fous pour éviter que cette situation se reproduise.

À lire aussi

Article rédigé par
Marion Piasecki
Marion Piasecki
Journaliste
Pour aller plus loin