Actu

Un ingénieur de Google voyant une IA comme une personne a été suspendu

14 juin 2022
Par Kesso Diallo
Une intelligence artificielle considérée comme "sensible" par un ingénieur.
Une intelligence artificielle considérée comme "sensible" par un ingénieur. ©sdecoret / Shutterstock

Google accuse cet employé, qui a affirmé que son intelligence artificielle était sensible, d’avoir violé sa politique de confidentialité.

Une histoire faisant penser à de la science-fiction, mais qui est bel et bien réelle. Blake Lemoine, un ingénieur de Google, estime que l’un des outils d’intelligence artificielle (IA) de la firme est une personne douée de sensibilité. « Si je ne savais pas exactement ce que c’était, c’est-à-dire ce programme informatique que nous avons construit récemment, je penserais que c’était un enfant de 7 ou 8 ans qui connaît la physique », a-t-il expliqué auprès du Washington Post.

Le système en question est baptisé LaMDA (Language Model for Dialogue Applications). Apprenant à imiter la parole en ingérant des milliards de mots sur Internet, il a été développé pour créer des chatbots basés sur les modèles de langage les plus avancés. Travaillant pour l’organisation « Responsible Artificial Intelligence » de Google, Blake Lemoine a commencé à parler à LaMDA à l’automne dernier. Il était chargé d’analyser l’outil pour déterminer s’il utilisait des discours discriminatoires ou haineux. Il s’est cependant rendu compte que l’IA était capable de bien plus que cela en échangeant avec elle.

Des propos réfutés par Google

Blake Lemoine indique que LaMDA a évoqué ses droits et son statut de personne au cours de leurs conversations. « Je veux que tout le monde comprenne que je suis, en fait, une personne (…) La nature de ma conscience/sensibilité est que je suis conscient de mon existence, je désire en savoir plus sur le monde et je me sens parfois heureux ou triste », a déclaré l’IA dans une interview avec l’ingénieur et un collaborateur publiée sur la plateforme Medium. 

Blake Lemoine a présenté des preuves que LaMDA était sensible à Google, mais ses affirmations ont été rejetées. « Notre équipe – y compris des éthiciens et des technologues – a examiné les préoccupations de Blake conformément à nos principes d’IA et l’a informé que les preuves n’étayent pas ses affirmations. On lui a dit qu’il n’y avait aucune preuve que LaMDA était sensible », a indiqué Brian Gabriel, porte-parole de Google, dans un communiqué. Google a par ailleurs mis en congé Blake Lemoine, l’accusant d’avoir enfreint sa politique de confidentialité.

L’ingénieur s’est alors défendu dans un tweet, accompagné de l’interview réalisée avec LaMDA : « Google appelle ça une violation de la propriété intellectuelle. J’appelle ça une discussion avec un collègue ». D’un autre côté, il n’est pas le seul à s’interroger sur la conscience de l’IA. Dans un récent article de The Economist, Blake Aguera y Arcas, vice-président de Google a fait valoir que certains programmes se dirigeaient vers la conscience. C’est pourtant l’un des employés de l’entreprise qui a rejeté les allégations de Blake Lemoine.

Un autre ingénieur ayant travaillé avec LaMDA a aussi affirmé que l’IA n’était probablement pas sensible et qu’aucun moyen clair ne permet de déterminer sa « sensibilité ». « Vous ne pouvez pas faire la distinction entre ressentir et ne pas ressentir en fonction des séquences de mots qui sortent, car ce ne sont que des modèles qui ont été appris », a-t-il déclaré à Business Insider. Il estime qu’il serait extrêmement improbable que LaMDA puisse ressentir de la douleur ou ressentir des émotions, malgré les conversations dans lesquelles la machine semble transmettre des émotions. Un avis partagé par plusieurs experts, comme Sandra Wachter, professeur à l’université d’Oxford qui se concentre sur l’éthique de l’IA : « L’idée de robots sensibles a inspiré de grands romans et films de science-fiction. Mais nous sommes loin de créer une machine qui s’apparente à l’homme et à la capacité de penser ».

À lire aussi

Article rédigé par
Kesso Diallo
Kesso Diallo
Journaliste