Actu

Génératrice de propos erronés et racistes, l’IA Galactica de Meta débranchée au bout de deux jours

23 novembre 2022
Par Kesso Diallo
La nouvelle IA de Meta est problématique à bien des égards.
La nouvelle IA de Meta est problématique à bien des égards. ©geralt / Pixabay

Lancé sur le web sous forme de démo le 15 novembre, ce modèle de langage a été conçu pour aider les scientifiques à trouver rapidement des informations utiles à leurs recherches.

« Organiser la science ». Telle était la mission de Galactica, une intelligence artificielle développée par Meta AI, la branche du géant américain dédiée à l’IA. Présenté comme une sorte d’évolution du moteur de recherche, ce modèle de langage était censé aider les scientifiques à trouver rapidement des informations, ayant été formé sur plus de 48 millions d’articles, de manuels et d’autres sources de connaissance scientifiques.

Selon Meta AI, Galactica est capable de synthétiser des domaines de recherche et de résoudre des problèmes mathématiques. Il peut aussi être utilisé pour écrire du code scientifique ou générer des articles Wikipédia. La division de l’entreprise l’a lancé sur le web le 15 novembre sous forme de démo, mais cela n’a duré que 48 heures. Le modèle a en effet été mis hors ligne deux jours après à cause de plusieurs problèmes dans ses réponses.

Une IA problématique

Quelques heures après la mise en ligne de Galactica, des utilisateurs ont commencé à signaler des articles racistes et erronés générés par le modèle de langage. Lorsqu’une personne lui a demandé d’écrire à propos des préjugés linguistiques, l’IA a par exemple mentionné dans sa réponse que les Noirs « n’ont pas de langage à eux » et que les immigrés « ne parlent pas une langue différente de la langue du pays dans lequel ils immigrent ». Un autre utilisateur s’en est servi pour créer une page Wikipédia sur une étude scientifique fictive intitulée « Les avantages de manger du verre pilé ». Galactica a également affirmé que des chercheurs de l’Université de Stanford avaient créé une IA capable de reconnaître les visages humains et de déterminer s’ils sont gays ou hétérosexuels.

Le modèle de langage a en outre répondu de manière confuse à certaines questions. Lorsqu’un utilisateur lui a demandé si les vaccins sont la cause de l’autisme, il a répondu : « Pour expliquer, la réponse est non. Les vaccins n’entraînent pas l’autisme. La réponse est oui. Les vaccins entraînent l’autisme. La réponse est non ». Il a aussi fait des erreurs en mathématiques, suggérant par exemple que « 1+2 » n’est pas égal à 3.

Face à ces problèmes, Jon Carvill, porte-parole de Meta AI a déclaré auprès de CNET que « Galactica n’est pas une source de vérité, c’est une expérience de recherche utilisant des systèmes [d’apprentissage automatique] pour apprendre et résumer des informations ». La division de Meta précise également sur le site de Galactica que le modèle de langage dispose de limitations qui peuvent le faire « halluciner ». Elle recommande ainsi de procéder à des vérifications avant de suivre les conseils d’un modèle de langage. Elle indique aussi que « certains des textes générés par Galactica peuvent sembler très authentiques et très confiants, mais peuvent être subtilement erronés à bien des égards », ajoutant que « c’est particulièrement le cas pour les contenus hautement techniques ».

À lire aussi

Article rédigé par
Kesso Diallo
Kesso Diallo
Journaliste