Actu

BlenderBot3, le chatbot de Meta lancé sur le web, pose déjà problème [MàJ]

09 août 2022
Par Kesso Diallo
Une démo pour améliorer les compétences et la sécurité du chatbot.
Une démo pour améliorer les compétences et la sécurité du chatbot. ©NicoElNino / Shutterstock

Meta AI, laboratoire d’intelligence artificielle appartenant au géant, permet aux Américains d’échanger avec cet agent conversationnel grâce à une démo sur le web. Il a déjà dérapé dans ses propos.

[Mise à jour du 9 août 2022]

Moins d’une semaine après le lancement de BlenderBot 3, le dernier chatbot de Meta montre déjà qu’il est problématique, en faisant de fausses déclarations basées sur les interactions qu’il a eues avec des personnes en ligne. Il a par exemple affirmé que Donald Trump est actuellement président des États-Unis, après avoir remporté l’élection présidentielle de 2020. Il a même déclaré que Facebook – plateforme appartenant à Meta – dispose de « beaucoup de fausses informations ces jours-ci », comme le montre des captures d’écran du journaliste Jeff Horwitz sur Twitter. L’agent conversationnel lui a également proposé une théorie du complot et tenu des propos antisémites.


[Article initial du 8 août 2022]

Un chatbot à la pointe de la technologie selon Meta AI. Le 5 août, ce laboratoire d’intelligence artificielle appartenant au groupe californien a lancé son dernier agent conversationnel, appelé BlenderBot 3, sur le web. Uniquement disponible sous forme de démo aux États-Unis, il serait capable d’effectuer des recherches sur Internet afin de discuter de presque n’importe quel sujet. Meta AI assure l’avoir construit avec toutes les compétences de ses prédécesseurs (recherches sur Internet, mémoire à long terme, personnalité et empathie) et amélioré son engagement à l’aide d’un ensemble de données comprenant plus de 20 000 conversations homme-bot. Le laboratoire l’a formé pour qu’il puisse apprendre des conversations naturelles dans le but d’améliorer ses compétences et sa sécurité.

Améliorer les compétences à l’aide de commentaires

Avec cette démo, Meta AI cherche à évaluer les modèles d’intelligence artificielle (IA) « dans la nature ». Il espère ainsi pouvoir mesurer à quel point ces derniers sont capables d’engager naturellement les humains. « Le domaine de l’IA est encore loin des systèmes d’IA vraiment intelligents qui peuvent nous comprendre, s’engager et discuter avec nous comme les autres humains peuvent le faire. Afin de créer des modèles plus adaptables aux environnements du monde réel, les chatbots doivent apprendre d’un point de vue diversifié et étendu avec des personnes “dans la nature” », explique le laboratoire dans une note de blog.

La démo publiée sur le web permet aux Américains de converser naturellement avec BlenderBot 3, mais aussi de soumettre des commentaires sur la manière d’améliorer ses réponses. Ils peuvent réagir à chaque réponse de l’agent conversationnel en cliquant sur le pouce vers le haut ou celui vers le bas. Avec celui-ci, ils peuvent aussi préciser la raison pour laquelle ils n’ont pas aimé la réponse, si elle était hors sujet, absurde ou encore grossière. Ces commentaires permettent d’améliorer le modèle afin qu’il ne répète pas ses erreurs, selon Meta AI.

Le problème de la sécurité avec les chatbots

Le laboratoire a également lancé son chatbot sur le web dans un effort de sécurité. « Il est difficile pour un bot de garder tout le monde engagé tout en parlant de sujets arbitraires et de s’assurer qu’il n’utilise jamais un langage offensant ou toxique », indique-t-il. Meta AI reconnait en effet que les agents conversationnels sont connus pour parfois imiter et générer des réponses dangereuses, biaisées ou offensantes, à cause d’utilisateurs étant mal intentionnés et employant un langage toxique. On peut par exemple citer le chatbot Tay de Microsoft qui devait apprendre en interagissant avec les utilisateurs de Twitter, mais qui a été retiré quelques heures après son lancement en 2016. Poussé par des internautes souhaitant tester ses limites, il avait fini par publier des commentaires racistes et inappropriés.

Meta AI cherche justement à éviter ce problème d’imitation. Dans cet objectif, il indique avoir développé « de nouveaux algorithmes qui visent à faire la distinction entre les réponses inutiles et les exemples nuisibles ». Le laboratoire affirme, en outre, avoir étendu ses techniques de sécurité de dialogue avec une nouvelle technique selon laquelle BlenderBot3 essaie de répondre aux commentaires sur des conversations difficiles avec des réponses plus susceptibles de favoriser une conversation civile.

En rendant son chatbot accessible sur le web, Meta AI espère collecter et publier des données de réaction que la communauté de recherche sur l’IA et lui pourront exploiter dans le but d’« éventuellement trouver de nouvelles façons pour les systèmes d’IA conversationnels d’optimiser à la fois la sécurité et l’engagement pour tous ceux qui les utilisent ».

À lire aussi

Article rédigé par
Kesso Diallo
Kesso Diallo
Journaliste