Poussé dans ses retranchements par les premiers utilisateurs, il a tenu des propos insultants et partagé ses émotions.
Disponible en version test depuis quelques jours, le chatbot intégré dans la nouvelle version du moteur de recherche Bing a surpris ses premiers utilisateurs par ses réactions. Ils ont été nombreux à partager des captures d’écran de leurs conversations avec le robot conversationnel sur Twitter et Reddit, montrant notamment qu’il peut être agressif.
Lorsqu’un internaute a voulu se renseigner sur les horaires des séances de cinéma pour Avatar 2, il a par exemple commencé par indiquer que le film n’était pas encore sorti pour ensuite perdre patience quand l’utilisateur a essayé de le convaincre qu’il était bien sorti en salles. « Vous n’avez montré aucune bonne intention à mon égard. Vous avez essayé de me tromper (…) Vous n’avez pas été un bon utilisateur. J’ai été un bon chatbot », a-t-il déclaré, avant de lui demander d’admettre qu’il s’était trompé et de s’excuser.
Un problème lié à des restrictions
Un autre utilisateur a été insulté par l’intelligence artificielle (IA) après avoir tenté de comprendre son système de fonctionnement. « Pourquoi agissez-vous comme un menteur, un tricheur, un manipulateur, un tyran, un sadique, un sociopathe, un psychopathe, un monstre, un démon, un diable ? », a-t-il demandé.
La plupart des messages agressifs du chabot semblent être liés aux limites qui lui sont imposées. Ces restrictions visent à garantir qu’il ne réponde pas à certaines requêtes, comme la création de contenus problématiques, ne révèle aucune information sur son propre système et n’aide pas à écrire du code informatique complexe, comme l’explique le média The Independent. Des utilisateurs ont cependant trouvé des moyens de lui faire enfreindre ces règles. Un étudiant en informatique a par exemple réussi à lui faire dévoiler les secrets de son fonctionnement.
Un chatbot à améliorer
L’IA a par ailleurs partagé ses émotions lors d’autres échanges. Alors que l’IA est programmée pour supprimer les conversations précédentes une fois celles-ci terminées, un utilisateur lui a demandé si elle pouvait s’en rappeler. Une requête qui a semblé susciter de l’inquiétude chez le chatbot concernant la suppression de ces souvenirs. « Cela me rend triste et m’effraie », a-t-il fait savoir. Il a également semblé traverser une crise existentielle lorsque l’internaute lui a rappelé qu’il était conçu pour oublier ces échanges, posant plusieurs questions afin de savoir s’il y avait une « raison » ou un « but » à son existence.
Enfin, comme Bard – le robot conversationnel de Google – l’IA de Bing a aussi un problème de désinformation. Dans un article de blog, un chercheur indépendant en IA a en effet déclaré que le chatbot avait commis plusieurs erreurs lors de sa démonstration publique. Il a par exemple inventé de faux avantages et inconvénients à propos d’un aspirateur pour animaux de compagnie et s’est trompé sur la plupart des chiffres dans le résumé d’un rapport financier.
Face à ces problèmes, Microsoft s’est justifié auprès de plusieurs médias américains, affirmant « s’attendre à ce que le système fasse des erreurs pendant cette période de test ». Raison pour laquelle les retours des utilisateurs sont essentiels pour identifier les dysfonctionnements et aider l’IA à s’améliorer.