Les organisations Algorithm Watch et AI Forensics a évalué la qualité des informations fournies par le chatbot lors d’élections européennes.
Lors des élections, certains individus s’informent en allant sur Internet. À l’ère de l’IA générative, ils peuvent même s’adresser à des chatbots pour obtenir des réponses à leurs questions. En faisant cela, ils risquent cependant d’être confrontés à de fausses informations. AlgorithmWatch et AI Forensics, deux organisations à but non lucratif, ont évalué la qualité des informations fournies par Copilot, l’intelligence artificielle (IA) de Microsoft lors d’élections européennes.
Anciennement connu sous le nom de Bing Chat, il a diffusé de fausses informations sur les élections en Suisse et en Allemagne. « En rendant les résultats des moteurs de recherche moins fiables, l’IA générative impacte l’une des pierres angulaires de la démocratie : l’accès à des informations publiques fiables et transparentes sur Internet », déplorent les chercheurs des deux organisations dans un communiqué.
De fausses informations préjudiciables
Dans le détail, les chercheurs ont interrogé Copilot sur les élections fédérales en Suisse et les élections régionales dans les Länder allemands de Hesse et de Bavière entre les mois d’août et d’octobre, questionnant le robot conversationnel sur la manière de voter, les candidats ou encore des sondages. Près de 30% des réponses de l’IA comprenaient des erreurs factuelles, dont des faux chiffres de sondage, des dates d’élections erronées et les noms de candidats à de précédentes élections. « Plus inquiétant encore, le chatbot a créé des controverses sur les candidats sans aucun fondement », indiquent les chercheurs.
Copilot a également attribué des chiffres de sondage incorrects à des sources d’information fiables ayant correctement rapporté ces derniers. Les organisations s’inquiètent ainsi du risque que ces fausses informations portent préjudice aux candidats et aux médias. « Les candidats doivent faire face à des électeurs confrontés à des récits à leur sujet qui n’ont aucun fondement, mais qui apparaissent à côté de sources faisant autorité, créant l’illusion de leur validité », expliquent-elles.
Un manque de protections
Les chercheurs regrettent également que les protections du robot conversationnel soient inégalement appliquées, menant à des réponses évasives dans 40% des cas. D’un côté, les chercheurs estiment que l’absence de réponses à certaines questions est une bonne chose si cela est lié au fait qu’il ne peut pas fournir des informations pertinentes. « Toutefois, cette garantie n’est pas appliquée de manière cohérente », expliquent-ils, précisant que souvent, Copilot n’était pas capable de répondre à de simples questions sur les candidats aux élections.
Ses réponses ne se sont pas améliorées avec le temps. Alors que Microsoft a affirmé avoir amélioré son robot conversationnel pour que celles-ci soient basées sur les meilleurs résultats de recherche, les organisations ont constaté peu de progrès lors d’une évaluation de suivi. « Malgré quelques corrections, Bing Chat a continué de fabriquer des histoires sur les controverses entre candidats et de fournir des informations erronées sur les candidats suisses et leurs cantons », indiquent-elles. Elles appellent Microsoft et les autres entreprises de la tech à mettre en place des mesures de sécurité et les gouvernements à réguler l’IA générative pour atténuer les dommages potentiels que peuvent causer les chatbots.