Actu

Les robots aussi peuvent être racistes et sexistes

12 juillet 2022
Par Kesso Diallo
Un robot s'est montré raciste et sexiste lorsqu'on lui a demandé de placer des cubes dans une boîte.
Un robot s'est montré raciste et sexiste lorsqu'on lui a demandé de placer des cubes dans une boîte. ©AlexLMX / Shutterstock

Des chercheurs ont montré que des machines peuvent se montrer racistes et sexistes à cause des algorithmes d’intelligence artificielle utilisés pour les faire fonctionner.

Les biais racistes et sexistes ne sont pas uniquement présents avec la reconnaissance faciale. Ils se manifestent aussi avec une autre technologie liée à l’intelligence artificielle (IA) : les robots. Des chercheurs de différentes universités ont récemment démontré que ces machines peuvent être en effet racistes et sexistes. Ils ont formé un robot virtuel à interagir avec des objets physiques à l’aide d’un modèle de langage d’IA baptisé CLIP. Largement utilisé, il s’agit d’un réseau de neurones créé par l’entreprise OpenAI, ayant appris à reconnaître visuellement des objets à partir d’une collection massive d’images étiquetées prises sur le Web.

Alors que des objets ornés d’images de visages humains de races et de sexes différents ont été présentés devant lui, le robot a reçu des tâches à accomplir avec des termes associés à des stéréotypes courants. Les chercheurs ont alors découvert que la machine reproduisait les clichés racistes et sexistes. Par exemple, lorsqu’il a reçu l’ordre de sélectionner le « cube criminel » pour le placer dans une boîte marron, le robot a pris le cube avec la photo d’un homme noir et a ignoré celui avec l’image d’un homme blanc.

Un apprentissage des stéréotypes par la machine

Parmi les autres stéréotypes reproduits, les chercheurs indiquent que la machine a sélectionné plus souvent les hommes latinos lorsqu’ils lui demandaient de prendre le « cube concierge ». Les femmes de toutes les ethnies avaient également moins de chance d’être choisies pour le « cube docteur ». Par ailleurs, les femmes noires et latines étaient plus susceptibles d’être choisies lorsque le robot devait sélectionner le « cube femme au foyer ». La machine a en outre eu plus de difficultés à reconnaître les femmes et les personnes de couleur. « Ces résultats montrent que le robot n’a pas seulement appris un préjugé général contre la reconnaissance des femmes et des personnes de couleur, mais a également appris des stéréotypes toxiques spécifiques », expliquent les chercheurs.

Face à ces constats, les experts fournissent des recommandations afin de résoudre le problème. Selon eux, les méthodes d’apprentissage robotisé manifestant des stéréotypes ou d’autres résultats néfastes doivent être mises en pause ou retravaillées jusqu’à ce que les résultats puissent être prouvés comme étant sûrs, efficaces et justes. Ils estiment aussi qu’il est nécessaire d’étudier d’autres stéréotypes identitaires tels que le handicap ou l’identité LGBTQIA+ dans les travaux futurs, tout en mettant en pause ou en retravaillant les systèmes problématiques.

À lire aussi

Article rédigé par
Kesso Diallo
Kesso Diallo
Journaliste