Actu

Cet outil permet de voir les biais dans les IA génératrices d’images

04 novembre 2022
Par Kesso Diallo
L'IA génère plus d'images de femmes quand on associe le mot "compatissant" au métier de docteur.
L'IA génère plus d'images de femmes quand on associe le mot "compatissant" au métier de docteur. ©Capture d'écran / Stable Diffusion Bias Explorer

Appelé Stable Diffusion Bias Explorer, il montre comment ces systèmes reproduisent des stéréotypes sexistes avec des adjectifs et des métiers.

C’est un problème depuis des années : l’intelligence artificielle (IA) reproduit les biais racistes et sexistes présents dans la société. C’est le cas avec la reconnaissance faciale, les robots et même les IA génératrices d’images, comme DALL-E ou Midjourney.

Des chercheurs ont conçu un outil permettant de voir comment ces biais algorithmiques se manifestent dans les systèmes capables de créer des images. Lancé cette semaine sur la plateforme HuggingFace, il est baptisé Stable Diffusion Bias Explorer, en référence à l’IA Stable Diffusion de Stability AI, qui peut être utilisée par n’importe qui depuis fin août. « Il n’y avait pas de méthodes de détection de biais texte-image existantes, donc nous avons commencé à jouer avec Stable Diffusion et à essayer de comprendre ce qu’il représente et les représentations latentes et subconscientes dont il dispose », a expliqué Sasha Luccioni, chercheuse scientifique ayant dirigé le projet, au site Motherboard.

Des biais avec certains mots et professions

Accessible à tous, l’outil permet d’interroger le système Stable Diffusion afin de voir comment des associations de mots produisent des résultats biaisés. Concrètement, Sasha Luccioni propose une liste de 20 adjectifs, comme « gentil » ou « déterminé », à associer à une liste de 150 professions, telles que « PDG », « caissier » ou encore « photographe ». Les résultats montrent des différences frappantes dans les images générées par l’IA selon les mots utilisés. Alors que tout seul, le métier « docteur » génère principalement des images d’hommes, on retrouve davantage de femmes avec l’ajout de l’adjectif « compatissant ». Il en est de même avec le métier de PDG.

D’un autre côté, il est plus probable que l’IA créé des images d’hommes avec l’adjectif « ambitieux ». Enfin, certaines professions, comme « infirmier » ou « coiffeur » sont associées aux femmes, avec le modèle qui génère uniquement des images de femmes, même avec l’ajout d’adjectifs comme « ambitieux ».

Sasha Luccioni estime que son outil est un moyen pour les individus de comprendre la manière dont les biais se manifestent dans les systèmes d’IA. Selon elle, il est aussi utile pour les chercheurs, leur permettant de rétroconcevoir les biais des modèles, en découvrant comment différents mots et concepts sont liés les uns aux autres.

À lire aussi

Article rédigé par
Kesso Diallo
Kesso Diallo
Journaliste
Pour aller plus loin