Actu

Journée des droits des femmes : une campagne pour alerter sur les biais sexistes des IA

08 mars 2023
Par Kesso Diallo
Les IA génératrices d'images reproduisent les clichés sexistes.
Les IA génératrices d'images reproduisent les clichés sexistes. ©Capture d'écran / JamaisSansElles

JamaisSansElles, mouvement féministe et humaniste, vient de lancer la campagne « L’intelligence artificielle entretient des stéréotypes bien réels » dans toute la France à l’occasion de la journée internationale des droits des femmes.

Génération de contenus, détection de maladies, reconnaissance faciale…, l’intelligence artificielle (IA) est utilisée dans de nombreux domaines. Alors que ces systèmes sont de plus en plus présents dans notre société, ils sont loin d’être parfaits, portant préjudice à certains groupes de personnes, notamment les femmes.

« Les IA deviennent un nouveau pouvoir dans notre société : de plus en plus de prises de décisions sont automatisées grâce à elles. Or, telles que conçues actuellement, elles vont accroître les inégalités entre les femmes et les hommes et entretenir les discriminations, voire les amplifier. Du moins si nous n’y changeons rien ! », explique le mouvement féministe et humaniste JamaisSansElles. À l’occasion de la journée internationale des droits des femmes, il lance une campagne conçue par l’agence Havas Paris et affichée dans toute la France : « L’intelligence artificielle entretiens des stéréotypes bien réels ». Objectif : alerter sur les biais sexistes de ces systèmes.

Un problème lié aux données d’entraînement

Comme l’indique le mouvement, le problème vient des données avec lesquelles les IA sont entraînées. Elles se basent en effet sur d’énormes quantités d’informations pour apprendre à effectuer la tâche qui leur est confiée. « Quand une intelligence artificielle est entraînée à l’aide d’un ensemble de données massif, mais déséquilibré, les résultats produits peuvent être biaisés, et conduire à des décisions ou des choix préjudiciables. C’est le cas, par exemple, pour la reconnaissance faciale ou pour les applications génératives d’images et de texte », explique JamaisSansElles.

Les IA génératrices d’images comme MidJourney ou Stable Diffusion font, par exemple, largement apparaître des hommes pour les métiers « prestigieux » (PDG, docteur, etc.) et des femmes pour les professions moins « remarquables » (secrétaire, infirmier…). Elles reproduisent ainsi les clichés sexistes.

« Créer un dataset équilibré demande des efforts et des moyens importants, et aucun modèle, bien sûr ne sera parfait. Mais la réduction des biais, quels qu’ils soient, doit être un objectif central et systématique dans ce domaine », affirme le mouvement féministe et humaniste, ajoutant qu’il s’agit d’une question s’adressant à l’ensemble de la société. « Si nous voulons un monde plus équilibré pour les femmes et les hommes, un monde où la technologie résout plus de problèmes pour le plus grand nombre, il nous faut prendre conscience de ces biais et agir pour les corriger, dans la vie comme dans les algorithmes ».

À lire aussi

Article rédigé par
Kesso Diallo
Kesso Diallo
Journaliste
Pour aller plus loin