Actu

Ce site vous permet de savoir si vos photos ont été utilisées pour entraîner une IA

22 septembre 2022
Par Kesso Diallo
Avec cet outil, les artistes peuvent savoir si leurs œuvres ont permis d'entraîner des IA.
Avec cet outil, les artistes peuvent savoir si leurs œuvres ont permis d'entraîner des IA. ©Capture d'écran / Have I Been Trained?

Conçu pour aider les artistes à voir si leurs œuvres ont servi à entraîner des modèles d’intelligence artificielle, Have I Been Trained ? permet d’effectuer des recherches par mots ou par image.

L’intelligence artificielle (IA) peut aujourd’hui être utilisée pour générer des images. Pour y parvenir, ces modèles sont entraînés avec des données, possiblement les vôtres sans que vous le sachiez. Un site permet de remédier à ce problème : « Have I Been Trained ? ». Crée par le groupe d’artistes Spawning, il peut être utilisé pour effectuer des recherches à l’aide de mots ou en téléchargeant une image afin de savoir si des modèles d’IA ont été formés à partir de vos photos. Pour cela, le site cherche parmi les 5,8 milliards d’images incluses dans l’ensemble de données de formation LAION-5B.

Bien qu’il soit utilisable par tous, l’outil est destiné aux artistes, leur permettant de voir si leurs œuvres ont servi à entraîner des modèles. Actuellement, des IA comme DALL-E ou Midjourney sont capables de générer des images après avoir appris à partir d’œuvres d’artistes qui ont été récupérées sur Internet sans leur consentement.

Le problème du consentement avec l’intelligence artificielle

« Have I Been Trained ? » fait partie de l’objectif de Spawning d’établir des normes concernant l’obtention du consentement des artistes pour l’utilisation de leurs images afin d’entraîner des modèles d’IA. Le groupe d’artistes cherche en effet à développer des outils leur permettant d’accepter ou de refuser que leurs œuvres soient utilisées dans cet objectif. « Nous croyons que chaque artiste devrait avoir les outils pour prendre ses propres décisions sur la façon dont ses données sont utilisées », indique Spawning sur son site.  

Le problème du consentement ne concerne pas que les artistes, l’IA permettant aussi de créer des deepfakes ou des images pornographiques de célébrités. Tel a été le cas avec le système Stable Diffusion de Stability AI. Le site donne un aperçu des utilisations dangereuses de l’IA : en tapant Barack Obama dans la barre de recherche par exemple, on obtient plusieurs images, dont certaines où sa couleur de peau et ses cheveux ont été modifiés, lui donnant l’apparence d’une personne blanche.

À lire aussi

Article rédigé par
Kesso Diallo
Kesso Diallo
Journaliste
Pour aller plus loin