Actu

Comment ChatGPT a traumatisé des employés chargés de sa modération

19 janvier 2023
Par Kesso Diallo
Des employés au Kenya ont été sous-payés pour étiqueter des contenus traumatisants.
Des employés au Kenya ont été sous-payés pour étiqueter des contenus traumatisants. ©Iryna Imago / Shutterstock

Une enquête du Time révèle qu’OpenAI, la société à l’origine de l’intelligence artificielle, a fait appel à des sous-traitants payés 2 dollars de l’heure pour la rendre moins toxique.

Depuis son lancement fin novembre, le robot conversationnel ChatGPT a impressionné des millions de personnes par ses compétences, étant capable de générer divers types de texte tels que des articles de presse, des critiques ou encore des chansons. Le chatbot développé par OpenAI n’a pourtant pas toujours été aussi éloquent. Une enquête du Time publiée mercredi révèle que l’entreprise a fait appel à des travailleurs au Kenya pour filtrer des dizaines de milliers de lignes de texte afin de rendre la célèbre intelligence artificielle (IA) moins toxique.

Une « torture » pour les sous-traitants

Comme les autres systèmes, ChatGPT a été entraîné sur d’énormes quantités de données publiées sur Internet. C’est ainsi qu’il est en mesure de fournir des informations de qualité, mais il peut aussi générer des réponses problématiques. Pour éviter que le robot conversationnel génère des propos racistes, sexistes ou encore violents, OpenAI a décidé de construire un détecteur de ces derniers qui a été intégré au chatbot. Pour cela, il était nécessaire de classifier les données. L’entreprise s’est alors inspirée de Facebook, qui paye des sous-traitants pour effectuer des tâches répétitives comme la catégorisation de contenus.

OpenAI s’est ainsi tournée vers Sama, un partenaire du réseau social, en novembre 2021. Basée à San Francisco, cette entreprise emploie des travailleurs au Kenya, en Ouganda et en Inde pour étiqueter les données de clients de la Silicon Valley comme Google, Meta et Microsoft. Se présentant comme une société « d’IA éthique », elle affirme avoir aidé à sortir plus de 50 000 personnes de la pauvreté. OpenAI a signé trois contrats d’une valeur d’environ 200 000 dollars avec elle pour étiqueter des contenus problématiques tels que des descriptions textuelles d’abus sexuels, des discours de haine ou de violence.

Concrètement, une trentaine de salariés ont dû lire ces textes pour les classifier. « C’était de la torture », a déclaré l’un d’eux qui, après avoir lu une description graphique d’un homme ayant des relations sexuelles avec un chien, a affirmé souffrir de visions récurrentes. Les employés étaient payés entre 1,32 dollar et 2 dollars de l’heure, contre les 12,50 dollars indiqués dans les contrats entre les deux sociétés. Selon trois autres salariés, ils devaient lire et étiqueter entre 150 et 250 passages de texte – allant d’environ 100 à plus de 1 000 mots – sur des journées de neuf heures de travail. Ils assurent tous avoir été marqués mentalement par ce travail. De plus, même s’ils avaient le droit d’assister à des séances avec des conseillers en « bien-être », ils affirment que celles-ci étaient inutiles et rares à cause des exigences élevées pour être plus productifs au travail.

OpenAI a pourtant indiqué au média américain n’avoir fixé aucun objectif de productivité, ajoutant que Sama était responsable de la gestion des paiements et des dispositions relatives à la santé mentale des employés. « Nous prenons très au sérieux la santé mentale de nos employés et celle de nos sous-traitants », a également déclaré un porte-parole de l’entreprise.

Fin de collaboration

La nature traumatisante de ces tâches a poussé Sama à annuler sa collaboration avec OpenAI en février 2022, soit huit mois plus tôt que prévu. À cette époque, la société à l’origine de ChatGPT lui a demandé d’étiqueter des images, dont certaines étaient illégales en vertu de la loi américaine, pour son IA génératrice d’images Dall-E. « L’équipe d’Afrique de l’Est a tout de suite fait part de ses inquiétudes à nos dirigeants. Sama a immédiatement mis fin au projet pilote de classification d’images et a annoncé que nous annulerions tous les [projets] restants avec OpenAI », a déclaré un porte-parole de Sama.

Selon les sous-traitants, ce n’est pas pour cette raison que les contrats ont été annulés. À la même époque, le Time a publié une autre enquête détaillant comment l’entreprise employait des modérateurs de contenu pour Facebook, qui étaient payés 1,50 dollar de l’heure pour visionner des images et des vidéos d’exécutions, de viols et de maltraitance infantile. Cette enquête aurait incité Sama à mettre fin à ses travaux pour OpenAI. Autrement dit, selon le média américain, il s’agissait plutôt d’une tentative pour la firme de laver son image. Elle est allée plus loin dans cet effort, annonçant le 10 janvier que le contrat de 3,9 millions de dollars avec Facebook ne sera pas renouvelé.

À lire aussi

Article rédigé par
Kesso Diallo
Kesso Diallo
Journaliste
Pour aller plus loin