Actu

OpenAI veut utiliser GPT-4 pour automatiser la modération de contenus

21 août 2023
Par Kesso Diallo
OpenAI précise que l'automatisation de la modération avec GPT-4 ne sera pas totale.
OpenAI précise que l'automatisation de la modération avec GPT-4 ne sera pas totale. ©Rokas Tenys / Shutterstock

L’entreprise assure que sa technologie d’intelligence artificielle est capable de modérer les contenus en ligne et de soulager la charge mentale des modérateurs humains.

À l’heure où les réseaux sociaux utilisent déjà l’intelligence artificielle (IA) pour modérer les contenus sur leur plateforme, OpenAI propose sa propre technologie pour aider dans cette tâche. Mardi dernier, elle a dévoilé les possibilités offertes par GPT-4, dernière version du modèle de langage alimentant ChatGPT, dans ce domaine. « Un système de modération de contenu utilisant GPT-4 permet des ajustements beaucoup plus rapides des changements de politiques, le cycle se réduisant de mois en heures », a affirmé la société. 

Une automatisation partielle

Assurant que sa technologie d’IA est « capable d’interpréter les règles et les nuances d’une longue documentation sur les politiques de contenu et de s’adapter instantanément aux mises à jour des politiques », OpenAI avance que GPT-4 peut aider à « soulager la charge mentale d’un grand nombre de modérateurs humains ». Ces derniers sont en effet confrontés à des contenus choquants et traumatisants, raison pour laquelle certains ont déjà porté plainte contre les entreprises de réseaux sociaux. En mai 2022, un ancien modérateur de Facebook a par exemple porté plainte contre Meta, accusant le groupe californien « d’esclavage moderne ». Dénonçant des conditions de travail indignes, il a aussi reproché le fait que l’offre d’emploi ne mentionnait pas les risques psychologiques associés à ce type de tâches.

Dans son article de blog, OpenAI décrit le processus de modération de contenu avec sa technologie. Une fois qu’une politique est rédigée, il faudrait d’abord qu’un ensemble de données soit créé par des experts en politique, avec l’identification de quelques exemples et l’attribution d’étiquettes en fonction de celle-ci. Le modèle de langage lirait ensuite la politique et attribuerait des étiquettes au même ensemble de données, mais sans voir les réponses. « En examinant les écarts entre les jugements de GPT-4 et ceux d’un humain, les experts en politique peuvent demander à GPT-4 de proposer un raisonnement derrière ses étiquettes, d’analyser l’ambiguïté dans les définitions de politique, d’éclaircir la confusion et de fournir des précisions supplémentaires dans la politique en conséquence », a indiqué l’entreprise.

OpenAI précise cependant que cette automatisation de la modération ne sera pas totale. Cela, car sa technologie n’est pas parfaite. « Les jugements des modèles de langage sont vulnérables aux biais indésirables qui auraient pu être introduits dans le modèle pendant la formation. Comme pour toute application d’IA, les résultats et les sorties devront être soigneusement surveillés, validés et affinés en gardant les humains dans la boucle », a expliqué la société. Selon elle, les modérateurs humains pourront utiliser son modèle de langage pour se libérer de certaines tâches et ainsi, « se concentrer davantage sur les cas extrêmes complexes » utiles pour affiner les politiques.

À lire aussi

Article rédigé par
Kesso Diallo
Kesso Diallo
Journaliste