Actu

ChatGPT : OpenAI va vous empêcher d’utiliser son IA pour rédiger vos devoirs

02 janvier 2023
Par Marion Piasecki
ChatGPT : OpenAI va vous empêcher d'utiliser son IA pour rédiger vos devoirs
©Ascannio / Shutterstock

L’entreprise veut créer une « signature » spécifique aux textes rédigés par IA pour éviter des utilisations malveillantes.

Ces dernières semaines, le bot ChatGPT a rapidement fait le tour d’Internet tant il impressionnait par sa capacité à trouver rapidement une réponse à nos questions et à rédiger un texte de bonne qualité (même s’il y a des limites). Problème : des étudiants pourraient utiliser ChatGPT pour faire leurs devoirs à leur place ! OpenIA cherche donc des solutions pour empêcher cette forme de tricherie.

Lutter contre le plagiat et la propagande

Lors d’une conférence donnée à l’Université du Texas, le chercheur Scott Aaronson a abordé la question de la sécurité et de l’éthique des intelligences artificielles. Il a ainsi parlé de la nécessité de différencier les textes écrits par des IA de ceux écrits par des humains car, d’après lui, « quand on pense aux utilisations malveillantes de GPT, la majorité d’entre elles — du moins celles auxquelles je pensais ! — nécessitaient de cacher d’une façon ou d’une autre l’implication de GPT. »

Non seulement laisser l’IA rédiger des dissertations à la place des élèves, mais aussi d’autres utilisations plus graves comme « la génération massive de propagande — spammer chaque blog avec des commentaires a priori pertinents qui soutiendraient l’invasion de l’Ukraine par la Russie, sans même avoir de bâtiment rempli de trolls à Moscou. Ou imiter le style d’écriture d’une personne pour l’incriminer. »

Créer une « signature »

Il est impossible d’interdire les utilisateurs de poser des questions et stocker toutes les requêtes pour éventuellement les transmettre aux forces de l’ordre pourrait poser des problèmes de protection de la vie privée, alors la solution se trouve ailleurs. Le travail de Scott Aaronson chez OpenAI est donc de trouver un moyen de savoir si un texte a été écrit par un humain ou généré par une intelligence artificielle.

Actuellement, ChatGPT rédige ses réponses de manière aléatoire, il formule le texte différemment à chaque fois qu’un utilisateur lui pose une question. Le prototype de signature consiste à ne pas utiliser l’aléatoire mais le pseudo-aléatoire : un utilisateur lambda n’y verrait que du feu, mais quelqu’un qui connaît bien les dessous de ChatGPT sera en mesure de faire la différence. Scott Aaronson réfléchit aussi à un moyen de donner un style d’écriture bien spécifique à GPT : « Des écrivains comme Shakespeare, Wodehouse, David Foster Wallace ont un style si distinctif que, même s’ils essayaient de prétendre être quelqu’un d’autre, ils n’y arriveraient probablement pas. Tout le monde les reconnaîtrait. On peut imaginer essayer de créer une IA de la même façon. C’est-à-dire qu’elles seraient construites dès le début pour que les textes contiennent des marques indélébiles, qu’elles soient cryptographiques ou stylistiques, pour trahir leur origine. »

Il relève cependant plusieurs problèmes difficiles à résoudre : il suffirait de demander à une seconde IA de reformuler la réponse donnée par la première pour éliminer cette « signature » et, le code de ChatGPT étant en source ouverte, des personnes auront la possibilité de le modifier pour enlever cette marque.

À lire aussi

Article rédigé par
Marion Piasecki
Marion Piasecki
Journaliste