« Texte généré avec ChatGPT. » Voilà un message qu’on ne devrait pas voir apparaître de sitôt, malgré les inquiétudes croissantes de professeurs notamment.
D’après un article du Wall Street Journal, OpenAI aurait dans ses cartons depuis plus d’un an déjà un outil qui pourrait détecter si un texte a été conçu par ChatGPT ou pas. Cependant, sa mise à disposition du public suscite de vifs débats en interne.
Un outil pour endiguer la triche
On l’a déjà vu dans un précédent article : l’intelligence artificielle, et ChatGPT en particulier, sont particulièrement utilisés par les plus jeunes, notamment dans le cadre de leurs études. Si certains mobilisent cet outil de bonne foi, comme une béquille les aidant à saisir des notions complexes, d’autres s’en servent tout simplement pour tricher et améliorer leurs notes.
Une situation qui fait enrager le corps enseignant, qui se sent démuni face à la puissance de l’outil et à la qualité souvent impressionnante de ses résultats. C’est là qu’un module de détection de textes générés par IA ferait son entrée.
Les enseignants, ou quiconque souhaite avoir le cœur net sur l’authenticité d’un texte, pourraient fournir à l’outil un échantillon pour que ChatGPT arbitre s’il s’agit d’une création originale ou si son modèle de langage a effectivement été utilisé pour la rédaction. Malgré tout, ce n’est pas si simple. Dans un communiqué partagé au site Tech Crunch, OpenAI écrit que si son outil est « techniquement prometteur », il n’est pas parfait. En l’occurrence, il serait facilement trompé si le texte généré est ensuite repassé dans un autre modèle de langage, ou lorsque la langue utilisée n’est pas l’anglais.
Se tirer une balle dans le pied
Suite à la publication de l’article du Wall Street Journal, OpenAI a mis à jour son billet de blog datant de mai dernier, lequel évoquait déjà l’outil de détection textuelle dont il est question.
On peut désormais y lire que si la technologie utilisée (un filigrane, pour résumer grossièrement) est efficace sur un texte brut, elle se montre « moins robuste contre les altérations globales, telles que l’utilisation de systèmes de traduction, la reformulation avec un autre modèle génératif, ou le fait de demander au modèle d’insérer un caractère spécial entre chaque mot, puis de supprimer ce caractère ».
Mais, à cela s’ajoute également un problème moins technique que marketing. OpenAI dit craindre que la mise en place de cet outil ne mène à une discrimination de l’usage de ChatGPT, notamment dans des contextes linguistiques. Aussi, et c’est peut-être ce qui dérange le plus l’entreprise américaine, près d’un tiers des utilisateurs et utilisatrices de ChatGPT auraient déclaré qu’ils utiliseraient moins le chatbot si un outil permettait de détecter facilement qu’un texte a été généré par son intermédiaire.