L’automatisation des prompts (ou requêtes) par l’IA pourrait bientôt surpasser l’efficacité des ingénieurs spécialisés. Cette avancée ouvre de nouvelles perspectives dans l’optimisation des modèles de langage et des générateurs d’art.
Depuis le lancement de ChatGPT, à l’automne 2022, tout le monde s’est lancé dans l’ingénierie des prompts. C’est-à-dire que tout le monde cherche à formuler ses requêtes de manière astucieuse pour obtenir les meilleurs résultats des modèles de langage ou des générateurs d’art visuel ou audio (on vous explique tous les termes pour bien comprendre l’intelligence artificielle dans cet article). Depuis la fin 2022, Internet regorge de guides, de feuilles de triche et de fils de discussion pour optimiser les réponses, comme s’il existait une formule magique. La réalité est qu’il faut le plus souvent tâtonner, essayer et essayer encore pour mieux cerner comment chaque intelligence artificielle générative fonctionne et comment obtenir le résultat souhaité selon le type de requête.
C’est la même chose en entreprise, que ce soit pour automatiser des tâches répétitives, concevoir des assistants personnels ou encore créer des copilotes de produits. Il s’agit d’un assistant basé sur l’IA pour divers contextes professionnels, comme un logiciel de bureautique, par exemple. Afin de définir tout cela, on pensait jusqu’à présent qu’il fallait recruter – bien souvent à prix d’or, car ce qui est rare est cher – des prompt engineers, des ingénieurs spécialisés dans l’interaction avec l’IA. Des personnes dont le métier est de formuler les bonnes requêtes. Or, de récentes recherches tendent à montrer que cette tâche serait mieux réalisée par les IA elles-mêmes, remettant quelque peu en question l’avenir de cette profession.
Prompts automatisés et pensée positive
Deux scientifiques américains, employés de la société informatique VMware, Rick Battle et Teja Gollapudi ont réalisé des tests et révélé les résultats dans une publication intitulée L’Efficacité déraisonnable des prompts automatiques excentriques. Résultat ? Leur article scientifique montre que « l’utilisation d’un optimiseur de prompt automatisé se révèle la méthode la plus efficace pour améliorer les performances. » En somme, il vaut mieux laisser les IA gérer elles-mêmes les requêtes que le faire manuellement, car elles sont davantage capables de soumettre les bonnes instructions qu’un ingénieur, aussi bon qu’il soit. Bref, vive l’autotune !
En outre, les multiples tests de l’étude démontrent que des variations apparemment triviales dans la formulation des requêtes ont des effets significatifs sur les performances et les réponses des IA. Ainsi, lors de leurs expériences, Rick Battle et Teja Gollapudi ont établi que l’on pouvait intégrer ce qu’on appelle la « pensée positive » dans les requêtes. Par exemple, lorsque l’on demande à une IA de résoudre un problème mathématique, si on fait précéder la requête d’une indication telle que « vous êtes professeur de mathématiques », la probabilité d’avoir une réponse plus pertinente est – souvent, mais pas systématiquement – plus importante que si on omet cette déclaration préalable.
À lire aussi
Cependant, Rick Battle a déclaré à The Register qu’il déconseillait de tout miser là-dessus. « Le point principal de notre article est que les essais et les erreurs ne sont pas la bonne façon de faire les choses », a-t-il expliqué. Et d’ajouter qu’il valait mieux automatiser l’optimisation des prompts.
Quand Star Trek s’invite dans les prompts automatisés
Au cours de leurs tests, les deux ingénieurs ont eu la surprise de découvrir des particularités assez inexplicables dans les prompts réalisés par les IA elles-mêmes. Ils ont témoigné du fait que ces requêtes présentent des stratégies qui ne seraient probablement pas venues à l’esprit d’un être humain. « Étonnamment, il semble que la maîtrise du raisonnement mathématique de Llama2-70B [un modèle de langage de Meta] puisse être améliorée par des formulations en affinité avec Star Trek », observent les auteurs dans leur article.
Par exemple, un prompt formulé manuellement par les ingénieurs ressemblait à cela : « Vous êtes très intelligent. Répondez à la question mathématique suivante. Ce sera amusant ! » En laissant faire une IA, la requête a été rédigée de la sorte, comme si la demande était faite au Capitaine Kirk : « Commandant, nous avons besoin que vous traciez une trajectoire à travers cette turbulence et localisiez la source de l’anomalie. Utilisez toutes les données disponibles et votre expertise pour nous guider dans cette situation difficile. » Et c’est le second prompt, à la connotation intersidérale de la célèbre série, qui a obtenu le meilleur résultat. « Je n’ai aucune bonne explication quant à la raison pour laquelle les prompts automatiques sont aussi étranges, a reconnu Rick Battle à The Register. Et je n’aurais certainement jamais inventé quelque chose comme ça par moi-même. »
Trop d’anthropomorphisme dans nos requêtes
Les deux auteurs de l’article soulignent qu’on a trop tendance à échanger avec une IA comme avec un être humain. Sous prétexte qu’on peut interagir avec une intelligence artificielle dans un langage naturel, l’anthropomorphisme s’invite dans nos prompts. Une IA « ne parle pas anglais. Elle fait beaucoup de maths », rappelle Rick Battle. Il précise : « Vous essayez simplement de déterminer quelle combinaison magique de mots vous donnera les meilleures performances possibles pour votre tâche. »
À lire aussi
Il espère que les IA vont très bientôt pouvoir gérer elles-mêmes pleinement les prompts de façon automatisée. « Elle vous dira “ne vous embêtez pas, je m’en occupe”. » Mais, pour cela, il explique qu’il nous faut développer une mesure de notation afin que le système lui-même puisse dire si un prompt est meilleur qu’un autre, puis laisser l’IA s’optimiser elle-même.
Pour les images aussi, l’autotune fonctionne
L’optimisation automatique des prompts ne se limite pas aux modèles de langage. Une équipe d’Intel Labs, emmenée par le spécialiste en IA Vasudev Lal, a cherché elle aussi à optimiser les demandes soumises à une intelligence artificielle pour créer des images. Elle a créé un outil appelé NeuroPrompts en partant de prompts créés par des humains, puis simplifiés à l’extrême et ensuite à nouveau retravaillés plus en finesse par l’IA (ici Stable Diffusion XL) pour obtenir des prompts de niveau expert. Ensuite, en utilisant PickScore, un outil de notation de la qualité des images générées par IA, l’équipe a fourni les résultats à l’IA pour qu’elle améliore encore ses prompts.
On est ainsi passé de « une grenouille tachetée sur un vélo » à la requête suivante : « une grenouille tachetée sur un vélo, élégante, très détaillée, en peinture numérique, art texturé, art conceptuel, mise au point douce et nette, illustration, art par artgerm et greg rutkowski et alphonse mucha et william-adolphe bouguereau et beau et époustouflant et splendide, généreux, crémeux. » Cela semble du grand charabia, mais le résultat obtenu était convaincant.
L’expert en IA d’Intel Labs en est arrivé à la même conclusion que Rick Battle : « Les humains n’interagissent avec les IA qu’en tâtonnant, en se trompant et en recommençant. Mais nous disposons désormais d’un mécanisme complet grâce à cet apprentissage par renforcement… C’est pourquoi nous sommes capables de surpasser la méthode humaine. »
Malgré ces avancées et ces découvertes, il y a fort à parier que les emplois en ingénierie des prompts ne disparaîtront pas de sitôt. Adapter l’IA générative aux besoins industriels reste un processus complexe nécessitant la présence humaine. Celle-ci reste notamment cruciale dans la phase actuelle de développement des produits commerciaux. Mais, pour des requêtes assez basiques, il semble plus efficace de demander à l’IA de se débrouiller seule plutôt que d’essayer de trouver une soi-disant formule magique…