Actu

Meta lance une IA de type ChatGPT, pour l’instant réservée aux chercheurs

27 février 2023
Par Kesso Diallo
Meta veut aider les chercheurs à comprendre le fonctionnement des grands modèles de langage.
Meta veut aider les chercheurs à comprendre le fonctionnement des grands modèles de langage. ©Michael Vi / Shutterstock

Le géant américain espère que son outil, baptisé LLaMA, sera utilisé pour résoudre certains des problèmes bien connus de ces systèmes, comme les biais ou la génération de fausses informations.

Alors que la guerre de l’intelligence artificielle (IA) est lancée avec Google et Microsoft, Meta ne veut pas être oublié. Le groupe californien a dévoilé vendredi une IA de type ChatGPT appelée LLaMA. Pour le moment, elle est uniquement ouverte aux chercheurs, ayant pour objectif de les aider « à progresser dans leurs travaux » sur ce sujet, indique la branche dédiée à l’IA de la société dans un billet de blog.

Contrairement à d’autres, ils n’ont pas besoin d’infrastructures très importantes pour étudier ce système. Les ressources nécessaires pour entraîner et mieux faire fonctionner les modèles de langage constituent en effet un obstacle pour la recherche. Ce manque de ressources « a limité la capacité des chercheurs à comprendre comment et pourquoi ces grands modèles de langage fonctionnent, entravant les efforts visant à améliorer leur robustesse et à atténuer les problèmes connus, tels que les biais, la toxicité et la possibilité de générer de fausses informations », explique Meta AI.

Limiter les problèmes des grands modèles de langage

La firme a elle-même été confrontée à ces problèmes avec les systèmes BlenderBot3 et Galactica. Conçu pour aider les scientifiques à trouver rapidement des informations utiles à leurs recherches, ce dernier a été débranché deux jours après avoir été lancé sur le web à cause de propos erronés et racistes. Le chatbot du moteur de recherche Bing de Microsoft – en cours de test – a aussi rapidement posé problème, en insultant des utilisateurs par exemple.

« Des travaux de recherche supplémentaires sont nécessaires pour traiter les risques de biais, de commentaires toxiques et d’hallucinations dans les grands modèles de langage. Comme d’autres modèles, LLaMA partage ces difficultés », prévient Meta AI. « En partageant le code de LLaMA, d’autres chercheurs peuvent plus facilement tester de nouvelles approches pour limiter ou éliminer ces problèmes dans les grands modèles de langage », a ajouté la branche de la firme dédiée à l’IA. Elle affirme que son modèle a été conçu pour être polyvalent et qu’il peut être appliqué à de nombreux cas d’utilisation différents. Elle a par ailleurs développé plusieurs versions de LLaMA, qui nécessitent plus ou moins de ressources.

Afin de prévenir les abus, Meta AI publie son modèle « sous une licence non commerciale axée sur les cas d’utilisation de la recherche ». La société indique qu’elle accordera l’accès à celui-ci au cas par cas aux divers chercheurs.

À lire aussi

Article rédigé par
Kesso Diallo
Kesso Diallo
Journaliste