Une plainte contre OpenAI, la société à l’origine du chatbot, a été déposée par une ONG auprès de l’autorité américaine de protection des consommateurs.
L’intelligence artificielle (IA) continue d’inquiéter. Alors que des centaines d’experts viennent de demander une pause dans le développement de cette technologie, une plainte a été déposée jeudi contre OpenAI. Le Center for AI and Digital Policy (CAIDP), un organisme de recherche à but non lucratif, accuse la société à l’origine de ChatGPT d’avoir violé la loi fédérale sur la protection des consommateurs avec GPT-4, le nouveau modèle de langage alimentant le chatbot.
Dans la plainte déposée auprès de la Federal Trade Commission (FTC) – autorité de protection des consommateurs – l’ONG reproche à l’entreprise d’avoir lancé un produit « biaisé, trompeur et qui présente un risque pour la vie privée et la sécurité publique ». « La Federal Trade Commission a déclaré que l’utilisation de l’IA doit être “transparente, explicable, juste et empiriquement solide tout en favorisant la responsabilité”. Le produit GPT-4 d’OpenAI ne répond à aucune de ces exigences », a affirmé le CAIDP.
Des garde-fous nécessaires
Avec cette plainte, l’ONG demande à la FTC d’ouvrir une enquête sur OpenAI, mais aussi de « suspendre le déploiement ultérieur de produits commerciaux GPT jusqu’à ce que l’entreprise se conforme » à ses directives pour les produits d’IA. Dans une lettre, elle reproche également à l’entreprise de fournir peu d’informations sur les données d’entraînement, le nombre de paramètres ou les méthodes d’évaluation dans le dernier document technique sur GPT-4. « Une exigence fondamentale dans tous les cadres politiques émergents en matière d’IA – une évaluation d’impact indépendante avant le déploiement – n’a jamais été entreprise », a déclaré le CAIDP.
L’ONG mentionne aussi une douzaine de risques majeurs inclus dans la description technique du modèle de langage. Parmi eux figurent notamment la désinformation et la cybersécurité. Des craintes récemment mentionnées par le patron d’OpenAI et partagées par Europol. C’est aussi par rapport à ces risques que le CAIDP demande à la FTC d’instituer un moratoire sur les nouvelles versions de GPT, le temps que des garde-fous appropriés soient mis en place.
« De nombreux experts en IA, y compris de nombreuses entreprises elles-mêmes, ont appelé à une réglementation. Pourtant, il y a peu d’efforts aux États-Unis aujourd’hui pour développer une politique de régulation, alors même que les pays du monde entier se précipitent pour établir des garde-fous juridiques », a reproché l’ONG. « Le public a besoin de plus d’informations sur l’impact de l’intelligence artificielle. Des experts indépendants doivent avoir la possibilité d’interroger ces modèles. Des lois devraient être promulguées pour promouvoir la transparence algorithmique et contrer les biais algorithmiques », a ajouté le CAIDP, appelant à la création d’une commission nationale pour évaluer l’impact de l’IA sur la société américaine, pour mieux comprendre les avantages et les risques de cette technologie.