Article

Intelligence artificielle : les pistes proposées par leurs créateurs pour éviter les dérapages

19 septembre 2023
Par Florence Santrot
Intelligence artificielle : les pistes proposées par leurs créateurs pour éviter les dérapages
©thinkhubstudio/Shutterstock

Et si les IA prenaient le pouvoir ou, du moins, devenaient suffisamment puissantes pour tromper le cerveau humain ? Des garde-fous sont nécessaires.

Au cœur de l’été, en juillet dernier, sept grandes firmes spécialisées dans l’intelligence artificielle se sont réunies à la Maison-Blanche pour s’accorder avec le Président Joe Biden sur de nouvelles mesures de protection volontaire conçues pour minimiser les abus et lutter contre les préjugés face à cette technologie émergente. En effet, plus les intelligences artificielles sont efficaces, plus l’inquiétude augmente. Fake news, créations d’images inventées de toutes pièces, chatbots capables d’arnaques complexes, violation de la vie privée, détournement d’œuvres d’art… les risques sont nombreux.

Les dirigeants d’OpenAI (ChatGPT, Dall-E…), d’Amazon, d’Alphabet (Google), de Meta (Facebook), de Microsoft, d’Anthropic et d’Inflection se sont donc réunis pour décider de mesures communes à mettre en place. Objectif : définir des garde-fous pour empêcher et prévenir les éventuels dérapages. « Nous saluons le leadership du Président qui a rassemblé l’industrie technologique pour élaborer des mesures concrètes qui contribueront à rendre l’IA plus sûre, plus sécurisée et plus bénéfique pour le public », a déclaré Microsoft dans un article de blog peu après la rencontre.

3 mesures phares pour éviter les dérapages de l’IA

Parmi les multiples annonces faites au terme de cette rencontre, les sept firmes se sont engagées sur « trois principes qui doivent être fondamentaux au développement de l’intelligence artificielle » : la sécurité, le processus de publication des nouvelles versions des IA plus sûres, ou encore des solutions pour éviter de tromper le grand public.

Indiquer clairement quand une image ou un texte a été créé par IA

Cela fait partie des mesures phares sur lesquelles se sont engagés les sept grands acteurs. Ces derniers doivent développer un système permettant de « filigraner » toutes les formes de contenus. Cela concernerait aussi bien des textes, des images, des contenus audio que des vidéos. Cette règle permettrait donc de savoir précisément quand la technologie a été utilisée. Cependant, les sept acteurs de l’IA ne sont pas rentrés dans les détails sur la manière concrète dont ce « watermark » se matérialiserait selon les différents cas de figure. Ni à partir de quand cette mesure entrerait en vigueur.

Renforcer la sécurité autour des intelligences artificielles

C’est à n’en pas douter l’une des grandes attentes autour de l’IA. OpenAI, Amazon, Meta, Microsoft, Google, Anthropic et Inflection ont annoncé qu’ils allaient mettre en place un processus de test de la sécurité interne et externe de leurs systèmes d’IA avant leur sortie. « Ces tests, qui seront effectués en partie par des experts indépendants, protègent contre certaines des sources les plus importantes de risques liés à l’IA, telles que la biosécurité et la cybersécurité, ainsi que contre leurs effets sociétaux plus larges », explique la Maison-Blanche.

En outre, les sept acteurs ont convenu d’un partage d’informations entre eux, avec les gouvernements, le monde universitaire, mais aussi la société civile sur la gestion des risques liés à l’IA. Par exemple, ils s’engagent à ne pas cacher les éventuelles tentatives de contournement des garde-fous mis en place, mais aussi à faciliter la découverte et le signalement par des tiers des vulnérabilités de leurs systèmes d’IA.

Jouer la carte de la transparence

Afin de renforcer la confiance de tous et toutes en matière d’intelligence artificielle, il a aussi été convenu que la priorité serait donnée à la recherche sur les risques sociaux que les systèmes d’IA peuvent poser, notamment en évitant les préjugés et la discrimination préjudiciable, mais aussi en protégeant la vie privée. Avec le recul, on s’aperçoit que les IA sont en effet très exposées au caractère insidieux et à la prévalence de ces dangers. C’est pourquoi les sept entreprises s’engagent à déployer des modèles d’intelligence artificielle qui les atténuent au mieux.

« Nous verrons plus de changements technologiques dans les dix prochaines années ou même dans les prochaines années que nous n’en avons vu au cours des 50 dernières années. Cela a été une révélation étonnante pour moi », a avoué Joe Biden fin juillet. La crainte immédiate, c’est un déferlement de fake news – aussi bien des textes que des images inventées de toute pièce – lors des prochaines élections présidentielles américaines de 2024. Le but est donc de mettre en place des règles claires pour éviter le chaos complet dans quelques mois. Un défi majeur pour les éditeurs d’IA.

À lire aussi

Article rédigé par