Décryptage

Intelligence artificielle : comment une loi californienne va influencer le monde entier

25 septembre 2024
Par Florence Santrot
Intelligence artificielle : comment une loi californienne va influencer le monde entier
©aniqpixel

Connue sous le nom de code SB-1047, cette loi vise à obliger les géants de l’IA à s’assurer que leurs modèles les plus avancés sont sécurisés et ne causeront pas de « dommages considérables ».

Nom de code : SB-1047. Nom officiel : « Safe and Secure Innovation for Frontier Artificial Intelligence Models Act ». Mais tout le monde dans la Silicon Valley parle de l’« AI Bill », la loi sur l’intelligence artificielle. Elle a été longuement débattue : il a fallu pas moins de neuf séries d’amendements résultant d’échanges entre les législateurs et l’industrie de l’IA. Elle a finalement été adoptée le 28 août dernier par l’Assemblée de Californie puis, le lendemain, par le Sénat. Enfin, ce projet de loi a été « enrôlé et présenté au gouverneur », c’est-à-dire qu’il est maintenant sur le bureau du gouverneur Gavin Newsom. Ce dernier a le choix entre l’approuver ou y opposer son veto, mais il n’a pas encore pris de décision.

Quelles conséquences aurait-elle si elle était promulguée ? Imaginez un instant que votre assistant virtuel préféré – ChatGPT, Gemini, Claude ou encore Perplexity – doive passer un examen de sécurité avant de pouvoir bavarder avec vous. C’est un peu l’esprit de cette loi qui vise à obliger les principales entreprises d’intelligence artificielle à prouver que leurs modèles les plus avancés ne risquent pas de causer de « dommages considérables ». Une noble intention, certes, mais qui fait grincer des dents dans les bureaux de la baie de San Francisco.

Et si cette loi était une opportunité pour le secteur de l’IA ?

Certains experts voient dans cette loi une opportunité plutôt qu’une menace. « Une régulation bien pensée peut stimuler l’innovation en créant un cadre clair et en renforçant la confiance du public. À l’heure actuelle, cette technologie donne l’impression d’être un train fou que nous poursuivons en courant derrière lui », argumente Cynthia Rudin, professeure d’informatique à la Duke University. Elle affirme que les mastodontes de l’IA « gagnent trop d’argent pour se soucier réellement de l’impact de leurs outils. C’est pourquoi nous, les citoyens, devons intervenir et exiger une réglementation ».

Intelligence artificielle : comment la loi californienne va influencer le monde entier
©Shutterstock-AI-Generator

Le texte prévoit notamment des évaluations des risques pour les modèles d’IA les plus avancés, une transparence accrue sur leurs capacités et limites, ainsi que des mesures d’atténuation des dangers potentiels. Des dispositions qui pourraient inspirer d’autres législateurs à travers le monde et qui s’inscrivent dans la droite ligne de l’esprit de l’AI Act européen, qui est lui aussi sous le feu des critiques.

À lire aussi

Yoshua Bengio, chercheur, fondateur de l’Institut québécois d’intelligence artificielle, souhaite lui aussi une régulation de l’IA. « Nous devrions viser une voie qui permette l’innovation, mais qui nous protège également dans les scénarios plausibles identifiés par les scientifiques », a-t-il déclaré, ajoutant : « Aujourd’hui, l’intelligence artificielle, c’est le Far West ! Nous devons ralentir et réguler. »

Un effet papillon made in California ?

La Californie accueille sur ses terres les principaux acteurs majeurs de l’IA : OpenAI, Google, Meta, Apple, Microsoft… En étant le berceau de cette technologie, la Californie occupe une position clé pour instaurer des régulations dans le monde entier. En effet, de fait, les lois qui s’appliquent à ces sociétés auront un impact au-delà de ses frontières.

Prenons l’exemple du contrôle des données personnelles. Les entreprises basées en Californie doivent garantir aux résidents de l’État un certain contrôle sur leur vie privée en ligne. Par besoin de simplification, beaucoup d’entre elles ont fini par appliquer ces règles à tous leurs utilisateurs, américains et au-delà, la gestion de deux niveaux de régulations étant coûteuse et complexe, notamment lorsqu’il s’agit d’identifier si un utilisateur californien se connecte depuis un autre État ou un autre continent.

Intelligence artificielle : comment la loi californienne va influencer le monde entier
©CoreDESIGN

En outre, si le projet de loi SB-1047 entre en vigueur, il pourrait bien faire des émules. Tout comme le RGPD européen a influencé les pratiques en matière de protection des données dans le monde entier, cette loi californienne pourrait devenir un standard de facto pour l’IA. C’est ce que les experts appellent « l’effet Brussels ». Ou, dans ce cas, « l’effet Sacramento ».

Les géants de la tech sur la défensive… mais pas leurs employés

Le hic est que les mastodontes de la Silicon Valley ne comptent pas se laisser faire sans broncher. Google, Meta et consorts ont déjà sorti leurs plus beaux arguments. Les trois principaux sont que cet AI Act serait un frein à l’innovation, que ce serait l’assurance d’une perte de compétitivité face à la Chine et que cette législation s’annonce très complexe à mettre en œuvre. La liste des critiques est longue, bien rodée et répétée à l’envi dans les médias ainsi qu’auprès des législateurs dans l’espoir d’influer sur la décision politique. De là à inciter Gavin Newsom à mettre son veto ? Ce serait aller un peu vite en besogne.

Surtout que si les dirigeants de ces géants de la tech s’opposent à ce projet de loi, leurs employés ne sont pas du même avis. Ainsi, plus de 100 salariés ou anciens salariés d’OpenAI, de Google, de Meta et d’Anthropic ont envoyé une lettre ouverte en soutien au nouveau projet de loi californien sur la régulation de l’intelligence artificielle. « Nous pensons que les modèles d’IA les plus puissants pourraient bientôt présenter de graves risques, tels qu’un accès élargi aux armes biologiques et des cyberattaques sur des infrastructures critiques », écrivent-ils dans leur message. À noter que l’AI Act californien inclut un amendement qui confère une protection aux lanceurs d’alerte pour les employés qui dénoncent les risques liés aux modèles d’IA développés par leurs entreprises.

À lire aussi

Vers une régulation mondiale de l’IA ?

Reste à savoir comment cette loi, si elle est adoptée, sera mise en œuvre concrètement. Comment définir précisément un “modèle d’IA de frontière” ? Qui sera chargé d’évaluer les risques ? Quelles seront les sanctions en cas de non-respect ? Autant de questions qui restent en suspens et qui feront probablement l’objet de débats animés dans les mois à venir.

Une chose est sûre : qu’elle soit adoptée ou non, la SB-1047 aura au moins eu le mérite de lancer une réflexion cruciale sur la régulation de l’IA à l’échelle mondiale. Et pourrait faire de la Californie le shérif de l’IA mondiale dans les mois à venir. Dans la Silicon Valley, l’heure n’est plus seulement à l’innovation débridée, mais aussi à la responsabilité. Et ça, c’est peut-être la vraie révolution.

À lire aussi

Article rédigé par