18 pays, dont la France, viennent de dévoiler un accord international centré sur la cybersécurité et visant à garantir un développement sécurisé de cette technologie.
Un guide destiné aux créateurs de systèmes d’intelligence artificielle (IA). Dimanche, 18 pays, dont les États-Unis, le Royaume-Uni et la France ont dévoilé un accord international sur la manière de développer des systèmes d’IA « sécurisés dès la conception ». « Les lignes directrices visent à élever les niveaux de cybersécurité de l’intelligence artificielle et à garantir qu’elle est conçue, développée et déployée en toute sécurité », a déclaré le National Cyber Security Centre (NCSC), agence publique du Royaume-Uni, dans un communiqué.
Élaborées par cette dernière et 21 autres agences internationales, dont la Cybersecurity and Infrastructure Security Agency des États-Unis et l’Agence nationale de la sécurité des systèmes d’information en France, ces lignes directrices devraient aider les fournisseurs à « créer des systèmes d’IA qui fonctionnent comme prévu, sont disponibles en cas de besoin et fonctionnent sans révéler de données sensibles à des parties non autorisées ».
Une exigence fondamentale
Alors que dans une course à l’IA, les entreprises comme OpenAI ou Google ne cessent de développer des outils, les dix-huit pays estiment que la sécurité ne doit pas passer au second plan. « Ces lignes directrices marquent une étape importante dans l’élaboration d’une compréhension commune véritablement mondiale des cyber-risques et de stratégies pour les réduire autour de l’IA afin de garantir que la sécurité n’est pas un post-scriptum du développement, mais une exigence fondamentale tout au long », a déclaré Lindy Cameron, PDG du NCSC.
Outre les menaces de cybersécurité classiques, ces systèmes d’IA sont en effet soumis à de nouvelles vulnérabilités de sécurité qui doivent être prises en compte, indique le NCSC. Divisées en quatre domaines clés du cycle de vie de ces derniers (conception, développement, déploiement, exploitation et maintenance), les lignes directrices recommandent, entre autres, « des mesures d’atténuation qui contribueront à réduire le risque global lié au processus de développement d’un système d’IA organisationnel » dans chaque section, assure l’agence britannique.
Bien qu’elles soient principalement destinées aux fournisseurs de ces systèmes, les dix-huit pays exhortent toutes les parties prenantes, soit les scientifiques de données, les développeurs, les gestionnaires, les décideurs et les propriétaires de risques, à les lire pour « prendre des décisions éclairées concernant la conception, le développement, le déploiement et l’exploitation de leurs systèmes d’IA ».
Cet accord intervient quelques semaines après la première déclaration mondiale sur les risques de l’IA, signée par une vingtaine de pays à l’occasion du premier sommet mondial sur la sécurité de cette technologie début novembre au Royaume-Uni.