Actu

Quatre géants de l’IA s’unissent pour s’autoréguler

27 juillet 2023
Par Kesso Diallo
Les 4 entreprises souhaitent notamment faire progresser la recherche sur la sécurité de cette technologie afin de promouvoir un développement responsable des modèles d’avant-garde.
Les 4 entreprises souhaitent notamment faire progresser la recherche sur la sécurité de cette technologie afin de promouvoir un développement responsable des modèles d’avant-garde. ©Tada Images / Shutterstock

Google, Microsoft, OpenAI et Anthropic ont lancé le Frontier Model Forum, un groupe pour assurer un développement sûr et responsable de l’intelligence artificielle.

Quelques jours après s’être engagés à rendre l’intelligence artificielle (IA) plus sûre et transparente auprès de la Maison Blanche, quatre géants du secteur ont décidé de s’unir pour améliorer la sécurité de cette technologie. Google, Microsoft, OpenAI et Anthropic ont annoncé, mercredi, le lancement du Frontier Model Forum, « un organisme axé sur le développement sûr et responsable des modèles d’IA d’avant-garde ».   

Ces derniers sont définis par les quatre entreprises comme des « modèles d’apprentissage automatique à grande échelle qui dépassent les capacités actuellement présentes dans les modèles existants les plus avancés et peuvent effectuer une grande variété de tâches ».

Assurer un développement sûr et responsable de l’IA

Les quatre objectifs que les géants de l’IA se sont fixés sont similaires à leurs engagements auprès de la Maison Blanche. Pour commencer, ils souhaitent faire progresser la recherche sur la sécurité de cette technologie afin de promouvoir un développement responsable des modèles d’avant-garde, minimiser leurs risques et permettre des évaluations indépendantes de leurs capacités. Leur but est aussi d’aider le public à comprendre la nature, les capacités, les limites et l’impact de l’IA.  

Les entreprises prévoient par ailleurs de collaborer avec les décideurs politiques, les universitaires ou encore la société civile afin de partager leurs connaissances concernant les risques liés à la confiance et à la sécurité de cette technologie. Enfin, elles visent à « soutenir les efforts de développement d’applications qui peuvent aider à relever les plus grands défis de la société, tels que l’atténuation et l’adaptation au changement climatique, la détection et la prévention précoces du cancer et la lutte contre les cybermenaces ».

Au cours de l’année à venir, le Frontier Model Forum va se concentrer sur les trois premiers objectifs. Un conseil consultatif sera également créé dans les prochains mois pour l’aider à orienter sa stratégie et ses priorités. Google, Microsoft, OpenAI et Anthropic espèrent que d’autres entreprises se joindront à leurs efforts pour assurer un développement sûr et responsable de l’IA. Elles devront répondre à des critères pour devenir membre du Frontier Model Forum, dont la démonstration d’« un engagement fort pour la sécurité des modèles, notamment par le biais d’approches techniques et institutionnelles ».

À lire aussi

Article rédigé par
Kesso Diallo
Kesso Diallo
Journaliste
Pour aller plus loin