Actu

Elon Musk et des centaines d’experts appellent à une pause dans le développement de l’IA

30 mars 2023
Par Kesso Diallo
Les signataires évoquent des "risques majeurs pour la société et l'humanité".
Les signataires évoquent des "risques majeurs pour la société et l'humanité". ©cono0430 / Shutterstock

Ils ont signé une lettre ouverte, demandant une pause de six mois dans la recherche sur des systèmes plus puissants que GPT-4.

« Des risques majeurs pour la société et l’humanité ». Ce mercredi, Elon Musk et des centaines d’experts mondiaux ont signé une lettre ouverte, réclamant une pause d’au moins six mois dans « la formation des systèmes d’IA plus puissants que GPT-4 ». Dévoilé à la mi-mars, il s’agit du dernier modèle d’OpenAI alimentant son célèbre robot conversationnel, ChatGPT.

« Ces derniers mois ont vu les laboratoires d’IA s’enfermer dans une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable », indiquent les signataires, parmi lesquels figurent notamment le cofondateur d’Apple Steve Wozniak, le patron de Stability AI – concurrent d’OpenAI – Emad Mostaque et des membres de Deepmind, le laboratoire d’IA de Google.

Mettre en place des systèmes de sécurité

Les signataires veulent que cette pause soit publique et vérifiable, mais aussi qu’elle inclut l’ensemble des acteurs clés. « Si une telle pause ne peut pas être décrétée rapidement, les gouvernements devraient intervenir et instituer un moratoire », affirment-ils. Selon eux, ce temps devrait être utilisé pour développer et mettre en œuvre conjointement un ensemble de protocoles de sécurité partagés pour la conception et le développement avancés d’IA.

« Devons-nous laisser les machines inonder nos canaux d’information de propagande et de mensonges ? (…) Devons-nous risquer de perdre le contrôle de notre civilisation ? Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus. Des systèmes d’IA puissants ne devraient être développés qu’une fois que nous sommes convaincus que leurs effets seront positifs et et que leurs risques seront gérables », expliquent les signataires. Ils estiment que les développeurs d’IA doivent travailler avec les décideurs politiques pour mettre en place des systèmes de sécurité, tels que de nouvelles autorités de réglementation dédiées, des techniques permettant de distinguer le réel de l’artificiel et des institutions capables de gérer les « perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l’IA provoquera ».

Les signataires soulignent qu’il ne s’agit pas d’une « pause dans le développement de l’IA en général, mais simplement [d’]un recul par rapport à la course dangereuse vers des modèles de boîtes noires imprévisibles toujours plus grands avec des capacités émergentes ». Ils considèrent que la recherche et le développement de l’IA doit être recentré sur la conception de systèmes puissants mais plus sûrs, transparents, robustes et dignes de confiance.

À lire aussi

Article rédigé par
Kesso Diallo
Kesso Diallo
Journaliste