Actu

Des centaines d’experts de l’IA alertent sur les menaces d’« extinction » pour l’humanité

31 mai 2023
Par Kesso Diallo
La déclaration vise, entre autres, à ouvrir la discussion sur les dangers de l'IA.
La déclaration vise, entre autres, à ouvrir la discussion sur les dangers de l'IA. ©Space Wind / Shutterstock

Dans une courte déclaration, ils mettent en garde contre les risques liés à l’IA, qui sont à mettre sur le même plan que « les pandémies et la guerre nucléaire ».

L’intelligence artificielle (IA) continue de fasciner autant qu’elle inquiète. Cette technologie, revenue sur le devant de la scène avec le lancement de ChatGPT, préoccupe même ceux qui contribuent à son développement. Dans une déclaration publiée mardi, des centaines d’experts et chefs d’entreprises du secteur ont alerté sur la menace existentielle que l’IA représente pour l’humanité. 

Ils estiment que la lutte contre les risques liés à l’IA « devrait être une priorité mondiale au même titre que d’autres risques à l’échelle de la société, tels que les pandémies et la guerre nucléaire », comme l’indique la déclaration publiée par le Center for AI Safety, une ONG basée aux États-Unis. Parmi les signataires figurent Sam Altman, le PDG d’OpenAI (ChatGPT) et Dennis Hassabis, le patron de DeepMind (filiale de Google spécialisée dans l’IA). La déclaration a aussi été signée par Geoffrey Hinton, considéré comme l’un des pères fondateurs de l’IA. Il a récemment quitté son poste chez Google afin d’alerter sur les dangers de cette technologie.

Mettre en garde et ouvrir la discussion

Avec cette déclaration, les signataires espèrent ouvrir la discussion sur les dangers posés par cette technologie. « Les experts en IA, les journalistes, les décideurs et le public discutent de plus en plus d’un large éventail de risques importants et urgents liés à l’IA. Même ainsi, il peut être difficile d’exprimer des inquiétudes concernant certains des risques les plus graves de l’IA avancée. La déclaration succincte (…) vise à surmonter cet obstacle et à ouvrir la discussion », a expliqué l’ONG.

L’objectif est aussi de « créer une connaissance commune du nombre croissant d’experts et de personnalités publiques qui prennent également au sérieux certains des risques les plus graves de l’IA avancée ». Directeur général du Center for AI Safety, Dan Hendrycks a décrit la déclaration comme un « coming-out » pour les personnalités du secteur préoccupées par les risques liés à l’IA auprès du New York Times. « Il y a une fausse idée très répandue, même dans la communauté de l’IA, selon laquelle il n’y a qu’une poignée de doomers (personnes s’inquiétant d’un effondrement de la civilisation, ndlr). Mais, en fait, de nombreuses personnes exprimaient en privé leurs inquiétudes », a-t-il déclaré.

Cette déclaration intervient après la lettre ouverte signée par Elon Musk et certaines des mêmes personnes soutenant ce nouvel avertissement. Appelant à faire une pause de six mois dans le développement de l’IA à cause de « risques majeurs pour la société et l’humanité », elle a fait l’objet de critiques, notamment car certains considèrent qu’une pause n’est pas la solution au problème. Dans le cas présent, la déclaration est courte – composée uniquement de 22 mots – afin d’éviter un tel désaccord, raison pour laquelle elle n’inclut pas d’« actions potentielles », comme l’a expliqué Dan Hendryck. 

À lire aussi

Article rédigé par
Kesso Diallo
Kesso Diallo
Journaliste
Pour aller plus loin