Actu

OpenAI autorise désormais l’utilisation de ses modèles d’IA à des fins militaires

16 janvier 2024
Par Kesso Diallo
La société a changé ses politiques d’utilisation afin de les rendre plus lisibles.
La société a changé ses politiques d’utilisation afin de les rendre plus lisibles. ©sdx15 / Shutterstock

La startup californienne a modifié sa politique d’utilisation qui interdisait expressément de tels usages pour être plus claire concernant les projets qu’elle approuve.

Le 10 janvier, OpenAI a annoncé le lancement de son GPT Store afin de permettre aux utilisateurs de partager leurs chatbots personnalisés. Le même jour, le créateur de ChatGPT a discrètement modifié sa politique d’utilisation, qui interdisait expressément l’utilisation de ses modèles d’intelligence artificielle (IA) à des fins militaires. Jusqu’à mercredi dernier, elle incluait une interdiction des « activités présentant un risque élevé de dommages physiques », mentionnant notamment le « développement d’armes » et les applications militaires.

Désormais, OpenAI indique seulement que son service ne doit pas être utilisé « pour faire du mal à vous-même ou à autrui », citant en exemple le développement et l’utilisation d’armes. L’interdiction des usages à des fins militaires a ainsi disparu. 

Des politiques plus claires

La société explique avoir changé ses politiques d’utilisation afin de les rendre plus lisibles. « Notre objectif était de créer un ensemble de principes universels faciles à retenir et à appliquer, d’autant plus que nos outils sont désormais utilisés dans le monde entier par des utilisateurs quotidiens qui peuvent également créer des GPT », a déclaré Niko Felix, porte-parole d’OpenAI, au média The Intercept

L’entreprise estime ainsi qu’« un principe tel que “Ne pas nuire à autrui” est vaste mais facile à comprendre et pertinent dans de nombreux contextes »« De plus, nous avons spécifiquement cité les armes et les blessures infligées à autrui comme exemples clairs », a souligné Niko Felix.

Autoriser des usages à des fins militaires bénéfiques

Alors que le porte-parole d’OpenAI a refusé de préciser si cette interdiction plus vague englobait toute utilisation militaire, la startup a fini par se justifier davantage auprès de TechCrunch« Notre politique ne permet pas que nos outils soient utilisés pour nuire à des personnes, développer des armes, pour surveiller les communications, ou pour blesser autrui ou détruire des biens. Il existe cependant des cas d’utilisation en matière de sécurité nationale qui correspondent à notre mission », a-t-elle expliqué. 

La société a révélé qu’elle travaille avec la DARPA, l’agence américaine chargée de la recherche et du développement de nouvelles technologies destinées à un usage militaire, « pour stimuler la création de nouveaux outils de cybersécurité afin de sécuriser les logiciels open source dont dépendent les infrastructures critiques et l’industrie »« Il n’était pas clair si ces cas d’utilisation bénéfiques auraient été autorisés sous la rubrique « militaire » dans nos politiques précédentes. L’objectif de notre mise à jour de politique est donc d’apporter de la clarté et de permettre d’avoir ces discussions », a déclaré OpenAI.

À noter qu’outre les usages à des fins militaires, la startup a supprimé d’autres éléments de sa politique, comme le relève The Register. Elle a notamment supprimé « la génération de logiciels malveillants » de la liste des utilisations non autorisées, alors que ChatGPT a rapidement été détourné par des cybercriminels après son lancement. 

À partir de
7,90€
Voir sur Fnac.com

À lire aussi

Article rédigé par
Kesso Diallo
Kesso Diallo
Journaliste