La startup californienne a modifié sa politique d’utilisation qui interdisait expressément de tels usages pour être plus claire concernant les projets qu’elle approuve.
Le 10 janvier, OpenAI a annoncé le lancement de son GPT Store afin de permettre aux utilisateurs de partager leurs chatbots personnalisés. Le même jour, le créateur de ChatGPT a discrètement modifié sa politique d’utilisation, qui interdisait expressément l’utilisation de ses modèles d’intelligence artificielle (IA) à des fins militaires. Jusqu’à mercredi dernier, elle incluait une interdiction des « activités présentant un risque élevé de dommages physiques », mentionnant notamment le « développement d’armes » et les applications militaires.
Désormais, OpenAI indique seulement que son service ne doit pas être utilisé « pour faire du mal à vous-même ou à autrui », citant en exemple le développement et l’utilisation d’armes. L’interdiction des usages à des fins militaires a ainsi disparu.
Des politiques plus claires
La société explique avoir changé ses politiques d’utilisation afin de les rendre plus lisibles. « Notre objectif était de créer un ensemble de principes universels faciles à retenir et à appliquer, d’autant plus que nos outils sont désormais utilisés dans le monde entier par des utilisateurs quotidiens qui peuvent également créer des GPT », a déclaré Niko Felix, porte-parole d’OpenAI, au média The Intercept.
L’entreprise estime ainsi qu’« un principe tel que “Ne pas nuire à autrui” est vaste mais facile à comprendre et pertinent dans de nombreux contextes ». « De plus, nous avons spécifiquement cité les armes et les blessures infligées à autrui comme exemples clairs », a souligné Niko Felix.
Autoriser des usages à des fins militaires bénéfiques
Alors que le porte-parole d’OpenAI a refusé de préciser si cette interdiction plus vague englobait toute utilisation militaire, la startup a fini par se justifier davantage auprès de TechCrunch. « Notre politique ne permet pas que nos outils soient utilisés pour nuire à des personnes, développer des armes, pour surveiller les communications, ou pour blesser autrui ou détruire des biens. Il existe cependant des cas d’utilisation en matière de sécurité nationale qui correspondent à notre mission », a-t-elle expliqué.
La société a révélé qu’elle travaille avec la DARPA, l’agence américaine chargée de la recherche et du développement de nouvelles technologies destinées à un usage militaire, « pour stimuler la création de nouveaux outils de cybersécurité afin de sécuriser les logiciels open source dont dépendent les infrastructures critiques et l’industrie ». « Il n’était pas clair si ces cas d’utilisation bénéfiques auraient été autorisés sous la rubrique « militaire » dans nos politiques précédentes. L’objectif de notre mise à jour de politique est donc d’apporter de la clarté et de permettre d’avoir ces discussions », a déclaré OpenAI.
À noter qu’outre les usages à des fins militaires, la startup a supprimé d’autres éléments de sa politique, comme le relève The Register. Elle a notamment supprimé « la génération de logiciels malveillants » de la liste des utilisations non autorisées, alors que ChatGPT a rapidement été détourné par des cybercriminels après son lancement.