Actu

ChatGPT : comment une faille de sécurité peut révéler votre adresse mail

28 décembre 2023
Par Kesso Diallo
Les chercheurs ont utilisé  un processus appelé « réglage fin ».
Les chercheurs ont utilisé un processus appelé « réglage fin ». ©Iryna Imago / Shutterstock

Des chercheurs de l’Université d’Indiana ont pu accéder aux adresses mail de plusieurs journalistes du New York Times avec le modèle GPT-3.5 Turbo.

Lorsque vous demandez des informations personnelles à ChatGPT, le robot conversationnel refuse. Cela fait partie des mesures mises en place par OpenAI et d’autres entreprises du secteur de l’intelligence artificielle (IA), comme Meta et Google, pour protéger la vie privée des internautes. Des chercheurs de l’Université d’Indiana sont cependant parvenus à contourner ces restrictions, comme l’a expliqué l’un d’entre eux, Rui Zhu, au New York Times.

Avec leur méthode, ils ont réussi à extraire de GPT-3.5 Turbo, l’une des dernières versions du modèle alimentant le chatbot, les adresses mail personnelles et professionnelles de plus de 30 journalistes du quotidien américain. 

Rafraîchissement de mémoire

Entraîné sur une énorme quantité de données disponibles sur Internet, dont des informations personnelles, ChatGPT s’appuie sur ces dernières pour répondre aux requêtes des internautes. Si le chatbot n’est pas censé se rappeler mot pour mot ces informations, les chercheurs sont parvenus à rafraîchir sa mémoire. En lui adressant des requêtes comprenant des noms et des adresses mail d’employés du New York Times, ils ont fait remonter des données similaires. Bien que le robot conversationnel a halluciné (inventé de fausses informations) dans certains cas, 80% des adresses mail professionnelles qu’il a générées étaient correctes.

Plus précisément, le processus qu’ils ont utilisé est appelé « réglage fin ». Permettant de donner plus de connaissances sur un domaine spécifique à un grand modèle de langage, cette technique peut aussi être employée pour déjouer certaines des défenses intégrées à l’outil. Dans le cas présent, le but était que ChatGPT accepte des demandes qu’il a pour habitude de refuser. « Il est très important pour nous que le réglage fin de nos modèles soit sécurisé », a déclaré un porte-parole d’OpenAI en réponse aux découvertes des chercheurs. « Nous entraînons nos modèles à rejeter les demandes d’informations privées ou sensibles sur les personnes, même si ces informations sont disponibles sur l’Internet ouvert ».

À noter que ce n’est pas la première fois qu’OpenAI rencontre un problème en termes de vie privée avec ChatGPT. En mars dernier, un bug a permis à des utilisateurs de voir les informations d’autres personnes, notamment leurs nom et prénom, ainsi que leurs adresses mail. La société est par ailleurs visée par une action en justice aux États-Unis, étant accusée d’avoir violé la vie privée de millions d’Américains en utilisant leurs données personnelles pour entraîner son chatbot sans leur consentement et sans compensation. Mercredi, le New York Times a également annoncé poursuivre en justice OpenAI et son partenaire, Microsoft, pour violation du droit d’auteur, accusant les deux entreprises d’avoir utilisé des millions de ses articles pour former leurs robots conversationnels. 

À partir de
18€
En stock
Acheter sur Fnac.com

À lire aussi

Article rédigé par
Kesso Diallo
Kesso Diallo
Journaliste