Le Bureau du commissaire à l’information vient d’émettre un avertissement aux entreprises technologiques concernant l’utilisation d’informations extraites d’Internet pour entraîner leurs robots conversationnels.
Les systèmes d’intelligence artificielle (IA) générative comme ChatGPT continuent d’inquiéter, notamment en ce qui concerne les données personnelles. Ces chatbots sont alimentés par de grands modèles de langage (LLM) entraînés avec une vaste mine d’informations extraites d’Internet. Alors que l’Italie a décidé de bloquer le robot conversationnel d’OpenAI pour non-respect de la législation sur les données personnelles, l’équivalent britannique de la Cnil vient de mettre en garde les entreprises concernant l’utilisation de ces informations pour former leurs systèmes.
Le Bureau du commissaire à l’information (ICO) a déclaré que ces sociétés doivent respecter la vie privée des personnes lors du développement de ces chatbots. « Il est important de prendre du recul et de réfléchir à la façon dont les données personnelles sont utilisées par une technologie qui a “un peu effrayé” son propre PDG », a expliqué Stephen Almond, directeur de la technologie et de l’innovation de l’ICO, dans un communiqué.
Des règles à respecter
Le directeur a indiqué que son propre échange avec ChatGPT avait récemment conduit le chabtot à dire que « l’IA générative, comme toute autre technologie, a le potentiel de présenter des risques pour la confidentialité des données si elle n’est pas utilisée de manière responsable ». « Mais, bien que la technologie soit nouvelle, les principes de la loi sur la protection des données restent les mêmes – et il existe une feuille de route claire pour que les entreprises innovent d’une manière qui respecte la vie privée des personnes », a fait savoir Stephen Almond.
Se référant au processus d’entraînement des LLM, le directeur a déclaré que la loi sur la protection des données s’applique toujours lorsque les informations personnelles traitées proviennent de sources accessibles au public. Elles sont ainsi tenues de respecter des règles comme avoir une base juridique appropriée (consentement, intérêts légitimes, etc.) pour le traitement de ces données ou encore chercher à atténuer les risques de sécurité que présentent leurs systèmes. « En tant que régulateur de la protection des données, nous poserons ces questions aux entreprises qui développent ou utilisent l’IA générative (…) Nous travaillerons dur pour nous assurer que les entreprises font les choses correctement », a assuré Stephen Almond.