L’entreprise a mis à jour ses règles de confidentialité, indiquant qu’elle peut utiliser des données accessibles au public afin d’entraîner ses modèles de langage, mais aussi pour créer des produits et fonctionnalités d’IA.
Les robots conversationnels comme ChatGPT ou Bard de Google peuvent impressionner par leurs capacités, étant notamment capables de répondre à nos demandes en langage courant. Ces chatbots nécessitent pourtant d’importantes quantités de données pour y parvenir. Les entreprises à l’origine de leur développement utilisent ainsi nos données afin de les entraîner. Google le précise désormais dans ses règles de confidentialité.
La société californienne a mis à jour sa politique ce week-end pour indiquer qu’elle peut les exploiter dans cet objectif. « Nous pouvons collecter des informations accessibles au public en ligne ou provenant d’autres sources publiques pour entraîner les modèles de langage d’IA de Google et créer des produits et des fonctionnalités telles que Google Traduction, Bard et les capacités de Cloud AI », indiquent désormais les règles de confidentialité de la firme.
Inquiétudes autour des données utilisées par les entreprises d’IA
En mettant à jour sa politique, Google indique clairement aux internautes que tout ce qu’ils publient en ligne pourrait être utilisé pour entraîner son chatbot et d’autres produits d’IA générative. Ce changement intervient dans un contexte d’inquiétudes quant à l’utilisation des informations publiées en ligne par les entreprises d’intelligence artificielle (IA) pour entraîner leurs modèles. La semaine dernière, un recours collectif a été déposé contre OpenAI, accusant le créateur de ChatGPT d’avoir collecté « des quantités massives de données personnelles » d’Américains pour entraîner son robot conversationnel sans leur consentement et sans les compenser pour l’utilisation de ces dernières.
Ce week-end, Twitter a aussi imposé des restrictions temporaires concernant le nombre de tweets visibles par jour pour contenir l’utilisation massive de données du réseau social par les entreprises d’IA. La société a d’ailleurs apporté davantage d’explications à propos de ce changement dans un article de blog publié mardi. « Pour garantir l’authenticité, nous devons prendre des mesures extrêmes pour supprimer les spams et les bots de notre plateforme. C’est pourquoi nous avons temporairement limité l’utilisation afin de pouvoir détecter et éliminer les bots et autres acteurs malveillants qui nuisent à la plateforme », a-t-elle indiqué. Twitter a également expliqué qu’il n’était pas possible de prévenir les utilisateurs car cela « aurait permis aux acteurs malveillants de changer leur comportement pour échapper à la détection ».