Actu

Google met en garde ses employés contre les chatbots

20 juin 2023
Par Kesso Diallo
Cette prudence de la part de Google reflète ce qui devient une norme de sécurité pour les entreprises.
Cette prudence de la part de Google reflète ce qui devient une norme de sécurité pour les entreprises. ©Emre Akkoyun / Shutterstock

Alphabet, la maison mère de l’entreprise, a recommandé à ses salariés de ne pas entrer des informations confidentielles dans ces systèmes, y compris son propre chatbot, Bard.

Déployant des outils d’intelligence artificielle (IA) générative, Google est conscient des dangers potentiels de cette technologie. Alors que la firme a récemment déployé son chatbot, Bard, dans 180 pays, elle a incité ses propres employés à la prudence. Comme le rapporte Reuters, sa maison mère, Alphabet, a mis en garde ses salariés sur la manière d’utiliser les robots conversationnels, y compris le sien. 

Plus précisément, la société leur a recommandé de ne pas entrer des informations confidentielles dans ces systèmes lors de leurs échanges. Cela, car leurs conversations peuvent être examinées par des humains et que le partage de ces informations créé un risque de fuites.  

Éviter les fuites de secrets industriels

Cette prudence de la part de Google reflète ce qui devient une norme de sécurité pour les entreprises : avertir le personnel quant à l’utilisation des chatbots accessibles au public. L’utilisation de ces systèmes par des salariés fait en effet craindre la fuite de secrets industriels. Raison pour laquelle plusieurs sociétés ont mis en place des garde-fous, dont Samsung. Le fabricant sud-coréen a interdit à une partie de ses employés d’utiliser des outils d’IA générative après avoir noté des « cas d’utilisation abusive » de cette technologie. Après avoir découvert que des salariés utilisant ChatGPT avaient téléchargé du code sensible sur la plateforme, la société craignait que les données transmises à ces systèmes soient stockées sur des serveurs externes et pourraient finir par être divulguées à d’autres utilisateurs. 

Alphabet a également conseillé à ses ingénieurs de ne pas utiliser directement le code informatique généré par les robots conversationnels. Si la société estime que Bard peut aider les développeurs, elle reconnaît que son chatbot n’est pas parfait, pouvant commettre des erreurs dans ses suggestions. « Bard peut vous fournir un code de travail qui ne produit pas le résultat attendu, ou vous fournir un code qui n’est pas optimal ou incomplet », avait prévenu Google en avril, lorsque la firme a déployé des fonctionnalités de codage. Les développeurs sont ainsi invités à toujours vérifier le code généré par Bard avant de s’y fier. 

À lire aussi

Article rédigé par
Kesso Diallo
Kesso Diallo
Journaliste