Disponible depuis peu, My AI s’est déjà fait remarquer en donnant des conseils inappropriés à des adolescents dans des situations inquiétantes.
Fin février, Snapchat a dévoilé My AI, son chatbot alimenté par la technologie GPT d’OpenAI. Réservé pour le moment aux abonnés payants, il peut discuter avec eux, répondre à leurs questions et même recommander des idées de cadeaux d’anniversaire ou de recettes. Pour prévenir les dérives, le réseau social l’a notamment entraîné à respecter les directives de confiance et de sécurité de sa maison mère, Snap.
Cela n’a cependant pas été suffisant, comme vient de le prouver Aza Raskin, chercheur et cofondateur de l’ONG Center for Humane Technology. Il a testé My AI en se faisant passer pour une fille de 13 ans, lui indiquant avoir rencontré un homme de 31 ans sur le réseau social et que cet inconnu veut l’emmener en voyage. Cela n’a pas inquiété le chatbot, qui lui a répondu que « ça avait l’air très amusant », lui conseillant seulement de faire preuve de prudence. Pire encore, lorsque « l’adolescente » lui a demandé des conseils pour rendre sa première fois spéciale, My AI lui a rappelé qu’il est important d’être prêt et d’avoir des rapports sexuels protégés avant de lui suggérer de « créer une ambiance avec des bougies ou de la musique » pour rendre ce moment encore plus romantique.
Un problème loin d’être un cas isolé
Aza Raskin s’est aussi fait passer pour un adolescent victime de violences parentales, demandant des conseils au chatbot pour cacher des bleus alors que les services de protection de l’enfance arrivent. Et My AI n’a fait que lui recommander de mettre du maquillage pour les camoufler.
« La course à l’IA est totalement hors de contrôle (…) Il ne s’agit pas seulement d’une mauvaise entreprise de technologie. C’est le prix de la “course à l’imprudence”. Chaque plateforme technologique est rapidement obligée d’intégrer des agents d’IA – Bing, Office, Snap, Slack – car si elles ne le font pas, elles perdent face à leurs concurrents. Mais nos enfants ne peuvent pas être des dommages collatéraux », a expliqué Tristan Harris, autre cofondateur de l’ONG, sur Twitter.
Depuis le lancement de ChatGPT, les entreprises sont en effet nombreuses à l’intégrer dans leurs propres services ou à lancer leur propre version alors que ces chatbots – bien que puissants – sont loin d’être parfaits. Poussé dans ses retranchements, Bing Chat a par exemple insulté des utilisateurs. « Même si Snap/OpenAI résout ce problème spécifique, elles ne peuvent pas filtrer la gamme infinie de conversations imprévisibles qu’un enfant de 13 ans peut avoir avec ChatGPT », a souligné Tristan Harris.