Actu

Zoom appelée à arrêter le développement d’une IA capable d’analyser les émotions

12 mai 2022
Par Kesso Diallo
Une technologie controversée.
Une technologie controversée. ©DANIEL CONSTANTE / Shutterstock

Près de trente organisations de défense des droits humains et numériques ont envoyé une lettre au PDG de la firme pour lui demander de mettre fin à ces projets.

En avril, le site Protocol a révélé que Zoom cherchait à intégrer une intelligence artificielle (IA) dans son logiciel de réunion virtuelle afin de détecter et analyser les émotions des utilisateurs. Ces projets font l’objet de critiques de la part d’organisations de défense des droits humains et numériques. Le 11 mai, l’association Fight for the Future et 27 autres ont envoyé une lettre à Eric S. Yuan, le PDG de la société, dans laquelle ils lui demandent d’y mettre fin. « Cette décision d’extraire des utilisateurs des points de données émotionnelles basée sur la fausse idée que l’IA peut repérer et analyser les émotions humaines est une violation de la vie privée et des droits de l’homme », expliquent-ils.

Les organisations estiment que cette technologie ne doit pas être développée car elle est basée sur la pseudoscience. Autrement dit, l’analyse des émotions par l’IA ne fonctionne pas. Non seulement les expressions faciales peuvent varier de manière considérable, mais elles sont aussi souvent déconnectées des émotions sous-jacentes. Il arrive même que les humains ne soient pas capables de lire celles des autres avec précision.

L’IA émotionnelle, une technologie dangereuse

Une telle technologie serait également dangereuse car discriminatoire et punitive. « Si Zoom avance avec ces projets, cette fonctionnalité discriminera les personnes de certaines ethnies et les personnes handicapées, en codant en dur les stéréotypes dans des millions d’appareils (…) Cette technologie pourrait avoir des utilisations beaucoup plus sinistres et punitives. Il n’est pas difficile d’imaginer que les employeurs et les établissements universitaires utilisent l’analyse des émotions pour discipliner les travailleurs et les étudiants perçus comme « exprimant les mauvaises émotions » sur la base d’une IA défectueuse », a déclaré Caitlin Seeley George, directrice de campagne et des opérations chez Fight for The Future.

Les organisations considèrent aussi que cette IA émotionnelle constitue un risque pour la sécurité des données, avec les entités déployant ce type de technologies qui seraient la cible d’autorités gouvernementales et de pirates malveillants. Espérant que leur lettre fera pression sur Zoom pour que la société abandonne ses projets, ils ont demandé au PDG de répondre publiquement à leur demande et de s’engager « à ne pas mettre en œuvre l’IA émotionnelle » d’ici le 20 mai prochain.

À lire aussi

Article rédigé par
Kesso Diallo
Kesso Diallo
Journaliste