Le Bureau du Commissaire à l’information souhaite que les entreprises évaluent les risques liés à l’utilisation de ces systèmes avant de les mettre en œuvre.
L’équivalent britannique de la Cnil s’inquiète du développement des technologies d’analyse émotionnelle. Tentant de déduire des informations sur l’état mental des individus à l’aide de données comme le suivi du regard, les expressions faciales et l’humidité de la peau, ces systèmes présentent plusieurs risques. Raison pour laquelle le Bureau du Commissaire à l’information (ICO) a averti les entreprises investissant dans ce domaine.
Comme d’autres, l’organisme estime que ces technologies basées sur la pseudoscience sont dangereuses. Les algorithmes n’étant pas suffisamment développés, ils ne sont pas capables de détecter les signaux émotionnels. « Nous craignons qu’une analyse incorrecte des données puisse entraîner des hypothèses et des jugements sur une personne qui sont inexacts et mènent à la discrimination », explique Stephen Bonner, commissaire adjoint de l’ICO, dans un communiqué. « Les seuls déploiements biométriques durables seront ceux qui sont entièrement fonctionnels, responsables et soutenus par la science », a-t-il ajouté.
Éviter les préjudices
Le commissaire reconnaît que les technologies d’analyse émotionnelle présentent des opportunités, mais il considère que les risques sont actuellement plus grands. Pour Stephen Bonner, ces systèmes peuvent être utilisés pour des « cas légers », lors d’une fête d’Halloween, par exemple, pour mesurer qui a le plus peur. Ils sont cependant susceptibles de porter préjudice aux personnes lorsqu’ils sont employés dans l’objectif de prendre des décisions importantes, « pour identifier si les individus pourraient être des fraudeurs ou si les candidats à un emploi sont dignes d’obtenir ce poste », a cité le commissaire adjoint comme exemples au Guardian.
L’ICO ne se contente pas de mettre en garde les entreprises sur l’analyse émotionnelle par l’intelligence artificielle. L’organisme prépare actuellement des lignes directrices sur l’utilisation de ces systèmes et plus largement, des technologies biométriques (reconnaissance faciale, vocale et des empreintes digitales). Visant à responsabiliser et à aider les entreprises, elles devraient être publiées au printemps 2023. Elles souligneront également l’importance de la sécurité des données vu que celles de nature biométrique « sont uniques à un individu et sont difficiles à modifier en cas de perte, de vol ou d’utilisation inappropriée ».