Actu

Recrutement : la Cnil britannique va enquêter pour savoir si les systèmes d’IA peuvent être racistes

15 juillet 2022
Par Kesso Diallo
Les systèmes d'IA peuvent porter préjudice à certains groupes de personnes.
Les systèmes d'IA peuvent porter préjudice à certains groupes de personnes. ©ProStockStudio / Shutterstock

Le Bureau du Commissaire à l’information s’inquiète de la potentielle présence de préjugés raciaux dans ces systèmes lorsqu’ils traitent des candidatures.

L’intelligence artificielle (IA) fait partie du processus de recrutement depuis plusieurs années. L’usage de cette technologie est pratique pour les recruteurs car elle leur permet, entre autres, de gagner du temps avec le tri des CV. Cependant, si elle est plus rapide que les humains, elle peut aussi se montrer discriminante. C’est la raison pour laquelle le Bureau du Commissaire à l’information (ICO) – équivalent britannique de la Cnil – a décidé de mener une enquête.

« Nous enquêterons sur les préoccupations concernant l’utilisation d’algorithmes pour filtrer les candidatures de recrutement, ce qui pourrait avoir un impact négatif sur les opportunités d’emploi de personnes issues de divers horizons », a expliqué l’organisme britannique au Guardian. Ce projet a été annoncé dans le cadre du plan triennal de l’ICO sous la direction du nouveau commissaire à l’Information John Edwards. Lors de son discours le 14 juillet, il a précisé que ces outils d’IA sont susceptibles d’avoir un impact sur des groupes d’individus n’ayant pas participé à leur développement, mentionnant les personnes neurodiverses et celles issues de minorités ethniques.

Un problème lié à l’entraînement des systèmes

Il est en effet nécessaire que ces personnes soient incluses dans les tests de ces logiciels afin d’éviter les risques de biais et de discrimination. Pour l’ICO, cela pourrait avoir « des conséquences néfastes pour la vie des gens » et conduire au rejet d’un individu pour un emploi ou encore à ce qu’il se voit refuser à tort un prêt bancaire. L’organisme britannique avait déjà averti, en 2019, que les systèmes d’IA pouvaient produire des résultats préjudiciables pour certains groupes n’étant pas représentés de manière équitable dans les données utilisées pour les entraîner et les tester.

Le recrutement n’est pas le seul domaine où l’utilisation de l’intelligence artificielle est une source d’inquiétude par rapport aux risques de biais. C’est aussi le cas avec la reconnaissance faciale, technologie qui fait l’objet de controverses pour les erreurs d’identification de certaines personnes. Elle est en effet connue pour porter préjudice aux femmes, aux minorités ethniques ou encore aux personnes LGBTQIA+. Des chercheurs ont par ailleurs récemment montré que ces biais racistes et sexistes sont aussi présents chez les robots, avec une machine qu’ils ont formée à l’aide d’un modèle d’IA ayant reproduit plusieurs stéréotypes.

À lire aussi

Article rédigé par
Kesso Diallo
Kesso Diallo
Journaliste
Pour aller plus loin