Le géant américain va limiter l’utilisation de son outil de reconnaissance faciale et cesser de proposer ceux déduisant les attributs d’identité et l’état émotionnel d’une personne.
Microsoft revoit son approche de la reconnaissance faciale pour respecter ses normes éthiques concernant l’intelligence artificielle (IA). Le 21 juin, l’entreprise a annoncé son Responsible AI Standard, un manuel interne qui guide le développement et le déploiement de ses produits d’IA. « Il s’agit d’une étape importante vers le développement d’une IA meilleure et plus fiable », a déclaré Natasha Crampton, responsable IA de Microsoft. C’est dans ce cadre que la société a annoncé limiter l’accès à certaines fonctionnalités de son service de reconnaissance faciale Azure Face. Les nouveaux clients doivent désormais demander l’accès afin de l’utiliser pour l’identification faciale par exemple.
Les clients existants disposent, eux, d’un délai d’un an pour poser une candidature et recevoir l’approbation d’un accès continu en fonction des cas d’utilisation fournis. Ils ne pourront plus accéder à ces fonctionnalités de reconnaissance faciale à partir du 30 juin 2023 si leur candidature n’est pas approuvée. Microsoft a cependant précisé que les capacités de détection faciale comme le flou, les lunettes ou encore la zone de délimitation du visage resteront disponibles et ne nécessiteront pas de demande d’accès.
Un retrait justifié
Afin d’aligner Azure Face aux exigences du Responsible AI Standard, Microsoft va également supprimer les fonctionnalités déduisant les états émotionnels et les attributs d’identité, comme l’âge, le sexe, le sourire, la pilosité faciale, les cheveux et le maquillage. « Nous avons collaboré avec des chercheurs internes et externes pour comprendre les limites et les avantages potentiels de cette technologie (…) Dans les cas de la classification des émotions en particulier, ces efforts ont soulevé d’importantes questions sur la confidentialité, l’absence de consensus sur une définition des « émotions » et l’incapacité de généraliser le lien entre l’expression faciale et l’état émotionnel dans les cas d’utilisation, les régions et la démographie », a expliqué Sarah Bird, chef de produit principal de l’unité Azure AI de Microsoft.
L’entreprise a ainsi décidé de ne pas fournir un accès ouvert aux interfaces de programmation d’application pour la technologie capable de scanner les visages des individus et de prétendre déduire leurs états émotionnels en fonction de leurs expressions faciales ou de leurs mouvements. Elle indique aussi que les fonctionnalités déduisant des attributs sensibles peuvent être utilisées à mauvais escient, en soumettant les gens à des stéréotypes ou à la discrimination par exemple. La détection de ces attributs et émotions n’est déjà plus disponible pour les nouveaux clients et les usagers existants ont jusqu’au 30 juin 2023 pour cesser de l’utiliser avant son retrait.
D’un autre côté, Microsoft considère que ces fonctionnalités peuvent être utiles à des fins d’accessibilité. Ainsi, bien que l’entreprise retire l’accès public à ces dernières, elle va continuer à les intégrer dans des applications telles que Seeing AI, qui décrit le monde aux personnes atteintes d’une déficience visuelle à l’aide de l’intelligence artificielle.
Une limite pour sa technologie vocale
Le géant américain a également restreint l’accès à la fonctionnalité Custom Neural Voice, qui permet de créer une voix synthétique en se basant sur des enregistrements de personnes réelles. Reconnaissant le potentiel de cette technologie dans plusieurs domaines tels que l’éducation, l’accessibilité et le divertissement, il s’inquiète aussi des risques qu’elle soit utilisée de manière inappropriée pour tromper des personnes. Elle est en effet susceptible d’être utilisée par des personnes malveillantes. Le clonage vocal, soit la reproduction d’une voix à l’aide d’IA, a déjà permis à des escrocs de détourner 35 millions de dollars en dupant un directeur banquier en 2020.
En plus de la restriction d’accès, Microsoft a indiqué s’être assuré que les cas d’utilisation acceptables étaient définis et communiqués de façon proactive, notamment à travers un code de conduite. La société a par ailleurs établi des garde-fous pour garantir la participation active de la personne concernée lors de la création d’une voix synthétique. « Grâce à ces contrôles et à d’autres, nous avons aidé à protéger contre les abus, tout en maintenant les utilisations bénéfiques de la technologie », a déclaré Natasha Crampton.