Actu

Intel dévoile une technologie capable de détecter les deepfakes

16 novembre 2022
Par Benjamin Logerot
L'outil d'Intel utilise l'intelligence artificielle pour détecter les deepfake sur le web.
L'outil d'Intel utilise l'intelligence artificielle pour détecter les deepfake sur le web. ©Intel

Intel a annoncé le premier détecteur de deepfake se basant non pas sur des données brutes mais sur les particularités physiques qui font de nous des êtres humains.

Appelé FakeCatcher, l’outil créé par le géant américain Intel veut permettre d’entrer dans une nouvelle ère du combat contre les deepfakes utilisés avec de mauvaises intentions. Celui-ci, se voulant accessible à toutes et tous, vient bouleverser la lutte contre les deepfakes mais apporte aussi des interrogations.

96 % de précision

« Les vidéos deepfake sont de partout maintenant. Vous en avez probablement déjà vu ; des vidéos de célébrités faisant ou disant des choses qu’elles n’ont jamais faites. » Derrière ces mots de Ilke Demir, scientifique et cheffe de l’équipe de chercheurs chez Intel Labs, on peut se souvenir de la fausse capitulation du président ukrainien Volodomyr Zelensky par exemple. Dans le cadre de son programme Responsible AI, Intel a développé un grand outil appelé FaekCatcher pour aider à détecter les deepfakes qui pullulent désormais sur internet.

L’outil analyse en temps réel une vidéo non pas en regardant ses données brutes, mais en s’appuyant sur des détails physiques. Comme dit la chercheuse dans la vidéo d’Intel, ces détails qui font de nous des êtes humains. L’outil vient alors repérer les fluctuations de couleur dans les veines du visage, à mesure que le cœur bat, ou bien l’éclat des yeux sur les pixels d’une vidéo. La technologie est bâtie sur de nombreuses couches logicielles et hardware pour fonctionner sur une plateforme web. FakeCatcher s’appuie sur les processeurs évolutifs Xeon de 3e génération ce qui lui permet de faire tourner jusqu’à 72 analyses simultanément, dont la détection est précise à 96 % selon la marque.

Une machine à nourrir les deepfake ?

Depuis leur apparition il y a quelques année, les vidéo deepfake se sont multipliées sur le web. Que ce soit pour faire apparaitre une célébrité dans un programme vidéo ou pour s’amuser, leur utilisation n’en a pas moins été rapidement détournée pour créer des contenus considérés comme dangereux.

S’ils touchent, auprès du grand public, des problèmes de désinformation, les deepfakes n’en sont pas moins ravageurs sur un autre registre évident : la pornographie. Déjà en 2019, la société de cybersécurité Deeptrace rapportait que 96 % des vidéos deepfake sur le web avaient été créées pour un usage pornographique, mettant des visages de célébrités sur des vidéos sans leur consentement.

Des vidéos qui atteignent directement la dignité des personnes visées, bien souvent des femmes. Le combat contre les deepfakes est noble mais des utilisateurs se posent la question suite à l’annonce d’Intel. Rendre leur outil accessible à tous, ne serait-ce pas aussi donner un moyen pour les créateurs de deepfakes de renforcer leurs outils ? Sur cette question, Intel devra probablement montrer ses solutions lors d’une séance de questions réponses sur Twitter le 16 novembre à 20h30 heure locale.

À lire aussi

Article rédigé par