Actu

Des deepfakes utilisés dans une vidéo de propagande chinoise

10 février 2023
Par Kesso Diallo
Les deepfakes ont été créés avec les outils d'une startup britannique permettant de réaliser des vidéos avec des avatars.
Les deepfakes ont été créés avec les outils d'une startup britannique permettant de réaliser des vidéos avec des avatars. ©Capture d'écran / Graphika

Un journal télévisé fictif avec des présentateurs créés à l’aide de l’intelligence artificielle a été mis en ligne afin de promouvoir les intérêts du Parti communiste chinois.

Dans une vidéo, un présentateur critique l’inaction des États-Unis face à la violence des armes ravageant le pays. Dans une autre, une présentatrice souligne l’importance de la coopération entre la Chine et les États-Unis pour la reprise de l’économie mondiale. Ils travaillent pour un journal télévisé appelé Wolf News. Si ces personnes semblent réelles, elles sont loin de l’être. Le média en question n’existe pas et les présentateurs ont été générés par l’intelligence artificielle (IA), révèle le cabinet américain Graphika dans une étude.

Ces personnages ont fait leur apparition sur les réseaux sociaux fin 2022 pour promouvoir les intérêts du Parti communiste chinois. Ils ont été créés à l’aide d’une technique d’IA : le deepfake (hypertrucage), qui permet de remplacer un visage par celui d’un autre ou de falsifier les propos d’une personnalité avec réalisme dans une vidéo. « C’est la première fois que nous voyons une opération de soutien à un État avoir recours à une vidéo issue de l’intelligence artificielle mettant en scène des personnes fictives pour créer un contenu politique trompeur », a déclaré Jack Stubbs, vice-président de Graphika, à l’AFP.

Une entreprise créatrice de deepfakes malgré elle

Ces deux vidéos ont été diffusées dans le cadre d’une campagne de propagande pro-Pékin baptisée « Spamouflage » par Graphika, exposée à plusieurs reprises depuis 2019. Comprenant une compilation d’images archivées et de séquences d’actualités provenant de sources en ligne, elles sont aussi accompagnées de voix off robotiques en anglais. Concernant les présentateurs, le cabinet indique qu’ils ont été générés avec une technologie de Synthesia, une startup britannique permettant de créer sa propre vidéo avec l’avatar et le texte de son choix. Graphika précise d’ailleurs que les scripts en anglais dans les deux contenus sont parsemés d’erreurs grammaticales.

Les deux présentateurs apparaissent sur le site de la jeune pousse, sous les noms de « Anna » et « Jason ». L’utilisation des outils de Synthesia pour la création de ces vidéos surprend car la startup indique sur son site que « tout le contenu passera par un processus de filtrage interne explicite avant d’être remis à nos clients de confiance », mais aussi que « le contenu politique, sexuel, personnel, criminel et discriminatoire n’est pas toléré ou approuvé ».

Ce n’est pourtant pas la première fois que ses outils sont utilisés pour créer des deepfakes. Ils ont récemment permis de créer des vidéos dans lesquelles des personnes appellent à soutenir la junte militaire au pouvoir au Burkina Faso. Auprès de TF1, Victor Riparbelli, PDG et fondateur de Synthesia a déclaré que l’utilisateur à l’origine de ces contenus avait été identifié et banni. « Des cas comme celui-ci soulignent à quel point la modération est difficile », a-t-il expliqué. « Aucun système ne sera jamais parfait, mais pour éviter que des situations similaires ne se reproduisent à l’avenir, nous poursuivrons notre travail d’amélioration des systèmes », a également assuré le PDG.

À noter que ces révélations surviennent quelques semaines après l’entrée en vigueur d’une nouvelle réglementation en Chine afin d’encadrer les deepfakes. Elle oblige les entreprises proposant ce type de services à obtenir l’identité réelle de leurs utilisateurs et impose l’apposition d’une mention sur les deepfakes pour éviter « toute confusion » pour le public.

À lire aussi

Article rédigé par
Kesso Diallo
Kesso Diallo
Journaliste
Pour aller plus loin