Article

Après les vraies fausses vies sur les réseaux sociaux, place aux vies truquées grâce à l’IA ?

31 décembre 2022
Par Kesso Diallo
La IA génératrices d'images permettent déjà de se créer une fausse vie sur les réseaux sociaux.
La IA génératrices d'images permettent déjà de se créer une fausse vie sur les réseaux sociaux. ©StunningArt/Shutterstock

DALL-E, Stable Diffusion… les intelligences artificielles capables de générer des images sont exploitées de façon ludique par de nombreuses personnes. Utiles pour créer de faux contenus, elles pourraient aussi devenir problématiques, notamment pour la santé mentale.

Les réseaux sociaux permettent aux utilisateurs, notamment les influenceurs, influenceuses et célébrités, de montrer une fausse version de leur vie, ou du moins une version retravaillée, retouchée, « glamourisée ». Ils et elles peuvent s’y afficher sous leur plus beau jour, faisant ainsi des envieux, ou se montrer en larmes afin d’attirer l’attention – une tendance connue sous le nom de sadfishing. Si ces plateformes inquiètent déjà vis-à-vis de la santé mentale des utilisateurs, en particulier des jeunes, un autre moyen peut être utilisé pour se créer une « fausse vie » sur Internet : l’intelligence artificielle (IA). Cela s’accompagne aussi d’effets sur la santé, et pas seulement du côté des personnes exposées à ces publications générées par l’IA.

Entre fausses images et fausse vie créées par l’IA

Depuis quelques mois, l’intelligence artificielle fait souvent parler d’elle avec des systèmes capables de générer des images à partir d’une description textuelle. DALL-E, Midjourney, Stable Diffusion… Plusieurs IA de ce type existent et sont accessibles au public, et certaines permettent même de modifier les visages. Elles sont aussi utilisées par des applications pour transformer les photos des individus. Lensa et Photo AI se servent toutes les deux de Stable Diffusion pour cela. Avec la première, il est entre autres possible d’appliquer des filtres et des effets spéciaux aux photos, mais aussi de les transformer en avatars artistiques. La seconde permet, elle, d’obtenir des images adaptées aux critères des plateformes comme LinkedIn ou Tinder et même de générer des photos de soi apparaissant aux côtés de célébrités ou dans des films.

S’il est déjà possible de présenter une fausse image de soi avec ces applications, un Américain est allé plus loin avec Stable Diffusion. Producteur, Kyle Vorbach a en effet trompé son entourage pendant un mois en générant de fausses photos grâce à cette IA et en les publiant sur ses réseaux sociaux. « Vous savez comment les gens sur les réseaux sociaux créent ces personnages pour avoir l’air heureux ou cool ou autre ? Toutes mes publications ces derniers temps, ce n’est pas le vrai moi (…) ce n’est même pas une photo. La vérité est que chaque photo que j’ai publiée au cours du mois dernier a été générée par l’IA », révèle-t-il à son entourage dans une vidéo publiée récemment et dans laquelle il explique comment il a procédé.

Tout a commencé en octobre, alors qu’il souhaitait avoir une nouvelle photo de profil. Pour l’obtenir, il a utilisé des images de lui et a associé sa requête à l’acteur Ryan Gosling, l’IA produisant apparemment de meilleurs résultats en incluant une célébrité à laquelle on ressemble dans le processus. Cela lui a permis d’avoir l’une de ses meilleures photos et ce, sans qu’il ait à quitter sa chambre. À partir de là, il a posté d’autres fausses images, faisant notamment croire qu’il s’était rendu à New York et y avait croisé un ami. Il est ensuite allé plus loin en générant une fausse vie où il réemménage à Los Angeles, habite dans un bel appartement et où sa carrière décolle enfin. Et tout son entourage y a cru.

Gare à la santé mentale

Ces IA et applications permettent à leurs utilisateurs de créer une fausse image d’eux-mêmes ou de s’inventer une fausse vie, mais elles sont aussi problématiques. Pour commencer, elles modifient le physique – des utilisatrices notamment – en générant des images correspondant à des idéaux de beauté ou en les sexualisant. Avec Lensa par exemple, des femmes ont vu leur double menton disparaître, leur taille être affinée et leur poitrine gonflée. Des femmes de couleur ont également affirmé que leur teint avait été blanchi par l’application. Lensa a aussi tendance à déshabiller les utilisatrices, notamment les Asiatiques. Cela, alors que les réseaux sociaux poussent déjà les individus, en particulier les jeunes, à comparer leur physique à ceux des autres en les surexposant à des corps et des vies apparemment idéales, nuisant ainsi à leur santé mentale.

Ces IA et applications génératrices de fausses images peuvent par ailleurs affecter la santé mentale de leurs utilisateurs, comme l’explique le producteur américain dans sa vidéo. « Quand j’ai commencé ce projet, c’était pour le plaisir, mais c’est beaucoup de travail : passer au crible des milliers d’images toute la journée et toute la nuit à fixer l’idée qu’une machine se fait de votre visage jusqu’à ce que vous ne sachiez même plus à quoi vous ressemblez », fait savoir Kyle Vorbach.

Comme de nombreux utilisateurs des réseaux sociaux, il a aussi été victime de l’effet psychologique des likes, qui nous rendent accros à cette sensation de bonheur ou de plaisir que l’on ressent quand on en obtient. « Chaque fois que j’obtenais un “j’aime” sur une photo, je sentais ces endorphines comme si c’était moi, comme si quelqu’un que je connais aimait une photo de moi », explique-t-il, ajoutant qu’il ne savait plus où s’arrêtait le vrai lui et où commençait son faux personnage. Alors que ces IA capables de générer des images sont notamment utilisées de façon ludique, il y a de quoi s’inquiéter.

À lire aussi

Article rédigé par
Kesso Diallo
Kesso Diallo
Journaliste