Dans le cadre d’une étude, plusieurs personnes ont pensé que des visages générés par l’IA étaient réels.
Les outils comme Dall-E ou Midjourney permettent aujourd’hui de générer des images réalistes à partir d’un simple prompt. Cela peut cependant être problématique, comme le souligne une étude publiée dans la revue Psychological Science lundi. Menée par des chercheurs des universités de Toronto, d’Aberdeen, d’Australie et de l’University College de Londres, elle révèle que les participants ont eu du mal à distinguer les visages de véritables humains de visages créés par l’intelligence artificielle (IA).
Une distinction quasi impossible
Pour cette étude, des images de visages blancs ont été montrées aux 124 participants devant déterminer si elles sont réelles ou si elles ont générées par un algorithme. Dans 66% des cas, ils ont qualifié de réel les visages créés par le système, contre 51% pour les images de véritables personnes. « Ce qui est préoccupant, c’est que les personnes qui pensaient le plus souvent que les visages artificiels étaient réels étaient paradoxalement les plus sûres que leurs jugements étaient corrects », a déclaré Elizabeth Miller, doctorante à l’Université nationale australienne et co-auteure de l’étude, dans un communiqué. « Cela signifie que les gens qui confondent les imposteurs artificiels avec de vraies personnes ne savent pas qu’ils sont trompés », a-t-elle expliqué.
Les chercheurs ont, eux, découvert comment l’IA parvenait à duper les participants : « Autrefois, il y avait souvent des incohérences entre les visages artificiels et humains, produisant ainsi l’effet de vallée de l’étrange », a indiqué Eva Krumhumber, co-auteure de l’étude, précisant que les yeux donnaient des indices aidant à déterminer si un visage est réel ou artificiel.
Des différences amenées à disparaître
Des différences physiques entre les visages générés par IA et les visages humains sont toujours présentes, comme leur proportion, mais les individus ont tendance à mal les interpréter, a précisé Amy Dawel, auteure principale de l’étude. « Nous ne pouvons pas nous fier longtemps à ces signaux physiques. La technologie de l’IA progresse si rapidement que les différences entre les visages artificiels et humains disparaîtront probablement bientôt », a-t-elle prévenu.
Une tendance qui pourrait avoir de graves conséquences sur la prolifération de la désinformation et du vol d’identité, estiment les chercheurs, indiquant que des mesures doivent être prises. « Étant donné que les humains ne peuvent plus détecter les visages artificiels, la société a besoin d’outils capables d’identifier avec précision les imposteurs artificiels », a déclaré Eva Krumhumber. Considérant que la sensibilisation du public peut jouer un rôle important dans la réduction des risques posés par l’IA, les chercheurs pensent aussi qu’une plus grande transparence autour de cette technologie est nécessaire « afin que les chercheurs et la société civile puissent identifier les problèmes avant qu’ils ne deviennent un problème majeur », comme l’a expliqué Amy Dawel.
Parmi ces problèmes figure d’ailleurs le fait que les algorithmes d’IA ont tendance à être entraînés de manière disproportionnée avec des visages de personnes blanches, ce qui les rend moins performants avec les visages de personnes de couleur. Dans le cadre de l’étude, « seulement » 51% des visages créés par l’IA et d’images de véritables personnes ont été jugés humains. « Si les visages artificiels de blancs sont systématiquement perçus comme plus réalistes, cette technologie pourrait avoir de graves implications pour les personnes racisées en renforçant à terme les préjugés raciaux en ligne », a ainsi averti la chercheuse.