Identifiant déjà les images générées par son propre outil, le géant américain souhaite en faire de même avec ceux d’autres entreprises.
Les utilisateurs des réseaux sociaux de Meta pourront bientôt savoir lorsqu’une image a été générée par l’intelligence artificielle (IA). L’entreprise californienne a annoncé mardi qu’elle identifiera ce type de contenus « dans les prochains mois ». « Nous étiquetterons les images que les utilisateurs publient sur Facebook, Instagram et Threads lorsque nous pourrons détecter des indicateurs conformes aux normes de l’industrie indiquant qu’elles sont générées par l’IA », a déclaré Nick Clegg, responsable des affaires internationales de la firme, dans un article de blog.
Meta applique déjà cette mesure pour les images créées avec son outil, Meta AI, et la société souhaite en faire de même avec les contenus générés par les systèmes d’autres entreprises, comme Google, OpenAI, Microsoft ou encore Midjourney. « Nous développons cette capacité dès maintenant, et dans les prochains mois, nous commencerons à appliquer des étiquettes dans toutes les langues prises en charge par chaque application », a précisé Nick Clegg.
Lutter contre la désinformation
L’annonce de Meta intervient alors que les progrès de l’IA font craindre que ces outils soient utilisés pour générer de fausses informations et d’autres contenus préjudiciables lors de cette année électorale record. Début janvier, OpenAI, le créateur de ChatGPT, a aussi annoncé son plan de lutte contre la désinformation, pour éviter que ses outils ne soient utilisés pour « porter atteinte » au processus démocratique.
Meta reconnaît tout de même que cet étiquetage « n’éliminera pas » totalement le risque de production de deepfakes. « Ce n’est pas parfait, la technologie n’est pas encore tout à fait au point, mais c’est la tentative la plus avancée de toutes les plateformes jusqu’à présent pour fournir une transparence significative à des milliards de personnes dans le monde », a assuré Nick Clegg auprès de l’AFP.
Identifier les contenus audio et vidéo
Meta ne prévoit pas de s’arrêter aux images générées par l’IA. Le groupe californien va aussi s’attaquer aux contenus audio et vidéo. « Alors que les entreprises commencent à inclure des signaux dans leurs générateurs d’images, elles n’ont pas encore commencé à les inclure dans les outils d’IA qui génèrent de l’audio et de la vidéo à la même échelle. Nous ne pouvons donc pas encore détecter ces signaux et étiqueter ces contenus provenant d’autres entreprises », a indiqué le responsable des affaires internationales de la société.
Alors que l’industrie travaille à cette capacité, Meta va obliger ses utilisateurs à divulguer lorsqu’ils partagent un tel contenu généré par l’IA sur ses plateformes afin d’y ajouter une étiquette par le biais d’un nouvel outil. « Nous pourrons leur appliquer des sanctions s’ils ne le font pas », a fait savoir Nick Clegg. La firme pourra également ajouter « une étiquette plus visible » sur une image, une vidéo ou un contenu audio créé ou modifié à l’aide de l’IA si elle détermine qu’il « crée un risque particulièrement élevé de tromper matériellement le public sur une question importante », a en outre expliqué son responsable des affaires internationales. Elle entend ainsi fournir plus d’informations et de contexte aux utilisateurs.