Récits horrifiques narrés à la chaîne, chiens et chats qui font des dingueries, tutoriels bricolés au prompt… Sur YouTube, les vidéos générées par intelligence artificielle prolifèrent et atteignent parfois des millions de vues. Mais on peut apprendre à les repérer.
On a longtemps imaginé l’intelligence artificielle comme un outil « d’assistance » pour les créateurs. En 2025, elle ressemble aussi à une chaîne de montage, même depuis un smartphone. Des milliers de vidéos hyper-réalistes mettent en scène des visages, des voix ou des situations totalement manipulés ou entièrement créés pour imiter des personnes existantes, rendant la distinction avec la réalité quasi impossible.
Sans toujours nous en rendre compte, loin de là, nous faisons actuellement face à un raz-de-marée de vidéos produites à vitesse industrielle. Elles n’ont pour but que d’exploiter la nouveauté et la capacité des algorithmes à produire en masse pour capter l’attention afin de générer de l’engagement (et des revenus publicitaires). Il existe quelques styles particulièrement exploités par l’IA, et même des styles assez niches devenus populaires en quelques mois.
Horrorcore et faux documentaires fleurissent sur YouTube
C’est un phénomène à lui tout seul, le « horrorcore » ou récits horrifiques bien souvent totalement inventés – mais la plupart du temps présentés comme véridiques – qui n’ont d’autre but que de vous divertir en vous faisant peur depuis le fond de votre canapé ou de votre lit. Des chaînes entières se sont spécialisées dans des récits d’horreur psychologiques ou macabres, qui flirtent parfois avec le paranormal. Dans ces « creepy stories », les voix synthétiques, souvent glaciales, racontent des histoires illustrées par des images cauchemardesques (et souvent troublantes) produites par des modèles comme Midjourney ou DALL-E. L’ambiance, unique et généralement malsaine, garantit des millions de vues.

Si la chaîne Mr. Nightmare (en anglais) compte près de 7 millions de followers et que certaines de ses vidéos frôlent les 30 millions de vues, elle semble faire un travail « authentique » (ce qui ne l’empêche peut-être pas d’intégrer de l’IA dans son processus de création). En revanche, d’autres surfent sur le phénomène, sans vraiment se cacher. La difficulté est que ces comptes s’ouvrent et se ferment tout aussi rapidement puis se réinventent sous un autre nom au besoin. En France aussi, des chaînes surfent sur la tendance, sans forcément afficher le recours à l’IA. Mais le rythme de production laisse peu de doute… En outre, des vidéos tutos pour concevoir sa propre chaîne rencontrent un certain succès (en faisant miroiter 2 500 euros par mois de revenus à la clé).
Même procédé pour les vrais-faux documentaires, notamment en « true crime ». Des enquêtes très codées, avec une musique grave, des « preuves » visuelles qui n’en sont pas, et un ton d’autorité qui fait passer la fiction pour du factuel. 404 Media a ainsi documenté un cas emblématique : une série de « true crime » qui cumule des millions de vues… alors que les meurtres racontés sont inventés et produits via des outils génératifs. Certains surfent aussi sur les sauvetages héroïques d’animaux… Tout est bon pour essayer de générer de l’argent.
Tutoriels : du bon, du moins bon… et parfois du carrément dangereux
Si certains aiment se faire peur, d’autres cherchent sur YouTube des solutions à leurs problèmes du quotidien. Un siphon de douche bouché, une prise électrique qui ne fonctionne plus, un vélo dont la chaîne a déraillé et qu’il faut régler… depuis quelques années, certains ont recours à YouTube et ses millions de tutoriels pour réparer ou bricoler en suivant à la lettre une vidéo de démonstration pour carreler proprement sa salle de bain.
Mais, dans ce domaine aussi, l’IA vient polluer les vrais tutoriels. Le hic est qu’ils sont bien souvent « bâtis au prompt » par une personne qui ne maîtrise pas vraiment son sujet. Car la logique n’est pas de transmettre : c’est de remplir, d’occuper les résultats de recherche, de capter une requête… toujours à des fins de revenus publicitaires. Des travaux académiques montrent d’ailleurs que les créateurs utilisent déjà largement des outils génératifs tout au long de la chaîne (idéation, script, assets, titres…). Le saut, ici, c’est le passage de « j’utilise l’IA » à « l’IA me remplace ». Au risque que vous inondiez votre appartement, que vous vous électrocutiez ou que votre enfant chute lourdement à vélo…
Pourquoi ça marche : l’algorithme adore les usines
La recette est simple : quantité + régularité + formats éprouvés = succès. Une chaîne peut publier à une cadence inhumaine, décliner des dizaines de vidéos sur le même moule, tester des mini-variantes de titres/miniatures, et laisser l’algorithme trier. Dans une économie de l’attention, l’IA ne « crée » pas seulement : elle optimise la production de contenus « suffisamment regardables ».
On parle de vidéos « cheapfakes ». Elles ne sont pas de très bonne qualité, parfois possèdent juste une image fixe avec une voix synthétique qui lit des scripts inventés (et non vérifiés). On s’aperçoit bien vite que c’est une vidéo sans intérêt, voire dangereuse et cela provoque des commentaires d’indignation. Bingo : c’est le carburant parfait pour la viralité. Et cela vaut aussi pour les vidéos politiques.
Le quotidien britannique The Guardian vient de relayer une enquête de Reset Tech qui montre comment des dizaines de milliers de vidéos trompeuses, diffusées par quelque 150 comptes, ont inondé les réseaux. Ces vidéos, fabriquées en série, ont enregistré des audiences massives tout en relayant de fausses informations. Et leurs retraits arrivaient souvent bien après signalement médiatique… donc quand le mal était fait.
Des risques multiples
Face à la multiplication vitesse grand V de ce type de contenu, YouTube n’est pas resté immobile. La plateforme a déployé des règles de divulgation des contenus « altérés ou synthétiques » et a aussi clarifié sa politique de monétisation contre le contenu « inauthentique ». Mais entre les règles sur le papier et la réalité algorithmique, il y a une zone grise immense – celle où prospèrent les vidéos « assez plausibles » pour être partagées, et « assez floues » pour ne pas être immédiatement sanctionnées.
Il y a bien sûr le risque de la désinformation, parfois même mal fait mais suffisamment efficace pour convaincre un spectateur pressé… ou qui n’est pas allé au bout de la story. Il y a aussi le risque économique : ces chaînes monétisent, achètent des pubs, saturent des niches, et concurrencent mécaniquement les créateurs qui produisent un vrai travail : font du terrain, des tests, des interviews, des images originales.

Et puis il y a le risque psychologique et social : un Internet où l’on apprend à douter de tout, tout le temps. Le Washington Post a mené une expérience en uploadant une vidéo deepfake sur plusieurs plateformes : dans leur test, YouTube est la seule à donner une indication visible… mais seulement dans la description. Autrement dit : la transparence existe, mais elle est parfois placée là où personne ne regarde.
Comment repérer (un peu) les vidéos IA : la checklist anti-fake
Aucune astuce n’est magique. L’objectif n’est pas de devenir expert en « détection d’artefacts », mais de reprendre la main sur deux minutes d’attention.
• Regardez la chaîne avant la vidéo : direction l’onglet « À propos », regardez l’historique, la cohérence des sujets, cherchez une identité claire. Une chaîne qui sort six « documentaires » par semaine sur des drames du monde entier, c’est un signal.
• Scrutez la description : c’est parfois là que la mention d’altération/synthèse apparaît (et parfois… nulle part).
• Cherchez des sources externes : noms, lieux, dates. Un « documentaire » sans sources, sans documents, sans renvois, sans articles concordants : prudence.
• Écoutez la voix : prosodie trop régulière, respiration absente, accent « neutre » étrange, emphases mécaniques. Les voix IA sont de plus en plus bonnes, mais elles laissent souvent une signature : une narration qui « ne vit pas ».
• Regardez les images : plans fixes flous, mains/objets bizarres, textes illisibles, visuels génériques. Beaucoup de contenus IA « jouent » la brume pour éviter le contrôle qualité.
• Testez une vérification rapide : copier une phrase « clé » du récit et la chercher ; faire une recherche d’image inversée sur un visuel ; vérifier si des médias fiables ont couvert le fait. • Méfiez-vous des émotions : indignation, peur, dégoût, urgence. Les « cheapfakes » reposent justement sur cette mécanique : provoquer une réaction avant la réflexion.