Les contradictions de YouTube face aux vidéos de contenu généré par intelligence artificielle

Le terme « slop IA » désigne désormais les contenus de faible qualité générés par intelligence artificielle. Internet en est saturé, car créer des images et vidéos réalistes est devenu trivial. De nombreux producteurs exploitent cette facilité pour inonder les plateformes de matériel médiocre sans scrupules.
YouTube subit particulièrement ce phénomène. La plateforme accumule d’énormes quantités de contenus générés par IA. Reconnaissant ce problème, Neal Mohan, le dirigeant de YouTube, affirme vouloir combattre ce phénomène en 2026 à travers une nouvelle stratégie de modération et de contrôle qualité.
Cependant, l’approche annoncée par YouTube soulève des questions. Mohan explique qu’il s’appuiera sur les systèmes existants pour filtrer le « slop IA », notamment ceux utilisés contre le spam et les titres trompeurs. Aucun nouvel outil spécifique n’est mentionné dans sa lettre aux utilisateurs, ce qui laisse perplexe.
Parallèlement, YouTube prévoit de distribuer aux créateurs de nouvelles fonctionnalités IA. Ils pourront générer des shorts avec leur propre image, concevoir des jeux via des requêtes textuelles et expérimenter avec la musique synthétique. Cette annonce crée une contradiction apparente : fournir davantage d’outils générateurs pourrait agggraver le problème qu’on cherche à résoudre.
Cette ambiguïté devient plus troublante quand on considère les outils de détection existants. YouTube a lancé un système de détection des deepfakes en octobre 2025. Comment cette technologie s’articulera-t-elle avec la nouvelle fonction permettant de créer des shorts personnalisés reste inexpliqué. Les détails manquent cruellement pour comprendre cette stratégie globale.



