YouTube s’apprête à introduire de nouvelles règles pour lutter contre la prolifération de contenus non authentiques et produits en série grâce à l’utilisation croissante de l’intelligence artificielle. À compter du 15 juillet, la plateforme détenue par Google mettra à jour ses règles de monétisation du YouTube Partner Program (YPP), dans le but de clarifier plus précisément les types de contenus qui pourront générer des revenus pour les créateurs et ceux qui en seront exclus. Comme expliqué dans une page du Centre d’aide, l’obligation pour les créateurs de publier des contenus « originaux » et « authentiques » a toujours existé. Cependant, dans un contexte en rapide évolution, dominé par les chatbots, les voix off synthétiques et les outils d’IA génératifs, une mise à jour réglementaire s’est avérée nécessaire afin de clarifier la définition du terme « contenu non authentique ».

Ces derniers jours, certains créateurs ont exprimé leurs doutes et leurs inquiétudes, craignant que cette mise à jour n’affecte également des formats populaires tels que les vidéos de réaction ou les contenus qui réutilisent des clips déjà présents en ligne. Toutefois, selon TechCrunch, YouTube a assuré qu’il ne s’agissait pas de nouvelles restrictions, mais d’une mise à jour visant à renforcer l’application des politiques existantes, en particulier à l’égard des contenus excessivement répétitifs ou générés en masse.
Dans une vidéo publiée mardi, Rene Ritchie, responsable des relations avec les créateurs de YouTube, a précisé que les contenus considérés comme du « spam » par les utilisateurs, tels que les vidéos générées automatiquement sans valeur ajoutée, sont déjà exclus de la monétisation depuis des années. La mise à jour, a-t-il expliqué, sert uniquement à rendre plus explicite ce que YouTube pratique déjà depuis longtemps.
Comme le souligne également The Verge, « la mise à jour ne modifie pas les règles, mais vise à améliorer la manière dont YouTube les applique ». À l’heure où les contenus générés par l’IA envahissent la plateforme, du true crime fictif aux vidéos deepfake, YouTube cherche ainsi à protéger la qualité de l’expérience et à limiter le risque de spam et de désinformation.
Le phénomène de l’IA slop
Ce que YouTube ne précise pas tout à fait, du moins selon TechCrunch, c’est à quel point il est aujourd’hui plus facile de produire des contenus de mauvaise qualité grâce à l’intelligence artificielle. Ce phénomène a déjà un nom : « AI slop », un terme qui désigne les contenus créés à l’aide d’outils d’IA générative, souvent assemblés de manière automatisée avec des voix off synthétiques, des images recyclées, des vidéos d’archives ou de la musique artificielle. Certaines chaînes entièrement construites sur de la musique générée par l’IA ont déjà rassemblé des millions d’abonnés, tandis que de fausses vidéos sur des événements réels, comme le procès de Diddy, ont été vues des millions de fois.
C’est pourquoi, bien que YouTube qualifie la mise à jour à venir de simple « retouche » des règles existantes, beaucoup l’interprètent comme un véritable tour de vis : une tentative de limiter systématiquement l’accès à la monétisation pour les créateurs qui diffusent ce type de contenu. Une mesure défensive, jugée nécessaire par plusieurs observateurs pour préserver la réputation de la plateforme et endiguer une dérive faite de contenus synthétiques, génériques et trompeurs, qui risquent d’éroder la confiance des utilisateurs.