YouTube vient de publier son premier rapport trimestriel concernant la modération de ses contenus vidéo.

La plateforme américaine n’y va pas de main morte : plus de huit millions de contenus ont été supprimés entre octobre et décembre 2017. Sur toutes ces vidéos, la majorité a été retirée avant même d’avoir été vue, rapporte Numerama.

Signalement automatique

Une grande partie de ces vidéos a été signalée par des machines et algorithmes, alors que YouTube avait promis, en décembre 2017, davantage de modération humaine pour limiter les dérives.

Quelle que soit l’origine du signalement, le processus semble efficace : « 6,7 millions de vidéos ont été signalées pour la première fois par des machines plutôt que par des humains. Et 76 % ont été retirées avant d’avoir comptabilisé une seule vue », rapporte le géant américain.

Haro sur les contenus violents

Selon YouTube, plus de la moitié des vidéos supprimées sont des contenus violents. « Nous faisons un premier pas important en publiant un rapport trimestriel sur la manière dont nous renforçons la ligne de conduite de notre communauté », explique la plateforme. « Cette mise à jour régulière nous aidera à montrer nos progrès dans la suppression des contenus non conformes à notre plateforme ».

L’entreprise, propriété de Google, ne compte pas s’arrêter en si bon chemin : elle a annoncé sa volonté d’améliorer encore son outil de signalement des contenus inappropriés d’ici à la fin de l’année.

Les commentaires sont fermés.

Fil RSS des commentaires de cet article