YouTube a publié un rapport chiffré sur sa modération. / Patrick Semansky / AP

Apologie du terrorisme, détournements violents de dessins animés, théories du complot… Ces derniers mois, YouTube a dû faire face à de nombreuses critiques concernant ses méthodes de modération. Pour y répondre, l’entreprise a décidé de publier mardi 24 avril un rapport chiffré sur le sujet.

Celui-ci, le premier de ce type partagé par YouTube, concerne le dernier trimestre de 2017. Il faisait partie des mesures annoncées en décembre dernier par Susan Wojcicki, la PDG de YouTube. Dans un post de blog, elle avait expliqué vouloir ainsi proposer « plus de transparence ».

Huit millions de contenus supprimés

Entre octobre et décembre 2017, l’entreprise explique avoir supprimé 8 millions de vidéos. Parmi elles, 6,7 millions ont été repérées en premier lieu par des outils automatiques et non par des humains, et 76 % n’avaient généré aucune vue au moment de leur suppression. De manière générale, le site assure que les vidéos comptabilisent, au fil des années, de moins en moins de vues avant d’être supprimées. Ainsi, au premier trimestre 2017, près des trois quarts des contenus censurés pour le motif d’« extrémisme violent » avaient été vues plus de 100 fois. Cette proportion est passée à environ un quart au premier trimestre 2018, selon le rapport.

Si YouTube – tout comme Twitter et Facebook – se vante régulièrement des prouesses de ses outils techniques, elle a pour autant expliqué vouloir embaucher davantage de modérateurs. En décembre, Susan Wojcicki avait annoncé que l’équipe de modération devait atteindre 10 000 personnes d’ici à la fin de l’année 2018.

Un nouvel outil

La plateforme a également annoncé par la même occasion un nouvel outil, destiné lui aussi à accroître la transparence de l’entreprise. Il s’agit d’une page sur laquelle les utilisateurs ayant signalé un contenu pourront suivre l’avancée de leur demande. Par exemple, ils pourront vérifier si la vidéo qu’ils avaient repérée a été démonétisée, ou supprimée par YouTube. Cette option existait déjà, mais n’était accessible que pour les « Trusted Flaggers », des associations ou entreprises avec qui le géant du partage de vidéos a tissé des partenariats : elles peuvent signaler des vidéos, qui sont alors examinées par les équipes de modérateurs en priorité.

Aucune mesure ne semble en revanche s’adresser directement aux vidéastes, qui sont nombreux à se plaindre de démonétisations fréquentes et parfois injustifiées sur leurs chaînes

YouTube fait l’objet depuis plusieurs mois de nombreuses critiques, notamment à propos de sa modération des contenus violents ou extrémistes. Dernier fait en date : une enquête de CNN publiée jeudi 19 avril. Celle-ci révèle que des vidéos pédophiles et néonazies étaient en ligne, et qu’il s’y affichait des publicités de plus de 300 entreprises ou organisations comme Adidas, Amazon, Facebook ou encore Netflix. Au début de l’année 2017, YouTube avait fait l’objet d’un important boycott de la part d’annonceurs à la suite de révélations similaires.