YouTube, qui appartient à Google, met en place de nouvelles mesures pour lutter contre les contenus faisant l’apologie du terrorisme. | Richard Vogel / AP

Après les paroles du mois de juin, les actes : YouTube a rendu public, mardi 1er août, ses derniers résultats dans la lutte contre les contenus faisant l’apologie du terrorisme. Comme annoncé en juin par Google, sa maison mère, YouTube fait désormais appel à des technologies capables d’apprendre à détecter automatiquement des contenus extrémistes.

« Nous voyons déjà quelques progrès », affirme l’entreprise. Celle-ci assure que plus de 75 % des vidéos supprimées le mois dernier pour « extrémisme violent » l’ont été avant d’être signalées par des humains. Jusqu’à récemment, les grandes plates-formes attendaient généralement que des utilisateurs signalent des contenus problématiques pour que ceux-ci soient examinés par l’équipe de modération.

Chiffres encore flous

Durant le mois de juillet, l’usage de cette technologie, fondée sur l’apprentissage machine – un champ de l’intelligence artificielle – a fait doubler, selon YouTube, le nombre de vidéos supprimées pour extrémisme violent. La précision de ce nouveau système « s’est considérablement améliorée », se réjouit YouTube, sans donner de chiffre, notamment concernant les faux positifs : « Bien que ces outils ne soient pas parfaits, dans de nombreux cas nos systèmes se sont montrés plus pertinents que les humains pour signaler des vidéos qui devaient être supprimées. »

L’entreprise assure aussi embaucher davantage de collaborateurs dans son équipe de modération, tout en restant, là encore, très floue. La façon dont fonctionnent ces équipes, ainsi que leur composition, reste un sujet extrêmement sensible chez les géants du Web, qui refusent de communiquer à ce sujet. Seul Facebook a accepté de fournir un chiffre, en mai, en annonçant qu’il s’apprêtait à ajouter 3 000 modérateurs à son équipe de modération, déjà composée de 4 500 personnes.

YouTube a également annoncé avoir commencé à mettre en œuvre le projet « Redirect Method », déjà en place chez Google. Cette initiative consiste à proposer aux internautes qui recherchent des termes « sensibles » des vidéos décryptant et dénonçant la propagande djihadiste.

Des mesures encore à venir

En revanche, YouTube n’a pas encore mis en place de nouvelles sanctions contre les vidéos « qui ne sont pas illégales mais qui ont été signalées par les utilisateurs comme violant potentiellement nos règles sur les discours haineux et l’extrémisme violent ». En clair, des vidéos se situant dans une zone grise : elles ne sont pas interdites par le règlement de YouTube, mais « contiennent des contenus religieux ou suprémacistes controversés ».

YouTube a annoncé vouloir limiter leur visibilité, en affichant un message d’avertissement avant leur lancement, et en les empêchant d’être « recommandées » par l’algorithme de la plate-forme. Elles ne pourront pas non plus être monétisées par le biais du programme de publicité de YouTube et seront privées de certaines fonctionnalités comme les commentaires ou les « j’aime ».

Un mécanisme qui, selon Google, « respecte la liberté d’expression et l’accès à l’information sans promouvoir des points de vue extrêmement controversés ». Il devrait être appliqué « dans les prochaines semaines » sur ordinateur, puis sur mobile, mais, prévient YouTube, « mettra du temps pour être entièrement déployé ».

Sous pression de leurs utilisateurs mais aussi des Etats, les grandes plates-formes du Web ont annoncé de nombreuses mesures ces derniers mois pour lutter contre la propagande djihadiste, et les contenus violents en général. Le suivi de ces mesures, comme ce communiqué publié par YouTube, s’inscrit dans cette démarche et leur permet de mettre en avant leurs actions, après avoir été critiquées pour s’être montrées passives face à la prolifération de ce type de contenu.