Les géants du numérique ont de nouveau été accusés, après l’attentat de Londres qui a fait sept morts, de contribuer à la propagation du terrorisme. Sur le perron du 10 Downing Street, Theresa May, la première ministre britannique, leur a reproché de fournir « au terrorisme des espaces sûrs pour se propager » et a appelé les « Etats démocratiques alliés » à nouer « des accords internationaux pour réguler le cyberespace et empêcher la propagation de l’extrémisme et du terrorisme ».

Depuis plusieurs mois et au fil des attentats sur le sol européen, une forme de consensus – ferme dans la forme mais flou sur le fond – se développe en Occident autour d’une reprise en main par les Etats des entreprises de l’Internet, accusées de laisser trop de latitude à la propagande terroriste sur leurs plates-formes.

Pression croissante sur les géants du Net

Le G7, réuni fin mai en Italie, a pour la première fois appelé les grandes entreprises du Web à faire davantage dans la lutte contre le terrorisme. Les sept pays les plus riches de la planète ont souhaité que ces acteurs, notamment les réseaux sociaux, « accroissent significativement leurs efforts contre le contenu terroriste », notamment en « développant les technologies de détection automatique d’incitation à la violence ».

Les parlementaires britanniques n’avaient pas retenu leurs coups dans un rapport au vitriol publié le 1er mai, accusant les grands réseaux sociaux, et notamment YouTube, de « laisser-faire » :

« Les réseaux sociaux les plus prospères sont honteusement loin de faire le nécessaire pour s’attaquer aux contenus illégaux et dangereux, appliquer leurs propres règles ou assurer la sécurité de leurs utilisateurs. »

Côté français, Emmanuel Macron a appelé pendant sa campagne à une « discussion franche avec les grands groupes de l’Internet ». « Beaucoup de terroristes sont passés à l’action après s’être radicalisés sur les réseaux sociaux » par le biais de « contenus de propagande islamiste qui les manipulent et les conduisent à la violence ». Celui qui était alors candidat voulait que les entreprises « s’engagent à retirer de tels contenus sans délai » et qu’elles « aient une obligation absolue de résultat sans pouvoir opposer [il ne sait] quelle impossibilité technique ou principe de liberté ou de neutralité ».

Le sujet a également été abordé lors de l’entretien téléphonique, dimanche après l’attentat de Londres, entre Mme May et M. Macron. Selon l’Elysée, les deux dirigeants ont rappelé l’importance de lutter contre la diffusion des messages de propagande terroriste sur les réseaux sociaux. Quant à l’Allemagne, elle planche actuellement sur un projet de loi décuplant les amendes encourues par les géants du numérique qui laisseraient accessibles des contenus illégaux, notamment terroristes.

Les géants loin d’être inactifs face au terrorisme

Accuser les grandes plates-formes numériques d’inaction face aux terroristes est commode pour un responsable politique en campagne dans un pays meurtri par les attaques terroristes. Il est indéniable que la modération sur les réseaux est régulièrement critiquée pour son inefficacité, sa lenteur et son manque de clarté, et ce, au-delà des contenus dits « terroristes ». Il est également vrai qu’il y a quelques années, imbibées de la conception américaine du respect absolu de la liberté d’expression, les grandes plates-formes numériques renâclaient à supprimer des contenus sur ordre d’autorités nationales. La situation est beaucoup plus contrastée aujourd’hui.

D’abord, les règles des principaux réseaux sociaux (Facebook, Twitter, YouTube…) qui définissent le contenu qu’ils autorisent ou interdisent prohibent clairement l’apologie et la propagande terroriste. Après les accusations de Theresa May, le directeur des affaires publiques de Facebook pour le Royaume-Uni, le Moyen-Orient et l’Afrique, Simon Milner, a répliqué en expliquant « vouloir que Facebook soit un environnement hostile aux terroristes ». « Nous travaillons agressivement pour retirer le contenu terroriste des plates-formes dès que nous en apprenons l’existence », a-t-il précisé dans un communiqué. « Le contenu terroriste n’a pas sa place sur Twitter », a renchéri son homologue chez Twitter, Nick Pickles, auprès de CNN.

Même Telegram (...) a désactivé plus de 17 000 comptes et salles de discussions depuis le 1er janvier

Mis sous pression par les gouvernements, les grands réseaux sociaux ont pris ces derniers mois des initiatives pour lutter contre ce type de contenus. Twitter a annoncé, à la fin mars, avoir suspendu 377 000 comptes incitant au terrorisme durant le deuxième semestre de l’année 2016. Même Telegram, application prisée par les djihadistes et peu coopérative avec les Etats, a désactivé plus de 17 000 comptes et salles de discussions depuis le 1er janvier, selon un décompte publié quotidiennement par l’entreprise. Plusieurs géants du Web, dont YouTube et Facebook, ont lancé fin 2016 le prototype d’une base de données commune destinée à supprimer automatiquement les contenus, à la manière de ce qui existe pour lutter contre la pédopornographie ou les infractions au droit d’auteur.

Facebook a par ailleurs annoncé au début du mois de mai l’embauche de 3 000 nouveaux modérateurs, une augmentation sans précédent de ses équipes chargées de supprimer les contenus interdits par la plate-forme ou signalés par les internautes. Ce sont ces « petites mains » qui sont en première ligne des contenus signalés par leurs utilisateurs, dont les contenus terroristes.

Un rapport publié en décembre par la fondation suisse ICT4Peace et le Comité contre le terrorisme de l’ONU soulignait « la tendance croissante à l’autorégulation de la part des acteurs de l’industrie face aux contenus et aux activités terroristes ». « Les principales sociétés ont décidé de leur propre gré de prendre des mesures actives pour éviter que leurs produits ou services soient utilisés à des fins terroristes », confirmait la présidente du Comité dans une lettre au Conseil de sécurité, le 28 avril.

Une efficacité qui s’améliore

Les premiers signes d’efficacité commencent à apparaître. Plusieurs unités de police ont été lancées – Internet Referral Units (IRU) –, au niveau européen ou national pour signaler aux grandes plates-formes les contenus les plus problématiques, notamment terroristes. A l’été 2016 et après un an d’existence, l’IRU de l’Union européenne, dirigée par Europol, avait émis 11 000 alertes concernant des contenus illégaux auprès de sites et réseaux sociaux : plus de 91 % de ces alertes ont débouché sur une suppression par les grandes entreprises du numérique. En France, dans la foulée de l’attentat à Charlie Hebdo, un groupe de travail réunissant les principaux acteurs de l’Internet et le ministère de l’intérieur a été mis en place afin d’améliorer le retrait de certains contenus. « Même si des difficultés résiduelles subsistent, (…) les acteurs de l’Internet ont amélioré la qualité et les délais de leurs réponses », notait le délégué interministériel chargé des cybermenaces dans son premier rapport annuel, publié en mars.

Ces dernières semaines, la Commission européenne a adressé deux satisfecit très nets en direction des grandes plates-formes concernant les contenus terroristes. En mars, Dimitris Avramopoulos, commissaire européen pour la migration, les affaires intérieures et la citoyenneté, s’est réjoui d’avoir « ces dix-huit derniers mois [établi] une relation de confiance et de compréhension mutuelle avec les grandes entreprises de l’Internet » et s’est dit « satisfait des progrès réalisés » en matière de retrait de la propagande terroriste.

Jeudi, lors d’un bilan concernant le code de conduite noué en mai 2016 entre l’Union européenne et les géants du numérique pour lutter contre les contenus « haineux illégaux », la commissaire européenne à la justice, Vĕra Jourová, a salué des « résultats encourageants » :

« Aujourd’hui, les entreprises suppriment deux fois plus de discours haineux illégaux qu’il y a six mois et le font plus rapidement. Il s’agit d’un pas important dans la bonne direction. »

Les leaders européens, avec Theresa May à la manœuvre, veulent sans doute accentuer encore cette dynamique et utiliser l’opinion pour conforter leur avantage dans le bras de fer avec ces géants américains. La modération des grandes plates-formes numériques semble cependant condamnée à la critique : elle n’intervient en effet qu’a posteriori, lorsqu’un utilisateur ou les autorités signalent un contenu problématique. Il est donc très difficile d’éradiquer complètement toute forme de propagande, sauf à mettre en place une censure systématique et a priori de tous les contenus postés sur les réseaux sociaux.