L’Assemblée examine la loi contre la haine en ligne, qui veut muscler la modération du Net
L’Assemblée examine la loi contre la haine en ligne, qui veut muscler la modération du Net
Par Martin Untersinger
Le texte, porté par la députée Laetitia Avia (LRM), veut obliger les grandes plates-formes publiques (Facebook, YouTube, Twitter) à supprimer en moins de vingt-quatre heures les messages « manifestement illicites ».
C’est l’heure de vérité pour la proposition de loi censée lutter contre les discours haineux sur Internet, portée par la députée (La République en marche, LRM) de Paris Laetitia Avia. Le texte est examiné en séance publique à l’Assemblée nationale à partir de mercredi 3 juillet.
Cette proposition de loi, qui ne rencontre pas d’opposition significative dans l’hémicycle, entend faire peser sur les réseaux sociaux (comme Facebook, YouTube ou Twitter) et les moteurs de recherche une obligation stricte : celle de supprimer sous vingt-quatre heures certains messages postés par leurs utilisateurs lorsque ces derniers leur sont signalés.
Il est déjà possible aujourd’hui de sanctionner un réseau social qui laisserait en ligne un message illicite. Mais le gouvernement et la majorité estiment le dispositif actuel trop compliqué à mettre en œuvre et insuffisamment dissuasif vis-à-vis des entreprises de l’Internet. De fait, la proposition de loi prévoit que, dans certains cas, la sanction contre les réseaux sociaux récalcitrants puisse atteindre 4 % de leur chiffre d’affaires mondial (soit, potentiellement, des amendes de plusieurs dizaines de millions d’euros).
Un texte aux inspirations multiples
Seuls certains contenus seront concernés par ce mécanisme d’obligation de retrait, en particulier les appels à la haine ou à la violence (en raison de l’origine, de la religion, de l’orientation sexuelle…) et les contenus à caractère terroriste. Le Conseil supérieur de l’audiovisuel (CSA) sera l’autorité chargée de contrôler que les entreprises du numérique jouent le jeu et suivent ses recommandations.
Ce texte s’inscrit dans la volonté de la majorité et de l’Elysée de peser face aux géants du numérique sur la question de la modération des contenus.
Dès la campagne présidentielle de 2017, le candidat d’En marche ! avait confié ses souhaits en la matière. La proposition de loi du député (LRM) du Bas-Rhin Bruno Studer sur les manipulations de l’information, adoptée en novembre 2018, doit également beaucoup à la volonté du chef de l’Etat. Ce dernier a aussi engagé, avec Mark Zuckerberg, le PDG de Facebook, une initiative inédite au niveau mondial : des experts français ont pu dialoguer avec la firme de Menlo Park (Californie) pendant plusieurs semaines, débouchant sur un rapport établissant les grandes lignes d’un modèle de régulation pour les contenus illicites sur Internet.
Le texte qu’examineront les députés ne découle pas directement de ce document. Son inspiration vient plutôt d’Allemagne et de sa législation sur l’amélioration de l’application de la loi dans les réseaux sociaux (loi NetzDG), en vigueur depuis janvier. Cette dernière, dont l’efficacité demeure incertaine, impose également aux réseaux sociaux de supprimer sous vingt-quatre heures les contenus illégaux qu’on leur signale.
Les plates-formes, arbitres de la liberté d’expression
Comme la loi allemande, la proposition de loi discutée à l’Assemblée nationale vise d’abord à faire disparaître les contenus les plus illégaux en donnant aux grandes plates-formes du Web un rôle central : celui de décider si tel ou tel contenu est « manifestement illicite » et mérite, à ce titre, d’être supprimé. Le tout sous la menace d’importantes amendes si elles ne s’acquittent pas correctement de cette tâche, ce qui laisse craindre, selon ses opposants, un risque de censure.
Le pouvoir judiciaire, d’ordinaire compétent lorsqu’il est question de liberté d’expression, n’intervient que marginalement dans le mécanisme. A l’inverse du CSA, doté de nouveaux pouvoirs et qui poursuit ainsi son installation dans le champ de la régulation des contenus sur Internet. Un choix politique qui interroge jusque dans les rangs des personnalités favorables à l’esprit du texte.
« On aura une autorité administrative [le CSA] qui sanctionnera des réseaux sociaux pour des questions liées à la liberté d’expression : cela pose question », résume Sacha Ghozlan, président de l’Union des étudiants juifs de France. Pour l’association de défense des libertés numériques La Quadrature du Net, cette approche « entérine le modèle de modération » des grandes plates-formes et constitue « un nouveau pas vers l’ORTF 2.0 ».
« Le juge coûte trop cher ! Les plates-formes font déjà de la modération : on va donc les encadrer et cela aboutit à des modérateurs en Malaisie qui regardent des contenus terroristes. Mais personne ne veut assumer cela politiquement », soupire un bon connaisseur du dossier au sein de l’Etat.
Un risque de « surblocage » ?
Lors des discussions à l’Assemblée nationale, Laetitia Avia devrait tenter de répondre aux critiques et aux inquiétudes sur une éventuelle censure abusive en ajoutant aux obligations des réseaux sociaux celle d’examiner de près chaque message porté à leur connaissance pour prévenir « les risques de retrait injustifié » et de rédiger leurs règles internes de manière claire.
Face à des sanctions importantes, les plates-formes risquent-elles, en effet, de supprimer des contenus licites au nom d’un principe de précaution ? « En cas de doute, la plate-forme va retirer les contenus, elle a en tout cas toutes les incitations pour le faire », craint Alexandre de Streel, codirecteur académique du Centre sur la régulation en Europe, un think tank spécialisé.
Au secrétariat d’Etat au numérique, on minimise ce risque en rappelant que le texte se concentre sur les contenus « manifestement illicites » et que son objectif est « de mettre fin au sentiment d’impunité et d’enlever les contenus les plus haineux, les actes les plus antisociaux qui détruisent le lien social ».
Si débat il y a, il porterait donc sur ce caractère manifeste et non sur le fond du sujet. Et au sujet des contenus « gris », selon les termes du secrétaire d’Etat au numérique Cédric O, un groupe de travail devrait être créé, rassemblant entreprises, pouvoirs publics et société civile pour aider les plates-formes à interpréter certains cas problématiques.
En attendant, les réseaux sociaux feront face à un deuxième type de sanction, qui pourra s’appliquer dès le premier refus (à tort) de suppression de contenu. Les députés ont en effet ajouté en commission un délit pénal, complémentaire à la sanction administrative du CSA : s’il refuse de supprimer un contenu alors qu’il aurait dû le faire, le responsable légal du réseau social ou du moteur de recherche sera passible d’une peine d’un an d’emprisonnement et de 75 000 euros d’amende.
Le rôle du juge judiciaire en question
Le texte ne suscite pas de débats politiques majeurs, contrairement à la loi allemande adoptée en 2018, au principe similaire.
Des opposants au texte ont pointé qu’un juge judiciaire devait, en théorie, permettre de sanctionner les auteurs de contenus illégaux – et non seulement apporter des garanties pour définir ce qui est illicite ou non. Ces sanctions contre les auteurs sont quasiment absentes de la proposition de loi de Laetitia Avia, ce qui avait été souligné dans un avis du Conseil national du numérique sur le texte, en mars.
Sur ce point, le gouvernement a déposé un amendement qui pose les jalons de la création ultérieure d’un parquet spécialisé dans la haine sur le Web et l’articulation de cette nouvelle structure avec la possibilité de porter plainte en ligne, qui sera ouverte début 2020. La loi Avia prévoit aussi que les plates-formes dénoncent à la justice toute personne dont le contenu aurait été supprimé pour cause d’infraction à la loi.
Malgré cela, la place du juge judiciaire dans le dispositif devrait être au cœur des débats et plusieurs amendements tenteront tout de même d’en renforcer le rôle. Les députés de La France insoumise essaieront de lui faire récupérer les pouvoirs que la proposition de loi prévoit pour le CSA. Un autre amendement, porté par la députée d’Eure-et-Loir Laure de la Raudière (Union des démocrates et indépendants), propose d’instaurer la possibilité pour une plate-forme de saisir le juge en cas de doute sur le caractère manifestement illicite d’un contenu qui lui est signalé
L’opposition timide des plates-formes
La loi ne suscite pas non plus de levée de boucliers radicale de la part des entreprises qu’elle vise. Ainsi entend-on la responsable des affaires publiques de Twitter en France expliquer au Monde, dans une interview croisée inédite avec Laetitia Avia, se dire être « en phase » avec l’esprit de la loi.
Le temps où les plates-formes américaines ne juraient que par la liberté d’expression en vigueur outre-Atlantique est bien lointain. D’ailleurs, elles suppriment déjà – dans des modalités qui font déjà largement débat – des contenus qui contreviennent à leurs règles internes, y compris en matière de haine.
Les entreprises du numérique, qui se disent toutes ouvertes à la discussion avec les pouvoirs publics, tiquent cependant sur certaines modalités d’application de la loi. Dans un communiqué, publié le 1er juillet, trois lobbys du secteur français des nouvelles technologies « s’interrogent sur l’efficacité du texte », pointant notamment son champ d’application trop large, les difficultés que posent les contenus gris et le montant de l’amende.
Plus généralement, elles sont mal à l’aise avec le délai de vingt-quatre heures que prévoit la loi, et qu’elles avaient déjà âprement combattu lors des débats autour de la loi allemande. Pour un certain nombre d’entre elles, ce délai rigide ne tient pas compte des conditions de viralité d’un contenu et ne permet pas de hiérarchiser en fonction de l’urgence. Plus généralement, elles disent leur inconfort à l’idée d’être investies, même indirectement, du pouvoir régalien de dire quelle parole est illégale ou ne l’est pas.