Haine en ligne : ce que contient la proposition de loi examinée par l’Assemblée
Haine en ligne : ce que contient la proposition de loi examinée par l’Assemblée
Par Martin Untersinger
De nouvelles obligations vont peser sur les réseaux sociaux, chargés de faire disparaître certains contenus haineux, sous peine d’importantes sanctions.
Les députés ont achevé, dans la nuit du jeudi 4 au vendredi 5 juillet, l’examen de la proposition de loi contre la haine sur Internet. Elle sera formellement adoptée mardi 9 juillet. Ce texte, lorsqu’il sera définitivement adopté (après au minimum un passage au Sénat), pourrait avoir des conséquences très concrètes pour tous les internautes.
N’importe qui pourra effectivement porter à la connaissance d’un réseau social public ou d’un moteur de recherche un contenu haineux que la plate-forme devra supprimer dans les vingt-quatre heures.
Quels contenus pourront être signalés ?
On ne pourra pas signaler n’importe quel message. Le texte définit une liste précise de contenus interdits par divers articles de la loi française pour lesquels ce délai de vingt-quatre heures s’appliquera.
Il s’agit :
- des messages incitant à commettre des actes terroristes ;
- des messages faisant l’apologie du terrorisme, des crimes de guerre ou des crimes contre l’humanité ;
- des messages injurieux, incitant à haïr, à discriminer ou à commettre des violences sur des personnes en fonction de leur sexe, de leur orientation sexuelle, de leur identité de genre, de leur handicap, de leur ethnie, de leur nationalité, de leur « race » ou de leur religion ;
- des messages constitutifs de harcèlement sexuel ;
- des messages relevant du proxénétisme ou de la traite des êtres humains ;
- des contenus pédopornographiques ;
- des messages violents, pornographiques, portant gravement atteinte à la dignité humaine ou incitant des mineurs à se livrer à des jeux les mettant physiquement en danger susceptibles d’être vus par des mineurs.
Ainsi, les insultes visant les personnes noires ou juives tombent sous le coup de la loi. Ce qui n’est pas le cas d’insultes simples (« casse-toi, pauvre con ») ou d’appels à la violence contre, comme l’auraient souhaité certains députés, les agriculteurs. Cela ne signifie pas que ces contenus sont légaux ou qu’ils sont nécessairement acceptés par les réseaux sociaux, mais simplement que le dispositif de la nouvelle loi ne s’y applique pas.
Par ailleurs, il faut que le message signalé soit « manifestement illicite », c’est-à-dire qu’il n’y ait aucun doute possible sur son caractère illégal. Le gouvernement et la majorité assument parfaitement de ne pas viser tous les messages problématiques ou illégaux, mais simplement les pires. Certains députés craignent tout de même un risque de surcensure, car il est très difficile de distinguer ce qui est manifestement illicite ou non. Même pour un juge : la Cour de cassation a par exemple estimé que dire « l’homosexualité est une abomination » n’était pas une incitation directe à la violence en raison de son orientation sexuelle…
Quels services en ligne seront concernés ?
La loi ne mentionne pas nommément les services en ligne qui devront retirer ces contenus sous 24 heures, mais dégage deux catégories : les sites qui permettent à leurs utilisateurs de poster des messages publiquement à destination d’autres utilisateurs (les réseaux sociaux), ainsi que les moteurs de recherche (Google, Bing, Qwant…).
Un décret précisera les critères de taille (nombre de connexions, nombre d’utilisateurs…) nécessaires pour rentrer dans le champ de la loi. L’idée est de soumettre à ce dispositif les principaux réseaux sociaux (YouTube, Instagram, Twitter et Facebook). Le débat ne semble pas être tranché pour certains autres, comme TikTok ou Snapchat. De même, le gouvernement pourrait rédiger le décret de manière à intégrer les espaces discussions de certains sites Internet, comme jeuxvideo.com, souvent pointés du doigt pour des problèmes de haine en ligne.
Qui peut signaler ?
N’importe quel internaute trouvant un contenu « manifestement illicite » pourra le signaler. Il lui suffira de fournir son nom, son prénom et son adresse e-mail (sauf si le réseau social sur lequel il est inscrit dispose de ces informations auquel cas il ne doit rien fournir de plus) et les raisons pour lesquelles il demande le retrait de ce contenu. Signaler des contenus de mauvaise foi, en sachant qu’ils ne sont pas manifestement illicites, sera passible d’un an d’emprisonnement et de 15 000 euros d’amende.
Il est très probable que certains réseaux sociaux intègrent ce dispositif de signalement à ceux qui existent déjà et qui permettent de leur notifier des contenus contraires à leurs règles internes (bouton « Signaler ce tweet » par exemple). De fait, le signalement que prévoit la loi est, sur la forme, très proche de ce que tous les réseaux sociaux ont mis en place ces dernières années.
Les mineurs pourront mandater une association spécialisée pour signaler à leur place les contenus.
Que se passe-t-il une fois qu’un contenu est signalé ?
D’abord, le fameux délai de 24 heures s’enclenche. La plate-forme doit accuser réception de ce signalement.
Ensuite, si le message ou le contenu est manifestement illicite, il est supprimé ou, dans le cas des moteurs de recherche, déréférencé. Un message indiquant qu’il a été supprimé doit apparaître à sa place.
Une fois sa décision prise, le réseau social doit avertir l’internaute qui a notifié ainsi que l’auteur du contenu (quand il le peut) de sa décision et des raisons qui y ont présidé. Il doit aussi leur fournir un moyen de faire « appel » de cette décision, quelle qu’elle soit.
La plate-forme numérique doit ensuite informer la personne qui a signalé le contenu des options judiciaires qui s’offrent éventuellement à elle et sur les moyens de se faire accompagner (par une association par exemple).
Le réseau social doit également informer la personne qui a écrit le message des éventuels recours judiciaires ou internes dont elle dispose, mais aussi des risques judiciaires à poster des contenus haineux.
En cas de suppression, il doit conserver le message supprimé pour les futures enquêtes judiciaires. Il doit également informer « promptement les autorités publiques compétentes de toute activité » haineuse signalée par ses utilisateurs, sans que l’on sache très bien si la justice sera saisie de tous les contenus signalés et supprimés.
Enfin, les plates-formes doivent empêcher la rediffusion du contenu. Les députés ont adopté un amendement en ce sens tard dans la nuit et sans grand débat : ses conséquences, notamment s’il va déboucher sur une liste de contenus « précensurés », ne sont pas claires à ce stade.
A quoi s’expose le réseau social ?
D’abord, s’il refuse à tort de supprimer un contenu, ou s’il le fait trop tard, il est possible de se retourner contre lui. Il s’agit d’un délit pénal et d’une procédure judiciaire classique. Le représentant du réseau social ou du moteur de recherche encourt une peine d’un an d’emprisonnement et de 250 000 euros d’amende (qui pourra être portée à 1,25 million d’euros dans le cas d’une personne morale). Les associations spécialisées dans la lutte contre les contenus haineux pourront se porter partie civile lors de ce procès.
Outre ce volet pénal, le réseau social s’expose à des sanctions administratives, infligées par le Conseil supérieur de l’audiovisuel (CSA). Elles sont plus lourdes, jusqu’à 4 % du chiffre d’affaires mondial, mais sont plus difficiles à mobiliser. Pour cela, il faut que le CSA vérifie si le réseau social ou le moteur de recherche s’est conformé à un certain nombre d’obligations.
Les obligations des plates-formes numériques
Le CSA ne va pas sanctionner un réseau social dès que ce dernier ne supprime pas, à tort, un contenu. Il va plutôt s’assurer que réseaux sociaux et moteurs de recherche respectent de grands principes et obligations généraux. Certaines, évoquées plus tôt, concernent les informations données aux utilisateurs qui signalent des contenus ou sont les auteurs des contenus signalés.
Réseaux sociaux et moteurs de recherche devront aussi proposer un dispositif de signalement « directement accessible et uniforme » : cela pourra être inséré dans les formulaires de signalement de contenus qui existent déjà chez tous les réseaux sociaux.
Ils devront aussi mettre en œuvre des procédures, des moyens humains et/ou technologiques pour traiter correctement les demandes : à la fois pour se conformer au délai de 24 heures pour les contenus haineux mais aussi pour éviter tout retrait abusif. A noter que s’ils encourent une forte amende, voire de la prison, pour ne pas avoir supprimé un contenu, ils n’encourent rien sur le front pénal pour avoir supprimé à tort.
Les réseaux devront expliquer clairement ce que les utilisateurs risquent à publier des contenus haineux, la manière dont ils modèrent les contenus, les moyens dont ils disposent et les outils qu’ils utilisent pour cela. Le CSA décidera de ce qui, dans cette liste, est rendu public ou non.
Les plateformes numériques devront aussi communiquer les résultats obtenus dans la lutte contre contenus haineux et s’adresser directement aux mineurs de moins de quinze ans, au moment où ces derniers créeront un compte, pour les sensibiliser aux risques de poster des contenus haineux.
Elles devront également désigner un représentant légal physique et formuler « en termes précis, aisément compréhensibles, objectifs et non discriminatoires » les règles qui définissent ce que les utilisateurs ont le droit, ou non, de poster sur leurs réseaux. Enfin, elles devront coopérer entre elles pour mieux lutter contre les contenus haineux, sans que cette coopération soit précisément définie par la loi.
Le rôle du CSA
Le Conseil supérieur de l’audiovisuel disposera d’un rôle central dans le contrôle de la liberté d’expression sur Internet.
Il formulera des recommandations, des bonnes pratiques et des lignes directrices aux réseaux sociaux et moteurs de recherche pour qu’ils se conforment bien aux règles, notamment de suppression sous 24 heures des contenus haineux, et il ira chercher toute information nécessaire pour pouvoir le contrôler.
Il publiera un bilan de son action chaque année.
Il pourra surtout activer une importante procédure de sanction, pouvant aller jusqu’à 4 % du chiffre d’affaires mondial de l’entreprise sanctionnée. Pour cela, le CSA se posera plusieurs questions : l’entreprise a-t-elle bien suivi mes recommandations concernant ses diverses obligations, a-t-elle suffisamment bien respecté l’obligation de retrait, a-t-elle supprimé trop de contenus à tort ?
Après une mise en demeure, et si cette dernière reste sans effet, la sanction de 4 % pourra intervenir.
Un maigre volet judiciaire
La proposition de loi a également fait rentrer dans le droit quelques éléments liés au traitement judiciaire des contenus haineux en ligne. Trop peu, selon ses opposants.
Elle permet la création par exemple d’un parquet spécialisé : toutes les plaintes visant les contenus haineux seront traitées, en première intention, par ce parquet spécialisé, doté de moyens plus importants et de magistrats spécialement formés. Il sera désigné après entrée en vigueur de la loi par le ministère de la justice. Ce parquet procédera aux premiers actes d’enquête, notamment les réquisitions aux réseaux sociaux, afin d’identifier l’auteur des propos. Ensuite, deux solutions. Soit il s’agit d’actes isolés, simples, et la procédure sera redirigée vers les parquets du domicile de l’auteur présumé. Soit il s’agit d’actes groupés, menés depuis plusieurs points du territoire, ou d’actes complexes et graves et le parquet spécialisé conservera l’enquête.
Le parquet spécialisé pourra également traiter les injures non publiques (envoyées par e-mail, message privé Twitter, message WhatsApp…) lorsqu’une plainte contre ces faits aura été déposée en ligne (un mécanisme qui sera disponible au premier semestre 2020).
La loi prévoit aussi que désormais les juges puissent interdire à des individus condamnés ou sous contrôle judiciaire de communiquer électroniquement avec leur victime.
Bloquer les contenus déjà jugés
Si un contenu haineux a été jugé, par la justice, comme étant illégal, alors l’autorité administrative (par exemple la police), pourra demander à l’hébergeur de supprimer et/ou de déréférencer ce contenu, voire même aux fournisseurs d’accès à Internet de bloquer tout un site Internet, sans passer de nouveau par la case justice. Cette disposition est clairement inspirée par la décision de blocage prise à l’endroit du site Démocratie participative, qui est rapidement revenu en ligne sous une autre adresse que celle qui avait été bloquée.
Enfin, un « observatoire de la haine en ligne » regroupant entreprises du numérique, associations et chercheurs pour observer le phénomène des messages haineux sur Internet, sera créé. Chaque année, le gouvernement présentera un rapport sur la manière dont fonctionne cette nouvelle loi.