Facebook compte désormais plus de 2 milliards d’utilisateurs actifs. / Matt Rourke / AP

« Mes enfants ne sont pas autorisés à utiliser cette merde », « Dieu sait ce que ça fait au cerveau de nos enfants », « un mélange dangereux »… Ces dernières semaines, plusieurs anciens cadres de Facebook ont fait publiquement part de leurs inquiétudes face à ce qu’était devenu le réseau social, au point d’exprimer parfois leurs remords d’avoir contribué à son succès.

Une série de témoignages qui s’ajoute aux nombreuses polémiques que la plate-forme aux 2 milliards d’utilisateurs actifs a dû essuyer depuis ses débuts, mais surtout ces derniers mois. Celles-ci se sont multipliées à mesure que le réseau social grandissait, et que son influence sur la société, voire la démocratie, se révélait.

Mark Zuckerberg, le fondateur de l’entreprise, a pris la parole à plusieurs reprises sur ces sujets, promettant que Facebook faisait tout son possible pour régler les différents problèmes évoqués. « Protéger notre communauté est plus important que maximiser nos profits », avait-il assuré en novembre. Depuis le mois de juin, l’entreprise a aussi publié une série de longs articles relatifs à ces « questions difficiles » pour tenter d’expliquer sa démarche. Voici les principaux reproches que Facebook doit aujourd’hui affronter, et la façon dont le réseau social tente d’y répondre.

  • L’éternel problème de la modération

Ce qui est reproché à Facebook : l’image de Facebook a été sérieusement écornée par la prolifération de contenus de propagande terroriste sur la plate-forme. Malgré sa politique de modération – ces contenus sont interdits, et si les internautes les signalent Facebook promet de les supprimer – de nombreuses publications de toute évidence illicites ne sont pas censurées, ou tardent à l’être. Plus prosaïquement, il est reproché au réseau social de ne pas toujours supprimer les publications relevant du discours de haine – incitations à la violence et à la haine, insultes sexistes, racistes ou homophobes, etc. Un manque de réactivité d’autant plus incompris que les internautes voient, à l’inverse, censurées des photos d’allaitement ou des tableaux de nus au prétexte qu’ils dévoilent des seins. La difficile question de la modération s’est également compliquée avec l’introduction des vidéos en direct, qui ont parfois servi à montrer des meurtres ou des suicides, sans que Facebook n’intervienne.

Ce que répond Facebook : d’habitude peu disert sur le sujet, Facebook explique en juin 2017 avoir passé en revue 288 000 messages en moyenne par mois signalés comme hate speech (« discours de haine »). « La première difficulté est de définir des limites, écrit Richard Allan, l’un des responsables de la politique publique de l’entreprise. Où se situe la ligne qui sépare le débat du discours de haine ? »

A la même période, alors que les gouvernements français et britannique annoncent un plan d’action contre la propagande terroriste en ligne, Facebook, sous pression, rend public son utilisation de technologies de détection automatique. Monika Bickert, directrice des politiques publiques de Facebook, défend toutefois dans un entretien au Monde « qu’il n’existe pas de filtre magique qui supprimera ces contenus » et que l’entreprise se rend disponible pour collaborer avec les autorités en cas de demandes urgentes. Et de déclarer : « Nous voulons faire d’Internet une “no-go zone” pour les terroristes. »

Par ailleurs, Facebook a annoncé en mai que son équipe de modération, alors composée de 4 500 personnes, allait atteindre dans l’année à venir 7 500 personnes. C’était la première fois que l’entreprise, très secrète sur le sujet, donnait un chiffre sur son nombre de modérateurs.

  • Un déluge de fausses informations

Ce qui est reproché à Facebook : Facebook représente une importante porte d’entrée vers l’information pour une grande partie de ses utilisateurs. Or, d’innombrables fausses nouvelles circulent sur le réseau social. Ces contenus sont souvent massivement partagés, car ils sont généralement conçus de façon à susciter l’émotion – et les algorithmes de Facebook tendent à valoriser les contenus générant des réactions, comme des partages ou des « J’aime ». Le problème a notamment été mis en lumière après la victoire de Donald Trump : certains contenus, annonçant par exemple à tort que le pape soutenait le candidat républicain, ont été partagés des centaines de milliers de fois. Les détracteurs de Facebook l’ont accusé de passivité face à ce déferlement de fausses informations, qui pourrait potentiellement influencer le processus démocratique.

Ce que répond Facebook : après avoir commencé par minimiser le problème, Mark Zuckerberg avait finalement reconnu son importance. L’entreprise a annoncé depuis fin 2016 une série de mesures. Elle a notamment conclu des partenariats avec plusieurs médias (dont Le Monde), qui examinent les publications signalées par les utilisateurs. Facebook a aussi annoncé l’exclusion de sa plate-forme de publicité des sites web spécialisés dans la publication de fake news, et la création d’un fonds spécial doté de 14 millions de dollars. En avril, elle avait annoncé avoir supprimé 30 000 comptes français « non authentiques » qui diffusaient de fausses informations.

  • Une arme d’influence politique

Ce qui est reproché à Facebook : les Etats-Unis accusent la Russie d’avoir exploité Facebook pour influencer l’électorat américain pendant la campagne présidentielle de 2016. Le réseau social s’est vu reprocher d’avoir laissé des entités liées au Kremlin ouvrir de faux comptes mais aussi d’avoir diffusé des publicités.

Ce que répond Facebook : sous la pression d’une enquête officielle conduite à Washington, Facebook a dû révéler, dix mois après l’élection, que près de 470 faux comptes liés à la Russie avaient acheté pour plus de 100 000 dollars de publicités sur la plate-forme pendant la campagne. « Je crois fermement au processus démocratique et au fait de protéger son intégrité. (…) Je refuse que quiconque utilise nos outils pour saper la démocratie », expliquait en guise de mea culpa Mark Zuckerberg.

  • Une « bulle de filtres »

Ce qui est reproché à Facebook : les publications qui s’affichent dans le fil Facebook des utilisateurs sont sélectionnées par un algorithme, qui décide d’en valoriser certaines plutôt que d’autres. Pour faire ce choix, plusieurs critères sont pris en compte, comme les réactions que la publication génère chez les amis, ou encore les centres d’intérêt de l’utilisateur. Or, comme l’a théorisé l’activiste américain Eli Pariser, cela tend à enfermer les internautes dans des « bulles de filtres » : à cause de ces algorithmes, ils seraient principalement confrontés à des contenus les confortant dans leurs idées. Un phénomène très critiqué : un débat démocratique peut-il vraiment avoir lieu si les citoyens ne sont confrontés qu’à un type d’opinion, notamment en période d’élection ?

Ce que répond Facebook : cette question met l’entreprise très mal à l’aise. Peu après l’élection de Donald Trump, Mark Zuckerberg déclarait :

« Le plus grand filtre du système, ce n’est pas que le contenu ne soit pas là, ou que vous n’ayez pas d’amis qui soutiennent l’autre candidat, (…) mais que vous le rejetiez quand vous le voyez. Nous ne cliquons tout simplement pas dessus, et vous savez que je ne sais pas quoi faire à ce sujet. Nous devons travailler là-dessus. »

Depuis, aucune solution claire n’a été trouvée. En avril, Facebook a commencé à tester une fonctionnalité affichant des « articles sur le même sujet » quand un contenu était publié, pour diversifier les sources d’information proposées aux internautes. Mais si le sujet est si délicat, c’est que Facebook cherche à tout prix à éviter un écueil : passer de la simple entreprise technologique au média, avec des choix éditoriaux et les responsabilités qui en découlent.

  • Un danger pour la vie privée

Ce qui est reproché à Facebook : après des mois d’enquête et une mise en demeure, la Commission nationale de l’informatique et des libertés (CNIL) a décidé en mai dernier d’infliger une sanction de 150 000 euros à Facebook pour « de nombreux manquements à la loi Informatique et libertés ». La CNIL lui reproche notamment d’avoir procédé « à la combinaison massive des données personnelles des internautes à des fins de ciblage publicitaire », mais aussi d’avoir pisté « à leur insu les internautes, avec ou sans compte, sur des sites tiers via un cookie ». Nommé « datr », celui-ci a déjà valu à Facebook les remontrances de la justice belge.

Plus anciennement, en 2011 l’utilisation d’un logiciel de reconnaissance faciale s’était retrouvée dans le collimateur des organismes européens de protection des données, ces derniers craignant pour la vie privée des utilisateurs.

Ce que répond Facebook : sous pression des autorités irlandaises, là où est situé le siège européen de l’entreprise, le réseau social a accepté à l’automne 2012 de suspendre son outil de reconnaissance faciale dans l’Union européenne et d’effacer les données collectées sur les profils de ses usagers.

Concernant la décision de la CNIL, Facebook s’est déclaré « respectueusement en désaccord ». Sans faire mention de la loi française, il a assuré que « Facebook respecte depuis longtemps la loi européenne sur la protection des données, depuis que nous avons choisi de nous établir en Irlande ».

  • Entretenir une course au « like »

Ce qui est reproché à Facebook : ici, c’est le fonctionnement même de Facebook qui est remis en question : la mise en valeur des contenus générant des réactions comme des « J’aime ». Ce système qui entretient la vanité et la quête perpétuelle de reconnaissance pousserait les utilisateurs à tout faire pour récolter un maximum de pouces bleus, selon ses détracteurs. Et créerait même, chez certains, une addiction. Même Justin Rosenstein, le créateur du fameux bouton « J’aime », a admis au Guardian qu’il avait pris ses distances avec les réseaux sociaux pour ces raisons. Un ancien cadre de Facebook dénonçait récemment des « boucles de réactions basées sur la dopamine », qui « détruisent le fonctionnement de la société ».

Ce que répond Facebook : selon des moyennes publiées par Facebook en 2014, un internaute pourrait recevoir 1 500 publications nouvelles chaque fois qu’il ouvre son compte. Mais seules 300 sont sélectionnées par EdgeRank. Dans la « philosophie » de Facebook qui repose sur la notion très employée de « communauté », il s’agit d’offrir à ses usagers une sphère de messages provenant des amis les plus proches et les plus actifs. Facebook assure qu’il ne détruit pas le tissu social : bien au contraire, il répète que son site sert avant tout à resserrer les liens entre les humains.

  • Mais aussi…

En parallèle, Facebook a dû répondre à plusieurs autres polémiques : des associations LGBT et les défenseurs de la vie privée ont livré une âpre bataille contre la politique du réseau social qui oblige les utilisateurs à s’enregistrer avec leur vrai nom. En mai 2016, l’entreprise de Mark Zuckerberg a essuyé de nombreuses critiques aux Etats-Unis, après la publication d’un article l’accusant de censurer des sites conservateurs. Plus récemment, Facebook a été épinglé pour proposer à ses annonceurs des catégories publicitaires racistes et antisémites.