Comment les réseaux sociaux accentuent l’enfermement dans ses idées
Comment les réseaux sociaux accentuent l’enfermement dans ses idées
Par William Audureau
Le poids pris par Facebook, Twitter et les algorithmes de personnalisation renforcent des tendances déjà identifiées par la psychologie sociale, observent des chercheurs.
Quelle est la part de responsabilité des sites et services Internet ? / Illustration Quentin Hugon / Le Monde
Internet et les réseaux sociaux sont-ils des machines à enfermer les internautes dans leurs propres certitudes ? Cette question, posée dès 2011 par le penseur du Web Eli Pariser dans son ouvrage The Filter Bubble : What The Internet is Hiding from you (Les bulles filtrantes : ce qu’Internet vous cache, non traduit), est aujourd’hui au cœur de la réflexion de nombreux chercheurs du Net.
Lundi 23 avril à la Cité internationale de Lyon, où se tient jusqu’au vendredi 27 la prestigieuse conférence annuelle itinérante des professionnels d’Internet, The Web Conference, la polarisation des idées et des débats sur les réseaux sociaux a fait l’objet d’une demi-journée d’étude mêlant ingénierie du Web et psychologie sociale. Baptisée « Polarization on social media », elle a été présentée par un groupe de chercheurs en informatique de Helsinski (Finlande), Kiran Garimella, Aristides Gionis, et Michael Mathioudakis, et un ingénieur au centre de recherche informatique du Qatar, Gianmarco De Francisci Morales.
A l’origine de ces interrogations, le constat désormais très répandu qu’au lieu d’amener les internautes à échanger leurs points de vue et bâtir des théories nuancées, utopie qui a porté la démocratisation d’Internet dans les années 1990, l’émergence des réseaux sociaux et des algorithmes de recommandation a au contraire amené une radicalisation des points de vue, une exacerbation des tensions en ligne, et une impossibilité chronique à se faire entendre et respecter.
Une vieille question de psychologie sociale
Cette impasse démocratique, remarquent les chercheurs, est loin d’être une invention du Net. La question de la formation des opinions dans un contexte social a donné naissance dès les années 1950 au concept de dissonance cognitive, du psychologue Leon Festinger, qui décrit l’état de désarroi et les stratégies d’évitement face à des opinions contraires aux siennes.
Par ailleurs, la recherche n’a pas attendu l’âge d’or de la collecte de données sur Internet pour tenter des approches quantitatives. Dans un article de 1974, « Reaching a Consensus », le statisticien américain Morris DeGroot observe déjà que les individus tendent à se conformer progressivement aux opinions émises par leurs semblables (de sexe, de couleur de peau, de religion…), même s’ils n’ont aucune connaissance de leur véracité. Ce phénomène est connu sous le nom d’homophilie, l’attirance de la similarité. « Un modèle basique, qui ne rend pas encore compte des logiques de polarisation », nuance Gianmarco De Francisci Morales.
En 2000, dans Mixing Beliefs among Interacting Agents, les chercheurs Deffuant, Neau, Amblard et Weisbuch arrivent à une conclusion plus fine : un individu moyen n’adapte ses jugements que si les opinions auxquelles il est confronté n’en sont pas trop éloignées. « C’est l’idée que si quelque chose est trop éloigné de ce à quoi je crois, je ne vais même pas lui accorder mon attention », résume Gianmarco De Francisci Morales.
L’importance du groupe
De nombreux phénomènes consistant à protéger et maintenir une sorte de zone de confort intellectuel sont ainsi décrits, comme le biais de confirmation (consistant à privilégier les informations favorables au renforcement de ses idées). Michael Mathioudakis donne l’exemple concret des journaux et chaînes d’opinion : un électeur démocrate regarde davantage CNN que Fox News, et inversement pour un militant républicain.
Ces biais individuels se retrouvent par ailleurs renforcés par le collectif. Le juriste et philosophe américain Cass Sunstein a théorisé en 2002 la loi de la polarisation de groupe, selon laquelle « un groupe d’individus tend à prendre des décisions plus extrêmes que les inclinations naturelles de ses membres ».
Cette gymnastique de l’opinion tient pour beaucoup à la nature des raisonnements employés : l’intuition, l’argumentation a posteriori, la persuasion et l’influence sociale jouent un rôle plus important que la logique et la réflexion individuelle, note Gianmarco De Francisci Morales. « Même quand on a au départ des opinions peu affirmées, plus on interagit avec son environnement social, plus celles-ci se renforcent. »
La responsabilité des algorithmes de personnalisation
Alors, quelle est la part de responsabilité des sites et services Internet ? S’ils ne sont pas à l’origine des logiques de polarisation, ils la favorisent néanmoins de par leur fonctionnement, expliquent les chercheurs – et ce volontairement, car ils y trouvent un intérêt. Michael Mathioudakis fait mine de s’interroger :
« Les plateformes étant au courant des opinions des utilisateurs et cherchant à maximiser leur satisfaction, quel contenu vont-elles leur montrer ? Pourquoi leur montrer du contenu dissonant ? »
Souvent résumée à Facebook, la fameuse bulle de filtre naît ainsi dès l’apparition du moindre algorithme de personnalisation, que ce soit sur un moteur de recherche comme Google, une plateforme de commerce en ligne comme Amazon ou de vidéos comme YouTube.
Ce phénomène est toutefois renforcé sur les réseaux sociaux, parce que les plateformes renvoient leurs utilisateurs non pas vers des produits ou des informations mais vers des personnes similaires, réenclenchant des logiques de groupe.
L’effet social décuplé de Facebook
L’effet est particulièrement notable sur Facebook et Twitter. Dans un article de 2018 qu’il a cosigné, « Political Discourse on Social Media : Echo Chambers, Gatekeepers, and the Price of Bipartisanship », Michael Mathioudakis observe que si le modèle de recommandation de contenus de Facebook fonctionnait de manière aléatoire, l’exposition à des idées variées serait totale.
Mais dans les faits, celle-ci est très limitée, et le premier et principal vecteur de réduction de l’éventail d’idées est le réseau de contacts. « Sur Facebook, note-t-il, la polarisation opère davantage par les amis [the network] que par algorithme ».
Dans un second temps, les contenus suggérés par la plateforme elle-même, puis choisis par l’utilisateur accentuent un peu plus encore l’exposition à un seul type d’opinion, et l’enfermement dans un type d’idées. Mais c’est l’effet de groupe qui joue le rôle le plus important.
Renverser une opinion
Pour autant, l’effet polarisant des réseaux sociaux peut également être renversé, même si cela ne se fait pas sans casse. Il s’agit du « backfire effect » étudié par Redlawks, dans un article de 2010 intitulé « The Affective Tipping Point : Do Motivated Reasoners ever “Get it ?” ».
Ses conclusions sont étonnantes, car, à court terme, la contradiction peut produire un effet contre-productif, relève Gianmarco De Francisci Morales :
« Quand on expose des militants à des informations négatives sur une personne proche de leurs idées, au début, cela renforce leur sympathie pour cette personne. Mais à partir d’un certain nombre d’informations négatives, ils finissent par changer d’avis. »