Pour combattre le complotisme, YouTube fait appel à Wikipédia
Pour combattre le complotisme, YouTube fait appel à Wikipédia
Par Pauline Croquet (Austin, Etats-Unis, envoyée spéciale), Martin Untersinger (Austin, Etats-Unis, envoyé spécial)
Le géant va bientôt afficher sur les vidéos promouvant certaines théories du complot des extraits de pages de l’encyclopédie sur lesquels les utilisateurs pourront cliquer.
YouTube va s’attaquer aux fausses informations et, plus spécifiquement, aux théories du complot qui font florès sur la plateforme. « Quand des vidéos porteront sur une théorie du complot, nous afficherons à côté de la vidéo des informations issues de Wikipédia au sujet de cet événement », a expliqué, mardi 13 mars, Susan Wojcicki, la PDG du géant de la vidéo en ligne, lors d’une conférence dans le cadre du festival South by Southwest (SXSW) à Austin (Etats-Unis).
A ce stade, la liste des théories du complot concernées sera issue, elle aussi, de Wikipédia et sera limitée à celles « qui font l’objet de discussions actives sur YouTube », a expliqué Mme Wojcicki. Cette dernière a donné deux exemples : l’idée selon laquelle l’homme n’a pas marché sur la Lune et celle qui veut que les traînées de condensations dans le sillage des avions de ligne sont des produits chimiques destinés à influencer la population (chemtrails). « Les gens pourront encore voir la vidéo, mais auront accès à des informations additionnelles sur lesquelles ils peuvent cliquer », a-t-elle expliqué.
Le géant de la vidéo en ligne va bientôt afficher sur les vidéos promouvant certaines théories du complot des extraits de pages Wikipédia sur lesquels les utilisateurs pourront cliquer. / Pauline Croquet / Le Monde
La plateforme régulièrement critiquée
YouTube – qui compte plus d’un milliard et demi d’utilisateurs – a été accusé ces derniers mois de propager toutes sortes de théories du complot. Récemment, il a été incriminé de promouvoir des vidéos suggérant que les survivants de la tuerie du lycée de Parkland, en Floride, étaient des acteurs. Mais, bien au-delà, il a été reproché à la plateforme de favoriser des fausses informations ainsi que des contenus extrêmes ou violents.
Afficher des extraits de pages Wikipédia ne réglera sans doute pas ces enjeux plus larges. D’autant plus que ces « signaux d’information » (« information cues ») ne concernent pas ce que la plupart des experts considèrent être la source du problème : l’algorithme de recommandation. Ce dernier permet de suggérer à l’internaute des vidéos qu’il estime similaires à celle qu’il est en train de consulter et susceptibles de l’intéresser.
Plusieurs experts, dont un ancien ingénieur de YouTube, estiment que l’objectif principal est de faire en sorte que les utilisateurs visionnent des vidéos le plus longtemps possible. Ce système favoriserait ainsi les vidéos les plus accrocheuses, notamment celles sur les théories du complot et les fausses informations.