Suicide, automutilation : Instagram et Facebook vont supprimer les contenus explicites
Suicide, automutilation : Instagram et Facebook vont supprimer les contenus explicites
Sous la pression des autorités britanniques, en réaction au suicide d’une adolescente de 14 ans, les deux réseaux sociaux commencent à annoncer des mesures.
Adam Mosseri, le patron d’Instagram, a annoncé jeudi 7 février que les images « explicites » liées au suicide ou à l’automutilation seraient bientôt supprimées du réseau social. Elles le seront aussi de Facebook, à qui appartient Instagram.
L’application de partage d’images est sous pression au Royaume-Uni, à la suite du suicide, à la fin de 2017, d’une adolescente de 14 ans, Molly Russel. L’analyse de son compte Instagram a récemment révélé qu’elle avait consulté de nombreuses images liées à la dépression, l’automutilation et le suicide, peu de temps avant de mettre fin à ses jours. Son père avait alors déclaré à la BBC qu’Instagram « avait aidé à tuer [sa] fille ». Le ministre de la santé, Matt Hancock, avait notamment menacé de prendre des sanctions contre le réseau social.
Mardi, Instagram avait promis la création de nouveaux outils contre le suicide, et avait annoncé la mise en place d’« écrans de sensibilité », qui précéderont les images liées au suicide ou à l’automutilation. Ce qui signifie que les utilisateurs d’Instagram seront avertis en cas d’image choquante, et qu’ils devront effectuer un clic pour valider leur intention de voir le contenu en question. Mais la suppression de contenus n’était pas encore évoquée.
Certaines images resteront en ligne
Jusqu’ici, les règles d’Instagram précisent « qu’encourager ou inciter à l’automutilation » est interdit. Mais les images en elles-mêmes ne sont pas interdites si elles ne sont pas publiées dans un contexte encourageant ces pratiques. Le réseau social considérait jusqu’alors qu’il valait mieux que les adolescents concernés par ces questions puissent en discuter ensemble et trouver du soutien sur Instagram plutôt que de se voir censurés et de ne pas pouvoir exprimer leurs problèmes.
L’entreprise dit avoir consulté des experts, qui ont conclu que ce type d’images avait « le potentiel de promouvoir, même de façon non intentionnelle », les pratiques autodestructrices. D’où la décision d’Instagram et de Facebook d’interdire ces images si elles se montrent « explicites », quelle que soit l’intention des utilisateurs qui les publient. Certaines images auront toutefois toujours leur place sur Instagram, précise Adam Mosseri à la BBC. « Si je publie une image d’une cicatrice et que je dis “j’ai arrêté il y a trente jours”, c’est une manière importante de raconter mon histoire », explique-t-il. « Ce type de contenu pourra toujours exister sur le site, mais le prochain changement sera qu’il n’apparaîtra dans aucune recommandation, et sera donc plus difficile à trouver ».