Instagram promet de nouveaux outils contre le suicide, à la suite de la mort d’une adolescente britannique
Instagram promet de nouveaux outils contre le suicide, à la suite de la mort d’une adolescente britannique
Molly Russel, 14 ans, s’était suicidée à la fin de 2017. L’analyse de son compte Instagram a récemment révélé qu’elle avait consulté de nombreuses images liées au suicide.
Le logo d’Instagram. / Dado Ruvic / REUTERS
Dans une tribune au Daily Mail, publiée lundi 4 février, le nouveau patron d’Instragram, Adam Mosseri, s’est livré à un long exercice de mea culpa, et a annoncé de nouvelles mesures de prévention du suicide sur son application. Le sujet fait la « une » de la presse à scandale britannique depuis plus d’une semaine, à la suite de nouvelles révélations sur le suicide d’une jeune adolescente, Molly Russel, à la fin de 2017. Peu avant de mettre fin à ses jours, la jeune fille, âgée de 14 ans, avait consulté de nombreuses images sur Instagram liées à la dépression, à l’automutilation et au suicide. Le père de la jeune fille avait déclaré, dans un entretien à la BBC, qu’Instagram « avait aidé à tuer sa fille ».
Très critiqué par les tabloïds britanniques pour sa supposée inaction, et notamment par le Daily Mail qui avait appelé à « mettre en prison » les dirigeants d’Instagram, le réseau social (détenu par Facebook, et très utilisé par les plus jeunes) avait également été dans le viseur du gouvernement. Le ministre de la santé, Matt Hancock, a notamment menacé de prendre des sanctions contre le réseau social, reprochant à Instagram de banaliser les images de violence et de favoriser la naissance d’une « génération suicide ». Cela dans un contexte où le Royaume-Uni fait partie des pays où Facebook, propriétaire d’Instagram, a lancé ses premiers partenariats avec les associations de prévention du suicide, à la fin des années 2000.
« Ecran de sensibilité »
Alors que M. Mosseri doit rencontrer cette semaine M. Hancock, le dirigeant d’Instagram s’est dit « profondément ému » par l’affaire dans son texte au Daily Mail. Il y annonce que les images liées au suicide ou à l’automutilation seraient désormais précédées d’un « écran de sensibilité » : l’utilisateur d’Instagram devra cliquer pour valider le fait qu’il souhaite bien voir l’image, pour limiter l’exposition accidentelle à ce type de contenus. D’autres réseaux sociaux, comme Twitter, appliquent un système similaire pour les images violentes ou choquantes.
Instagram affirme par ailleurs continuer à renforcer ses équipes et la formation de ces dernières dans la détection des images violentes ou dérangeantes. La politique d’Instagram est de ne pas supprimer systématiquement les images liées au suicide. « Nous n’autorisons pas nos utilisateurs à faire la promotion des comportements autodestructeurs, mais les conseils [de psychologues et d’associations] que nous avons reçus nous conduisent à penser qu’il ne faut pas stigmatiser les problèmes de santé mentale en supprimant les images qui reflètent les sujets sensibles et très difficiles avec lesquels des personnes sont aux prises », écrit M. Mosseri. Il explique également : « Nous ne parvenons pas encore à trouver ces images avant qu’elles ne soient vues par d’autres utilisateurs. »