Menlo Park (San Francisco), 5 febbraio 2019 - Molly Russell aveva solo 14 anni. E come tanti adolescenti della sua età, passava molte ore sui social. Specialmente su Instagram, la piattaforma sviluppata da Kevin Systrom e Mike Krieger, lanciata il 6 ottobre 2010, che consente agli utenti di scattare foto, applicarvi filtri, e condividerle in rete. Selfie, paesaggi, piatti, tramonti, canzoni, nella maggior parte dei casi. Ma non per Molly Russell, una 14enne britannica, che, nell’irriquetezza della suà età, seguiva un account di autolesionismo e suicidio. Un coinvolgimento emotivo talmente forte che nel 2017 Molly è arrivata a togliersi la vita. E l’adolescente britannica non è stata la sola a farsi travolgere dal social.
Storie che hanno spinto i responsabili di Instagram a fare mea culpa e ad ammettere che contro i contenuti che potrebbero incitare all’autolesionismo e al suicidio "non abbiamo fatto ancora abbastanza". Il riconoscimento arriva dal ceo dell’app di proprietà di Facebook (acquistata per un miliardo di dollari nel 2012 da Mark Zuckerberg), Adam Mosseri che, in un intervento sul Telegraph, spiega di aver iniziato una "rivisitazione" delle politiche adottate in modo da "proteggere i più vunerabili" e annuncia l’introduzione di nuovi strumenti di controllo. Un provvedimento analogo, per altro, è già stato adottato lo scorso anno con l’introduzione di un filtro antibullismo: un algoritmo di apprendimento automatico, DeepText, che utilizza l’intelligenza artificiale per trovare parole offensive nei post e nei commenti.
Come Facebook e Twitter, anche Instagram, quindi ha un problema che riguarda la tutela degli utenti: come evitare che i contenuti violenti oppure offensivi rimangano sull’applicazione? Ma soprattutto, come fare per evitare che Instagram contribuisca ad aggravare fenomeni sociali dannosi come l’autolesionismo? Da qui la riflessione del ceo dell’app, Mosseri, il quale ha riconosciuto che "dobbiamo fare tutto il possibile per tenere al sicuro gli utenti più vulnerabili". La piattaforma, già oggi vieta di pubblicare contenuti che promuovono l’autolesionismo e il suicidio, ma, come ha sottolineato lo stesso Mosseri, ad oggi Instagram fa troppo affidamento sugli utenti stessi per le segnalazioni: "Il punto è che attualmente non riusciamo a intercettare abbastanza di queste immagini nocive prima che vengono visionate da altre persone".
Proprio per questo, a partire da questa settimana il social applicherà dei filtri di sensibilità per rendere "invisibili" tutti i contenuti che mostrano immagini di autolesionismo. Inoltre, Instagram ha già chiesto ai suoi ingegneri e revisori di contenuti di rendere la ricerca su Instagram di materiale violento – se presente – più difficile da raggiungere, a esempio limitando l’uso degli hashtag. "Non vogliamo stigmatizzare questi problemi cancellando contenuti che riprendono problemi difficili con i quali le persone lottano quotidianamente – conclude Mosseri – . I giovani tra i nostri utenti ci hanno detto che è importante per loro avere uno spazio sicuro in cui poter parlare di problemi e tematiche legate alla salute mentale". Ma la cautela è necessaria. E, forse, non è mai abbastanza.