Mentre le normative arrancano dietro al rapido sviluppo della tecnologia, si affacciano nuovi rischi per bambini e adolescenti spesso abbandonati, senza guida, nell’universo digitale. "Quando ho iniziato 37 anni fa, a Bologna, – spiega Ernesto Caffo, presidente di Fondazione Sos Telefono Azzurro Ets – l’elemento chiave era la violenza in famiglia, casi segnalati in prevalenza dagli adulti. Oggi – anche grazie a segnalazioni attraverso i canali digitali – sono aumentate le richieste di aiuto da parte dei bambini, soprattutto preadolescenti e adolescenti, ma per problematiche molto più ampie".
Dall’ ’87 ad oggi come è cambiato lo scenario di rischio per i bambini?
"L’area di rischio per i bambini si è allargata. Gli abusi sessuali, spesso compiuti da coetanei o all’interno di strutture educative e sportive, sono rimasti un elemento importante. Sono entrate nella nostra area di intervento anche problematiche riguardanti la sicurezza nella rete: dal sexting al cyberbullismo fino all’adescamento e all’utilizzo improprio dell’intelligenza artificiale. Il Covid ha, inoltre, aggravato la situazione sul fronte della salute mentale: è aumentato il numero delle segnalazioni che riguardano problematiche legate al corpo, comportamenti autolesivi, pensieri suicidari, disturbi d’ansia".
Quando vi arriva una segnalazione che iter attivate?
"Il nostro obiettivo è sostenere il bambino o l’adolescente nell’immediato, accompagnandolo in una ricerca condivisa di soluzioni attivando, contestualmente, la rete di intervento – forze di polizia, carabinieri, servizi sociali e sanitari – che noi coordiniamo. Stiamo adottando sistemi di IA che permettono con dei chatbot di selezionare le chiamate più gravi per gestire h24 le emergenze con personale molto qualificato. La sfida è adattare le nostre capacità di risposta a nuove tipologie di richieste d’aiuto".
A quali nuove richieste dovete far fronte?
"Il numero di casi di ragazzi che per motivi legati a forme di cyberbullismo, oggi amplificate dall’uso dell’IA, chiamano noi è diventato estremamente significativo. Penso alla possibilità di spogliare le loro compagne di classe grazie a delle app. Per le vittime si tratta di una violenza reale i cui effetti devastanti possono perdurare negli anni portando a disagio mentale, comportamenti autolesivi che vediamo crescere in modo esponenziale. Quando un’immagine impropria, magari trasformata, che li riguarda va online – difronte a un rischio drammaticamente presente di suicidio – non si può aspettare a intervenire. Temiamo che senza un’attenzione maggiore alla prevenzione i casi aumenteranno sempre di più".
In questi casi come intervenite?
"Abbiamo un servizio che si chiama Take it down che – grazie a un accordo mediato da noi e dal Garante della Privacy in accordo con la Polizia postale – permette ai ragazzi di bloccare la diffusione di una loro immagine personale sui server delle grandi aziende come Meta. I ragazzi vivono in un mondo digitale che è fortemente tossico e l’impegno di tutti deve essere quello di trovare risposte nuove. Proporremo al G7 un manifesto per intervenire sulla produzione e la diffusione delle immagini generate con l’IA".