Washington, 20 febbraio 2023 - La prossima grande battaglia nell’aula della Corte Suprema americana è per la ‘sezione 230’, poche righe in una legge del 1996 che hanno creato internet come lo conosciamo da oltre 25 anni: "Nessun utente o fornitore di servizio informatico interattivo può essere considerato come editore o diffusore di qualsiasi informazione pubblicata da un altro fornitore di contenuti informativi" (No provider or user of an interactive computer service shall be treated as the publisher or speaker of any information provided by another information content provider).
In pratica, queste parole del Communition Decency Act del 1996 stabiliscono la non responsabilità delle piattaforme come Google rispetto ai contenuti che vengono pubblicati. Ci sono delle clausole operative (garantire comunque una sorveglianza e la rimozione di contenuti illeciti), ma la sostanza è che le piattaforme non sono responsabili dei contenuti pubblicati. In pratica, sotto l’ombrello del Primo Emendamento (che garantisce la libertà di parola) da un quarto di secolo questa legge protegge i giganti del web, sancendo la loro neutralità e trasferendo la responsabilità legale dei contenuti a chi li ha caricati.
Però martedì 21 e mercoledì 22 febbraio, la Corte Suprema si occuperà di due distinti casi che hanno lo stesso oggetto: la sezione 230.
Martedì esaminerà il caso portato dai genitori di una vittima del Bataclan, Nohemi Gonzalez. La tesi è che Google, proprietaria di YouTube, abbia contribuito a diffondere contenuti che hanno spinto alla radicalizzazione e quindi al terrorismo. Mercoledì sarà la volta di Twitter vs Taamneh: in questo caso è la famiglia di Nawras Alassaf, un cittadino giordano morto a Istanbul in un attacco dell’Isis nel 2017, ad aver citato Twitter, Google e Facebook per aver fallito nel controllo di contenuti terroristici, ‘aiutando’ la propaganda.
I sogni spezzati di un’americana a Parigi
Nohemi Gonzales, 23 anni, è stata una delle 130 vittime degli attacchi terroristici a Parigi il 13 novembre 2015, la notte del Bataclan. Nohemi e la madre Beatrice, una messicana emigrata in California nel 1989, avevano lavorato duro per anni per dare alla giovane la possibilità di frequentare l’università: Nohemi studiando moltissimo, e la madre lavorando fino a 14 ore al giorno per poter pagare le tasse. Ci erano riuscite: Nohemi stava frequentando l’ultimo anno della California State University di Long Beach, ed era a Parigi all’interno di un programma di scambio studentesco. La sera del Bataclan, insieme a altre 19 persone, era in un affollato bistrò, attaccato dai terroristi islamici.
La ‘lettera della legge’, ovvero lo studio legale no profit (israeliano)
Probabilmente i genitori di Nohemi non avrebbero mai pensato di fare causa a uno dei giganti del web. Come racconta il Washington Post, a contattarli è stata una società legale no profit israeliana, Shurat HaDin (che in ebraico significa ‘la lettera della legge’), che da anni accusa i giganti tech di ospitare messaggi di propaganda e di reclutamento delle organizzazioni terroristiche militanti. Così nel 2017 la famiglia Gonzales ha intentato la causa contro Google- Youtube, sostenendo che ospita video che violano la legge anti terrorismo promuovendo la propaganda islamica. Nel primo grado, la Corte federale ha dato però ragione a Google, e si è giunti all’appello di fronte alla Corte Suprema.
A fondare Shurat HaDin, all’inizio degli anni Duemila, è stata Nitsana Darshan-Leitner, che ne è tutt’ora la presidente. L’organizzazione ha vinto finora cause per un valore di circa 2 miliardi di dollari, come compenso per vittime di attacchi terroristici. Completamente privata, non ha finanziamenti dal governo israeliano ne da altri governi, sostiene Darshan-Leitner. Alcune cause sono diventate cause perse (come quelle intentate contro Facebook nel 2015), ma questo non impedisce alla no profit di continuare nella sua missione.
Che cosa è la sezione 230
Il Comunication Decency act, che contiene la sezione 230, è parte del Telecomunication Act del 1996, una legge che regola le attivià di telecomunicazioni negli Usa.
1996, appunto, quando il web era tutt’altra cosa rispetto a quello che conosciamo oggi. Basti dire che Google è stata fondata 2 anni dopo, e che Zuckerberg aveva 11 anni e quindi Facebook era ben lontana dall’orizzonte.
La sezione 230 è composta da due parti, ed è la seconda che dà alle piattaforme una protezione detta ‘del buon Samaritano’: identifica come ‘non editori’ e quindi meritevoli di protezione da cause civili le piattaforme che, agendo ‘in buona fede’ provvedono a rimuovere dai loro servizi contenuti "osceni, violenti, lascivi, molesti o altrimenti discutibili, indipendentemente dal fatto che tale materiale sia protetto costituzionalmente" (all’epoca la maggior parte dell'attenzione era rivolta ai contenuti sessuali e solo in seguito sono arrivati temi come terrorismo e violenza in generale). L’idea di fondo era quella di proteggere il mondo di Internet da cause legali a cascata e consentirgli di prosperare, incoraggiando al contempo le aziende del web di moderare i propri contenuti.
Ma non è un ‘via libera’ senza confini, anzi prevede anzi una serie di clausole specifiche, che vanno dalla violazione di leggi federali a quella della proprietà intellettuale. E ulteriori restrizioni sono state introdotte successivamente, ad esempio con il Millennium Copyright Act del 1998. Nei fatti, tutte le piattaforme operano in modo rispettoso della legge, ma sono stati comunque segnalati casi in cui contenuti illeciti sono rimasti online per diverse ore o diversi giorni, prima di venire identificati e rimossi.
Viene comunque ritenuta una legge da modificare: sono 28 gli Stati che hanno chiesto alla Corte Suprema di rivedere la legge che protegge i giganti del web.
Cosa può succedere ora: l’impatto legale e quello economico
Il giudizio della Corte Suprema, qualsiasi esso sia, avrà ripercussioni sul modo in cui la libertà di espressione possa (o non possa) venire regolata sul web. Potrebbe lasciare le cose come stanno, oppure potrebbe restringere ulteriormente i casi di ‘non responsabilità’, oppure ancora togliere ogni salvaguardia per le piattaforme, rendendole quindi responsabili in toto dei contenuti pubblicati.
Quest’ultimo caso è quello che trasformerebbe completamente l’attuale approvazione e moderazione (basata soprattutto su algoritmi e solo in parte su successivi interventi umani) stravolgendo completamente il modo in cui operano le piattaforme come Google e i social. Nessuno finora si è cimentato a quantificare, ad esempio, i costi: cosa significherebbe, dal punto di vista economico, affiancare agli algoritmi decine di migliaia di moderatori in persona, che cosa significherebbe dover vagliare ogni singolo video, gli allungamenti nei tempi di caricamento, l’impatto sulla pubblicità, i costi di cause legali perse, ecc ecc. Un elenco molto lungo di costi aggiuntivi, proprio in un momento in cui tutte le società hi tech stanno rivedendo costi, razionalizzando le operazioni, licenziando migliaia di dipendenti.
Martedì e mercoledì sono in calendario solo due udienze, i tempi per il pronunciamento della Corte Suprema non sono definiti.
Previsioni sull'esito? A favore di Google c’è il verdetto a suo favore emesso dalla Corte federale. Ma considerando il precedente più clamoroso (la decisione del 2022 di annullare la storica sentenza di Roe-Wade, che garantiva il diritto all’aborto in tutti gli Stati americani), l’unica certezza è che questa Corte Suprema non ha nessun timore nell’esprimere giudizi che rivoluzionano la giurisprudenza esistente da decenni.