Roma, 25 novembre 2023 – Pare che Stephen Hawking, grande e visionario scienziato morto nel 2018, abbia detto, a proposito dell’intelligenza artificiale, che "potrebbe essere la cosa migliore, o peggiore, per l’umanità". Sono passati alcuni anni e nell’accelerato mondo delle tecnologie digitali il dubbio non è ancora sciolto. Tutt’altro. L’intelligenza artificiale appare semmai sull’orlo di una crisi di crescita, e forse anche di nervi, a giudicare dai colpi di scena che hanno avuto al centro la figura di Sam Altman, prima defenestrato, poi richiamato a furor di popolo (e di ricchi investitori) alla testa di OpenAI.
Apocalittici o integrati?
Citando Umberto Eco, c’è chi parla del ritorno dell’antica linea di separazione fra apocalittici e integrati, i primi timorosi che l’intelligenza artificiale possa sfuggire al controllo umano e produca disastri, i secondi convinti che stiamo vivendo una fase di grande e positivo sviluppo. In verità, le posizioni non sembrano così nette, tanto che anche gli ‘integrati’ – ossia Big Tech, le quattro-cinque aziende globali che hanno il controllo dell’intero sistema – chiedono ai governi di fissare regole e limiti di legge, certo meno forti e rigorosi di quelle auspicati dai presunti apocalittici, spesso scavalcati, nel lanciare allarmi, proprio da Big Tech.
Le Big Tach
Il sospetto è che le grandi aziende abbiano in mente leggi che mantengano la loro posizione dominante. E l’ulteriore sospetto è che prefigurare scenari catastrofici, sia un modo per allontanare l’attenzione da questioni più vicine e più concrete, come la violazione della privacy, l’uso indiscriminato dei dati, l’estensione dei pregiudizi e delle disuguaglianze, la diffusione di sistemi invasivi di controllo, la manipolazione dell’informazione, tutti temi che il legislatore potrebbe e dovrebbe affrontare.
Il Progetto Q*, cosa sappiamo
Certo, la ricerca e lo sviluppo di nuove applicazioni corrono a ritmi vertiginosi e la rivelazione che dietro il caso OpenAI ci sarebbe il Progetto Q*, cioè un’intelligenza che va oltre il livello probabilistico e computazione e si avvicina alla cosiddetta Intelligenza artificiale generale (Agi nell’acronimo in inglese), con una propria capacità d’essere adattabile e in qualche modo creativa, sta generando nuove, comprensibili ansie.
Ricerca in mani private
Al momento, oltre a tanti dubbi, abbiamo qualche certezza. La prima è che sappiamo molto poco di quanto avviene nei laboratori (non c’è trasparenza su niente); la seconda è che la ricerca è tutta in mani private; la terza è che i poteri pubblici avrebbero il dovere di intervenire, sia per indirizzare gli usi e limitare le applicazioni più pericolose, sia per contrastare lo strapotere dei nuovi feudatari del digitale.
Serve un’Onu dell’Ai
Su primo e terzo punto qualcosa si potrebbe fare e qualcuno ci sta provando. L’Unione europea sta lavorando a una propria direttiva, ma certi inattesi contrasti fanno temere un altro slittamento rispetto ai tempi previsti (primavera 2024). Negli Usa il presidente Biden ha emanato due ordini esecutivi, con i quali si chiede a Big Tech di condividere con l’amministrazione informazioni e risultati. L’intelligenza artificiale però è globale, e forse ci vorrebbe un organismo sul modello dell’ente istituito a suo tempo in sede Onu per il controllo dell’energia atomica. Ma anche l’Onu è in crisi e dunque il dubbio di Hawking è ancora attuale, fin troppo attuale.