Hiroaki Kitano, il “padre“ del cane-robot Aibo, si chiese una decina d’anni fa se un sistema d’intelligenza artificiale avrebbe mai potuto vincere il Nobel in una disciplina scientifica. Non siamo ancora a tanto, ma il Nobel per la fisica assegnato ieri a John Hopfield e Geoffrey E. Hinton, cui si deve la messa a punto delle reti neurali per l’apprendimento automatico dei computer, è un premio che segna un punto di svolta, perché da un lato certifica la centralità dell’intelligenza artificiale nella scienza e nell’intera società, ma dall’altro lato – non meno importante – accoglie in qualche modo tutti i dubbi, tutte le inquietudini che turbano tanti ricercatori, e con loro i decisori politici e i cittadini comuni.
Il Nobel a Hinton, in particolare, legittima questi turbamenti, perché il settantaseienne ricercatore inglese, poi attivo negli Stati Uniti e in Canada, l’anno scorso fu protagonista di una clamorosa uscita di scena: lasciò improvvisamente i laboratori di Google, dov’era entrato dieci anni prima, quando il gigante di Mountain View aveva acquisito la sua azienda – DnnResearch – spiegando d’essere allarmato per i rapidissimi e imprevisti sviluppi dell’intelligenza artificiale, di quella generativa in particolare: "Sono preoccupato – disse – perché possono diventare più intelligenti di noi", e quindi sfuggire al controllo umano. E aggiungeva di temere l’uso che potrebbero farne dei "cattivi attori", citando Vladimir Putin e i possibili usi militari. Hinton dunque lasciava Google per sentirsi libero di criticare e giudicare, da persona libera, gli sviluppi dell’intelligenza artificiale.
Ieri, saputo del premio, ha prima detto d’essere sorpreso – "Nemmeno sapevo d’essere candidato" – poi si è subito calato nella parte e forte del prestigio assicurato dal premio ha insistito sul tema: i pericoli incombenti, la difficoltà di sviluppare contromisure. Per il neo premio Nobel siamo a un bivio della storia: "La minaccia che queste cose possano prendere il sopravvento" è autentica, dice, e dobbiamo ancora capire se riusciremo ad affrontarla. "In questo momento – dice Hinton – è molto importante lavorare sulla questione di come mantenere il controllo. I governi dovrebbero costringere le grandi aziende a destinare molte più risorse alla ricerca sulla sicurezza, in modo che, per esempio, aziende come OpenAI non la possano mettere in secondo piano".
Hinton e Hopfield, che ha 91 anni e una carriera all’Università di Princeton, lavorando separatamente hanno sviluppato negli ultimi vent’anni l’idea vincente: il modello delle reti neurali, che permette alle macchine, imitando il cervello umano, di imparare da sole a risolvere un problema allenandosi su masse enormi di dati, oggi disponibili grazie al web e all’enorme potenza di calcolo raggiunta dai computer.
È stata una svolta, e in pochi anni l’intelligenza artificiale è entrata nella vita quotidiana, si può dire in tutti i settori – dalla sanità all’informazione, dalla scuola all’industria alla burocrazia – ponendo sfide del tutto nuove riguardanti la privacy dei cittadini, la sicurezza delle aziende e degli stati, l’impatto sull’occupazione, la trasparenza, i possibili abusi. Questioni pressanti ma rimaste quasi invisibili fuori dalla cerchia degli addetti ai lavori, finché l’avvento di ChatGpt e degli altri sistemi di intelligenza generativa ha mutato il quadro. Vedere una macchina capace di dialogare con le persone, di produrre testi e immagini, di sviluppare software a partire da un semplice input di poche parole, ma anche capace di mentire e di cadere nelle cosiddette “allucinazioni“ ha impressionato e anche preoccupato l’opinione pubblica. Tanto più che i ricercatori hanno ammesso di non sapere come le macchine, nell’apprendimento automatico, arrivino a certi risultati.
È su quest’onda emotiva che Hinton e altri sono usciti allo scoperto, fino ai clamorosi – e in realtà controversi – dubbi espressi anche da tycoon del digitale sulla possibilità che si arrivi a una “intelligenza artificiale generale“, simile a quella umana ma più potente e più misteriosa, potenzialmente nemica dell’umanità. Sono allarmi controversi, perché c’è il sospetto che tale spauracchio sia in realtà un diversivo, concepito per intimorire le autorità politiche e coinvolgerle su scenari lontanissimi allo scopo di tenerle lontano da questioni meno “esistenziali“ ma più concrete e già presenti, come la tutela della privacy, del diritto d’autore, dell’equità sociale, per non parlare dell’uso dell’intelligenza artificiale per manipolare l’informazione e condizionare l’opinione pubblica, o nell’industria militare e nelle guerre in corso, come già avviene in un sistema di totale deregulation.
Gli Stati al momento si muovono a tentoni, mancando spesso anche delle conoscenze necessarie a legiferare con efficacia, visto che il mondo dell’intelligenza artificiale è dominato dall’industria privata e dai suoi segreti. L’Unione europea, all’inizio di quest’anno, con il suo IA Act ha messo in campo il primo tentativo di disciplinare la materia, introducendo obblighi e anche divieti, ma servirebbe una normativa globale, che ancora nemmeno si intravede.
Nel frattempo tutto corre veloce, forse troppo veloce. Kitano, uno che guarda lontano, ha intanto fondato la Nobel Turing Challenge; obiettivo: creare sistemi di intelligenza artificiale capaci di fare ricerca autonoma e vincere il Nobel entro il 2050.