Roma, 28 gennaio 2025 – Nello Cristianini, professore di Intelligenza artificiale all’università di Bath (Regno Unito), uno dei massimi esperti del settore, autore di due volumi, “La scorciatoia” e “Machina Sapiens”, guarda con il rigore dello scienziato a quello che sta succedendo sul versante dell’IA. E, di fronte allo scossone dato dai cinesi di DeepSeek alla borsa americana, riporta il ragionamento sui fatti concreti. “Vorrei ragionare partendo dalla notizia scientifica, pubblicata nei giorni scorsi. In sostanza siamo in presenza di un’azienda informatica chiamata DeepSeek, che ha sviluppato dei modelli di Intelligenza artificiale con prestazioni equivalenti a quelle dei migliori modelli di OpenAI e Google, con costi di addestramento (ovvero tempi di calcolo) molto inferiori. Stiamo parlando di DeepSeek V3 e DeepSeek R1”.
D’accordo, professore. Ma in concreto perché abbiamo avuto questi effetti sui mercati?
“La prima parte della notizia, vale a dire lo sviluppo di modelli di intelligenza artificiale, non è sorprendente: in Cina ci sono ovviamente le stesse competenze e risorse tecnologiche che esistono nelle altre parti del mondo, e i ricercatori cinesi sono di ottimo livello e partecipano e contribuiscono alle stesse conferenze scientifiche”.
E allora?
“La seconda parte della notizia, vale a dire quella per cui DeepSeek ha sviluppato modelli di intelligenza artificiale con prestazioni equivalenti a quelli dei migliori esempi americani ma con costi di addestramento inferiori, ha stupito alcuni investitori, perché si chiedono se questo renda meno importanti gli investimenti fatti nel campo dell’hardware e, in particolare, per la creazione di enormi centri di calcolo che contengono centinaia di migliaia di GPUs (i microprocessori utilizzati per lo sviluppo dell’intelligenza artificiale, ndr”.
In sostanza, se ho ben capito, il succo del ragionamento è che i cinesi di DeepSeek hanno messo a punto un software che ha bisogno di molte meno risorse per funzionare e per dare i risultati soddisfacenti…
“In realtà, questo obiettivo della riduzione di risorse, è perseguito da tempo da quasi ogni azienda, ed è probabile che ci saranno ulteriori risparmi in futuro. Questo non vuole dire che non avremo bisogno dei centri di calcolo: nelle ultime generazioni di modelli, le GPU non si usano solo per il ‘pre-addestramento’ iniziale, ma servono risorse significative anche al momento di rispondere a ciascuna domanda”.
Ma che cosa caratterizza, allora, la startup cinese?
“È interessante notare che i risultati dell’azienda DeepSeek siano stati rilasciati in open-source, permettendo ai ricercatori di tutto il mondo di studiarli e anche usarli, o modificarli se necessario. La stessa scelta è stata fatta da Meta”.
Quali sono i vantaggi per gli utenti?
“Dal punto di vista scientifico, la notizia più importante, per me, è che gli stessi metodi, seguiti indipendentemente da gruppi diversi, stanno dando risultati equivalenti. Questo ci dovrebbe confortare nell’idea che la nuova classe di metodi per l’intelligenza artificiale funziona in modo ripetibile e replicabile. Sono procedure affidabili e risultati riproducibili”.
E poi?
“Il modello DeepSeek R1 ottiene prestazioni uguali al modello o3 di OpenAI, ovvero è capace di ragionamento esplicito, un’abilità che mancava fino allo scorso settembre, e che permette di risolvere problemi complessi nelle scienze esatte, come la fisica e la matematica. È anche importante per la programmazione dei computer, un settore molto promettente per questi modelli di AI”.
Avremo presto, in sostanza, computer in grado di ragionare come gli esseri umani?
“Le prestazioni di tutti questi nuovi modelli (non solo quello di DeepSeek) stanno ormai avvicinando le prestazioni umane in molti domini, e si comincia a parlare seriamente del traguardo in cui un IA ci potrebbe eguagliare in quasi tutte le nostre competenze intellettuali”.