New York, 27 gennaio 2025 - DeepSeek, il Temu dell’intelligenza artificiale, non fa paura solo ai mercati. Lunedì scorso la startup cinese specializzata in intelligenza artificiale ha lanciato il suo modello R1, dimostrando che è possibile raggiungere prestazioni paragonabili o superiori a quelle dei giganti americani con un investimento nettamente inferiore. Al centro di questa sfida tecnologica, economica e politica ci sono chip di silicio di pochi millimetri quadrati.
L’innovazione di DeepSeek
DeepSeek, con sede a Hangzhou, è guidata dal gestore di hedge fund Liang Wenfeng. Il suo nuovo modello, l’R1, si appoggia sull’infrastruttura V3, che è stata sviluppata in soli due mesi con un budget, secondo quanto dichiarato dai tecnici cinesi, inferiore ai 6 milioni di dollari. Una cifra che diversi analisti hanno messo in dubbio, ma che se confermata sarebbe una frazione rispetto alle risorse investite dai colossi americani: OpenAI, ad esempio, spende annualmente circa 5 miliardi di dollari per lo sviluppo dei suoi modelli. Meta, secondo quanto dichiarato dallo stesso Mark Zuckerberg, nel 2025 è pronta a investire 65 miliardi nell’intelligenza artificiale. Si tratta di ordini di grandezza che non sono minimamente comparabili, mentre i risultati finali lo sono e, in molti parametri chiave, vedrebbero DeepSeek in testa.
La scelta strategica
Il successo di DeepSeek è in gran parte attribuibile al suo approccio innovativo nell'utilizzo dei microprocessori. Mentre aziende come OpenAI e Meta investono miliardi in chip avanzati, DeepSeek ha perfezionato l'impiego di chip meno sofisticati e veloci, abbattendo i costi senza sacrificare le prestazioni. E gli effetti si sono fatti sentire immediatamente: Nvidia, il colosso americano che progetta i microprocessori più utilizzati nel campo dell’intelligenza artificiale, solo oggi ha perso 300 miliardi di dollari di capitalizzazione, il peggiore crollo mai registrato da qualsiasi azienda nella storia di Wall Street. DeepSeek ha utilizzato i chip Nvidia H800 per addestrare il suo modello AI. Questi chip sono meno potenti rispetto ai modelli più avanzati, come gli A100 e gli H100, che sono soggetti a restrizioni di esportazione dagli Stati Uniti verso la Cina. Pur utilizzando hardware meno avanzato, DeepSeek ha saputo massimizzare l’efficienza del suo modello AI, mettendo in discussione la necessità di investimenti massicci in infrastrutture AI da parte delle grandi aziende tecnologiche.
Le implicazioni
La capacità di DeepSeek di ottenere risultati comparabili ai colossi Usa con risorse limitate suggerisce che l'efficienza potrebbe prevalere sull'importanza della potenza computazionale pura. Gli analisti in queste ore si stanno interrogando sulla sostenibilità delle attuali strategie di investimento nell'AI e sulle possibili ripercussioni per il settore dei semiconduttori. Ma non tutti vedono un orizzonte oscuro (anche per Nvidia). Dylan Patel, analista della società di consulenza sui chip SemiAnalysis, afferma che ridurre i costi per l'addestramento e l'esecuzione dei modelli di intelligenza artificiale, a lungo termine, renderebbe più facile ed economico per aziende e consumatori adottare applicazioni basate sull'AI. "I progressi nell'efficienza di addestramento e inferenza permettono una maggiore scalabilità e diffusione dell'AI. Questo fenomeno – conclude Patel - si è verificato nell'industria dei semiconduttori per decenni, dove la legge di Moore ha portato a un dimezzamento dei costi ogni due anni, mentre il settore continuava a crescere e aggiungere nuove capacità ai chip”.