Perché l’Ai cinese di DeepSeek può sgonfiare la bolla Usa

Quali sono le particolarità di DeepSeek e perché ha creato uno scossone tra i colossi dell'Ai statunitensi e i loro immensi investimenti e guadagni (in borsa)

Un Llm (Large Language Model) open-source ben allenato e ottimizzato non necessita di tanti chip di elaborazione (Gpu), consuma poca energia e ha prestazioni paragonabili ad Llm proprietari. È questo quello che ha dimostrato DeepSeek, azienda cinese, con il suo modello R1 lanciato a gennaio 2025: basato sul motore V3, sfida e batte i grandi modelli di OpenAi, Anthropic e Alibaba. Secondo alcune fonti lo ha fatto con sole 2.048 Gpu di potenza ridotta (Nvidia A800) e 600 kW di energy footprint, secondo altre, da qualche parte ci sarebbero 50 mila Gpu di alta capacità sfuggite alle restrizioni Usa. L'ordine di grandezza sinora dichiarato dai colossi Ai Usa per far funzionare un Llm è di diverse centinaia di migliaia di Gpu. Resta il fatto che al momento R1 ha capacità di ragionamento avanzate (rispetto alla concorrenza) e accesso al web.

DeepSeek e la concorrenza

DeepSeek è stato fondata nel 2023  da Liang Wenfeng e nel 2024 ha lanciato v3 e nel 2025 prima R1 e poi Janus. Si tratta di un’iniziativa di High-Flyer, un hedge fund cinese che per anni ha usato l’Ai per analisi finanziarie per poi dedicarsi ad un’Ai generalista. La tecnica principale del V3 è il test time scaling, un nuovo modo di adattare la potenza di elaborazione (scaling) nella fase di inferenza (test) di un modello Ai, migliorando la qualità delle risposte generate dai modelli, specialmente in compiti complessi di ragionamento. Si aggiunge agli scaling fatti in pre-training e in post-training.

La tecnica principale del V3 è il test time scaling, un nuovo modo di adattare la potenza di elaborazione (scaling) nella fase di inferenza (test) di un modello Ai, migliorando la qualità delle risposte generate dai modelli, specialmente in compiti complessi di ragionamento. Si aggiunge agli scaling fatti in pre-training e in post-training. L’investimento necessario per allenare V3 è stato tra 5 e 6 milioni di dollari. Bruscolini, rispetto ai 100 milioni tipici prima di lei. Per provarla potete cliccare qui, ma vista l’esplosione d’interesse, la registrazione potrebbe non essere veloce.

Nel mondo del software, parlando di V3 si sottolinea l’importanza dell’open source rispetto ai sistemi proprietari. L’aspetto più rilevante sembra però essere un altro: si può fare Ai training senza datacenter grandi quanto metà Manhattan, come recentemente annunciato da Meta a riguardo dell’impianto a Richland Parish, in Louisiana. Inoltre, nella notte del 27 gennaio europeo, DeepSeek ha rilasciato un altro modello Ai open source, Janus-Pro-7B. Può generare non solo testo ma anche immagini (multimodale). Nei benchmark GenEval e Dpg-Bench supera Dall-E3 e Stable Diffusion. Il modello impiega un nuovo framework autoregressivo che disaccoppia la codifica visiva in percorsi separati con un'architettura di trasformatore unificata.

L’Ai è in una bolla finanziaria?

Il modello di business e finanza degli americani è basato sul "metodo a forza bruta". Hardware pesante e software proprietario richiedono enormi investimenti ed enormi consumi, ma questo promette enormi guadagni e valutazioni borsistiche sempre più alte. Ne fanno parte svariate iniziative, che dal Project Digits (desktop Ai datacenter) di Nvidia vanno ai modelli Gpt/OpenAi e Gemini/Google, fino ai super datacenter nucleari da 5 GW vagheggiati (tra gli altri) da Sam Altman proprio di OpenAi e al progetto Stargate di Trump (125 miliardi di dollari l’anno, per 4 anni, per l’Ai).

L’approccio all’Ai dei grandi colossi Usa è stato finora di questo tipo. I risultati ci sono, ma non sono ottimizzati come si lascia intendere. La parte di hype mediatico che non è supportata da risultati genera le supervalutazioni delle azioni note come Ai bubble, la bolla dell’Ai. Gli osservatori notano che al successo di DeepSeek ha fatto seguito il crollo di Nvidia, che il 27 gennaio ha perso il 18% in un giorno. Ma la finanza d’oggi perde e recupera quasi quanto Bitcoin (che sempre il 27 gennaio ha perso fino al 4,3%). Ed è forse opportuno notare che nel campo dell’Ai le cose stanno cambiando con velocità e modalità assolutamente imprevedibili e a quanto si legge dai post su X le contromosse non tarderanno a giungere.

Restano questioni di sicurezza e politica dei dati

C’è poi chi si preoccupa di privacy. L’approccio cinese alla privacy del singolo è molto diverso dal nostro, sia perché la mentalità locale è più direttamente utilitaristica, sia perché le grandi piattaforme gestiscono l’intero ciclo di vita di un prodotto o servizio, compresa la consegna e la riscossione dell’importo e quindi sono abituate da vent’anni ad usare anche quei dati. Nel caso di DeepSeek, c’è chi nota che, essendo cinese, il filtro sull’informazione è forte e che il Partito potrebbe anche valutare negativamente questo motore. Nonostante il basso costo dell’uso in programmazione, con l’accesso tramite Api al 3 o 4% del prezzo dei competitor, l’incertezza “politica” renderebbe molto rischioso l’uso di DeepSeek in campo aziendale. Ma il 3% del costo è un indicatore decisamente interessante...

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome