DeepSeek scuote le Big Tech e il mercato dell’IA
Il recente Executive Order del neo presidente degli Stati Uniti Trump ha aperto inediti scenari nel mercato internazionale dell’IA, ma nel corso della medesima settimana il mercato dell’IA ha ricevuto un’ulteriore turbamento, a causa dell’improvvisa ribalta della concorrente app cinese DeepSeek.

Il recente Executive Order del neo presidente degli Stati Uniti Trump ha aperto inediti scenari nel mercato internazionale dell’IA, rimuovendo le Linee Guida sull’intelligenza artificiale approvate nella precedente legislatura Biden, e finalizzate all’imposizione di standard da raggiungere e limiti da non valicare per le imprese operanti nel settore.
Nel corso della medesima settimana, peraltro, il mercato dell’IA ha ricevuto un’ulteriore turbamento, a causa dell’improvvisa ribalta della concorrente app cinese DeepSeek.
DeepSeek è stata infatti l’app gratuita più scaricata sull’App Store statunitense di Apple nel corso del weekend, sorprendendo gli investitori e sfidando i principali attori americani come OpenAI, Google e Meta. La sua ultima versione è stata rilasciata il 20 gennaio, catturando l’attenzione dell’intero settore tecnologico e della scena internazionale.
Lunedì 27 gennaio, inoltre, il nuovo chatbot AI ha innescato una massiccia svendita di importanti azioni tecnologiche (basti pensare che le azioni del colosso Nvidia, ad esempio, sono crollate del 17% entro la chiusura dei mercati statunitensi di lunedì), mettendo in discussione la consolidata leadership americana nel settore.
Cosa rende DeepSeek così competitiva?
Prima di analizzare le caratteristiche di questa AI, occorre precisare che numerose versioni dell’applicazione sono state rilasciate nel corso degli ultimi due anni:
- DeepSeek Coder (novembre 2023): uno strumento open source per le attività di codifica.
- DeepSeek LLM (67B parametri): compete con modelli linguistici di grandi dimensioni.
- DeepSeek-V2 (maggio 2024): un modello conveniente che ha scatenato una guerra dei prezzi in Cina.
- DeepSeek-Coder-V2 : un potente modello di codifica con 236B di parametri.
- DeepSeek-V3 : un modello di parametri 671B che eccelle nei benchmark con meno risorse.
- DeepSeek-R1 (gennaio 2025): un modello incentrato sul ragionamento che rivaleggia con i migliori modelli di OpenAI.
A prima vista, DeepSeek non sembrerebbe avere prestazioni dissimili da quelle della statunitense ChatGPT, in termini di capacità relazionale, di precisione e pertinenza dei risultati offerti.
In realtà, ciò che renderebbe DeepSeek così speciale e un prodotto competitivo sul mercato è il fatto che l’azienda afferma di aver realizzato l’applicazione a una frazione del costo di modelli leader del settore come OpenAI.
Nel complesso, l’azienda dichiara che DeepSeek si basa su un modello open source, dotato delle seguenti caratteristiche che ne determinerebbero il successo sul mercato:
- Apprendimento per rinforzo (RL) : i modelli apprendono e migliorano attraverso tentativi ed errori, migliorando le capacità di ragionamento.
- Architettura Mixture-of-Experts (MoE) : attiva solo i parametri rilevanti per ogni attività, riducendo i costi e aumentando l’efficienza.
- Multi-Head Latent Attention (MLA) : che riduce l’utilizzo della memoria a solo il 5-13% di quanto consuma l’architettura MHA più comune.
- Distillazione : le informazioni vengono trasferite da modelli più grandi a modelli più piccoli, rendendo l’intelligenza artificiale accessibile su diversi dispositivi.
Al di là di tali caratteristiche, è evidente che il modello di DeepSeek abbia fortemente scosso il mercato per aver dimostrato che è possibile realizzare prodotti basati sull’IA con minori risorse di elaborazione (solo 50.000 GPU, a fronte delle 500.000 per i modelli di IA statunitensi). Ciò è evidente anche nei suoi costi di formazione ridotti e nei prezzi bassi delle API. Ad esempio, l’API di DeepSeek-R1 è significativamente più economica di quella di concorrenti come OpenAI, rendendola più accessibile alle piccole aziende e agli sviluppatori.
Il suo modello open source elimina anche i costi di licenza, incoraggiando la collaborazione della comunità: il modello è infatti sviluppato da un team con sostanzialmente meno anni di esperienza collettiva rispetto ai laboratori di intelligenza artificiale più affermati, ma resi disponibili in formato open; rendendo il loro modello open source, infatti, DeepSeek consente agli sviluppatori di tutto il mondo di accedere, modificare e migliorare il codice sottostante, consentendo miglioramenti e adattamenti della tecnologia guidati dalla comunità.
In conclusione, il successo di DeepSeek deriva principalmente dal suo approccio pionieristico all’architettura dei modelli. Al contempo, tuttavia, l’azienda si trova a fronteggiare diversi ostacoli, tra cui:
- l’accesso limitato all’hardware avanzato a causa dei controlli sulle esportazioni degli Stati Uniti;
- l’utilizzo, per l’effetto, di chip aventi prestazioni più scarse;
- preoccupazioni sulla censura che ostacolano l’adozione globale e scetticismo sul suo approccio conveniente.
Al di là dei molteplici ostacoli di natura tecnica, tale tecnologia rischia di subire significative battute di arresto, se il design tecnico non è adeguatamente supportato da un robusto legal design, che tenga conto delle potenziali ricadute giuridiche connesse all’uso di tale strumento, che potrebbero neutralizzare la ventata innovativa e pioneristica di tale modello. Tra le varie criticità, la protezione dei dati personali risulta centrale, come confermato anche dalla recente Richiesta di informazioni, formulata dal Garante per la protezione dei dati personali italiano.
Di Alessia Palladino
Assegnista di ricerca e Cultore della Materia in «Informatica giuridica» e «Computer Law» presso l’Università degli Studi di Cagliari