I 20+ migliori produttori di chip per l'intelligenza artificiale: NVIDIA e i suoi concorrenti
In base alla nostra esperienza con il benchmark GPU cloud di AIMultiple, eseguito con 10 diversi modelli di GPU in 4 scenari differenti, queste sono le aziende leader nell'hardware AI per i carichi di lavoro dei data center. Seguite i link per scoprire le motivazioni alla base di ciascuna selezione:
Oltre 20 produttori di chip per l'intelligenza artificiale, suddivisi per categoria.
Questi produttori di chip si concentrano sui chip per data center:
*I modelli selezionati si basano sugli annunci più recenti.
**ACCEL è stato sviluppato da scienziati cinesi in collaborazione con Alibaba e la società cinese Semiconductor Manufacturing International Corporation (SMIC)** 1
L'ordinamento avviene per categoria. I fornitori sono classificati in base alla quota di mercato stimata nelle prime 3 categorie (ovvero, produttore leader, cloud pubblico, cloud pubblico per l'IA) perché è possibile stimare i dati di vendita o l'utilizzo del cloud. I fornitori nelle ultime tre categorie (ovvero, startup nel settore dell'IA, produttore emergente, altri produttori) sono ordinati alfabeticamente.
5 fornitori di chip per intelligenza artificiale mobile
*Vengono selezionate le patatine più popolari e recenti.
5 chip AI Edge
La crescente richiesta di elaborazione a bassa latenza ha stimolato l'innovazione nei chip per l'intelligenza artificiale distribuita (edge AI). I processori di questi chip sono progettati per eseguire calcoli di intelligenza artificiale localmente sui dispositivi, anziché affidarsi a soluzioni basate sul cloud.
*Questi sono i valori massimi indicati dai fornitori. TOPS indica tera operazioni al secondo.
Comprendere le architetture dei chip per l'intelligenza artificiale: GPU vs. ASIC
Non tutti i chip per l'intelligenza artificiale sono uguali. Sebbene i fornitori sopracitati operino nello stesso mercato, utilizzano architetture di chip fondamentalmente diverse:
- Le GPU (Graphics Processing Units) sono processori generici in grado di gestire sia l'addestramento che l'inferenza su un'ampia gamma di carichi di lavoro di intelligenza artificiale. I modelli NVIDIA e AMD dominano questa categoria.
- Gli ASIC (Application-Specific Integrated Circuits) sono circuiti integrati specifici progettati su misura per determinate attività. Alcuni supportano sia l'addestramento che l'inferenza (Google TPU, AWS Trainium), mentre altri sono dedicati esclusivamente all'inferenza (Groq LPU, AWS Inferentia).
Approfondimento chiave:
Non tutti gli ASIC sono dedicati esclusivamente all'inferenza. Google TPU, AWS Trainium, Cerebras e SambaNova supportano sia l'addestramento che l'inferenza, mentre Groq LPU e AWS Inferentia si concentrano esclusivamente sull'inferenza.
Questa distinzione è importante per gli acquirenti: le GPU offrono flessibilità in diversi carichi di lavoro di intelligenza artificiale, mentre gli ASIC offrono prestazioni migliori per watt ma sono più difficili da riprogrammare quando cambiano le architetture dei modelli.
Secondo TrendForce 2 Sulla base dei tassi di crescita delle spedizioni di server AI, si prevede che le spedizioni di ASIC personalizzati da parte dei fornitori di servizi cloud cresceranno del 44,6% nel 2026, mentre le spedizioni di GPU dovrebbero crescere del 16,1%. Ciò segnala un cambiamento nel panorama hardware dell'IA, poiché gli hyperscaler investono sempre di più nei propri chip.
Quali sono i principali produttori di chip per l'intelligenza artificiale?
1. NVIDIA
NVIDIA progetta unità di elaborazione grafica (GPU) per il settore dei videogiochi sin dagli anni '90. NVIDIA è un produttore di chip fabless che esternalizza la maggior parte della sua produzione di chip a TSMC . Le sue principali attività includono:
Soluzioni di intelligenza artificiale per desktop
DGX Spark (precedentemente Project Digits) è un supercomputer desktop per l'intelligenza artificiale, destinato a ingegneri e data scientist, che offre le seguenti funzionalità:
- Il costo previsto si aggira intorno ai 3.000 dollari.
- Ha all'incirca le stesse dimensioni di un Mac mini ed è alimentato dal Superchip Grace Blackwell GB10 NVIDIA con 128 GB di memoria.
- In grado di gestire l'inferenza LLM e la messa a punto di modelli con fino a 200 miliardi di parametri, sfruttando NVLink-C2C per una comunicazione CPU+GPU ad alta velocità.
Soluzioni per data center
L'azienda produce chip per l'intelligenza artificiale basati sulle architetture Ampere, Hopper e, più recentemente, Blackwell. Grazie al boom dell'IA generativa , NVIDIA ha ottenuto risultati eccellenti negli ultimi anni, raggiungendo una valutazione di mille miliardi di dollari e consolidando la sua posizione di leader nei mercati hardware per GPU e IA. Il grafico seguente mostra come il fatturato di NVIDIA in questo segmento sia cresciuto nel corso degli anni e come sia diventato la principale fonte di reddito dell'azienda.
I chipset di Nvidia sono progettati per risolvere problemi aziendali in diversi settori. DGX™ A100 e H100 sono stati i chip AI di punta di Nvidia, progettati per l'addestramento e l'inferenza dell'IA nei data center. 3 NVIDIA hanno dato seguito a questi con
- Chip H200, B300 e GB300
- Server HGX come HGX H200 e HGX B300 che combinano 8 di questi chip
- Le serie NVL e GB200 SuperPod combinano un numero ancora maggiore di chip in grandi cluster. 4
GPU cloud
Grazie alla solidità della sua offerta di data center, NVIDIA detiene quasi il monopolio del mercato dell'IA cloud, con la maggior parte dei fornitori di servizi cloud che offrono solo GPU NVIDIA come GPU cloud .
NVIDIA ha inoltre lanciato la sua offerta DGX Cloud , fornendo infrastrutture GPU cloud direttamente alle aziende, bypassando i fornitori di servizi cloud.
GPU per la grafica
Xbox utilizza un chipset sviluppato congiuntamente da NVIDIA e Microsoft. Le GPU di NVIDIA per gli utenti al dettaglio includono la serie GeForce.
Sviluppi recenti
DGX Cloud Lepton
Annunciato il 19 maggio 2025 al Computex, DGX Cloud Lepton di NVIDIA è un marketplace che collega gli sviluppatori di IA ai provider di cloud GPU di NVIDIA, come CoreWeave, Lambda e Crusoe. Consente un accesso flessibile alle risorse GPU per l'addestramento e l'inferenza dei modelli di IA, bypassando le tradizionali dipendenze dai provider di cloud. Ciò rafforza la strategia cloud di NVIDIA focalizzata sulle aziende. 5
NVIDIA Dinamo
Dynamo, annunciato al GTC 2025, è un nuovo framework di inferenza open-source progettato per l'implementazione ad alta velocità e bassa latenza di modelli di IA generativa in ambienti distribuiti, aumentando la velocità di gestione delle richieste fino a 30 volte su Blackwell, come mostrato nella figura seguente. Questo framework, compatibile con strumenti popolari come PyTorch e TensorRT-LLM, utilizza innovazioni come fasi di inferenza disaggregate e pianificazione dinamica della GPU per ottimizzare le prestazioni e ridurre i costi. Disponibile su GitHub per gli sviluppatori e incluso nei microservizi NIM per soluzioni aziendali, Dynamo facilita l'erogazione scalabile ed economica di IA generativa da sistemi a singola GPU a sistemi multi-GPU. 6
NVIDIA Server RTX PRO e Enterprise AI Factory
Annunciati a maggio 2025 al Computex, NVIDIA ha introdotto i server RTX PRO basati su GPU RTX PRO 6000 Blackwell Server Edition, progettati per le aziende che sviluppano IA. Questi server offrono un'accelerazione universale per applicazioni di IA, progettazione, ingegneria e business, supportando carichi di lavoro come l'inferenza IA multimodale, l'IA fisica e i gemelli digitali sulla piattaforma NVIDIA Omniverse.
Il design validato di NVIDIA Enterprise AI Factory, che incorpora server RTX PRO, Ethernet NVIDIA Spectrum-X, DPU NVIDIA BlueField e il software NVIDIA AI Enterprise, consente a partner come Cadence, Foxconn e Lilly di creare infrastrutture AI on-premise. Questa iniziativa accelera la transizione del settore IT, del valore di mille miliardi di dollari, verso le fabbriche di intelligenza artificiale accelerate da GPU. 8
DeepSeek
Il rilascio dell'R1 di DeepSeek ha dimostrato che i modelli all'avanguardia potevano essere addestrati con un numero relativamente piccolo di GPU. Ciò ha portato a una riduzione del prezzo delle azioni di NVIDIA. Sebbene questo non sia un consiglio di investimento, ciò può essere positivo per NVIDIA poiché maggiore è l'utilità fornita dalla potenza di calcolo, più ampiamente dovrebbe essere utilizzata (ovvero, il paradosso di Jevons). 9 ).
Tuttavia, dato che le prestazioni dei sistemi GPU migliorano più volte all'anno grazie ai progressi nella progettazione dei chip e nelle interconnessioni, sarebbe saggio per gli acquirenti non acquistare più di quanto necessario per l'anno a venire, poiché ciò potrebbe comportare il possesso di sistemi obsoleti.
Tariffe e restrizioni all'esportazione
NVIDIA ora è autorizzato a esportare processori AI avanzati sul mercato cinese, segnando un cambiamento rispetto ai precedenti requisiti che imponevano la vendita solo di versioni depotenziate. Tuttavia, queste esportazioni si scontrano con nuovi ostacoli logistici e finanziari: i chip prodotti a Taiwan devono ora passare attraverso gli Stati Uniti per i test di terze parti, il che fa scattare una nuova tariffa del 25% per motivi di sicurezza nazionale.
Nonostante il ripristino dell'accesso all'hardware di fascia alta, i costi aggiuntivi e la complessità della catena di approvvigionamento continuano a incentivare il governo cinese e l'industria dei semiconduttori a sviluppare alternative locali competitive. Sebbene i chip cinesi attualmente non raggiungano le prestazioni della tecnologia più recente di NVIDIA, queste barriere commerciali garantiscono che lo sviluppo interno rimanga una priorità strategica, potenzialmente in grado di sfidare il dominio di mercato di NVIDIA in futuro. 10
Concorrenza di mercato inferenziale
Mentre NVIDIA domina il mercato dell'“addestramento” dell'IA, la concorrenza si sta intensificando nell'“inferenza”, ovvero l'applicazione di modelli di IA a compiti reali. Aziende come AMD e numerose startup, tra cui Untether AI e Groq, stanno sviluppando chip che mirano a fornire soluzioni di inferenza più economiche, concentrandosi in particolare sul basso consumo energetico.
Le nuove tecniche di IA basate sul "ragionamento" richiedono maggiore potenza di calcolo. NVIDIA ritiene che il ragionamento favorirà la sua architettura nel lungo periodo e prevede che il mercato dell'inferenza supererà alla fine quello dell'addestramento in termini di dimensioni, anche se la sua quota di mercato è inferiore. 11
2. AMD
AMD è un produttore di chip fabless con prodotti CPU, GPU e acceleratori di intelligenza artificiale.
AMD ha lanciato MI300 per i carichi di lavoro di addestramento dell'IA nel giugno 2023 e compete con NVIDIA per la quota di mercato. Ci sono startup, istituti di ricerca, aziende e giganti della tecnologia che hanno adottato l'hardware AMD nel 2023 poiché l'hardware AI di Nvidia è stato difficile da reperire a causa della domanda in rapida crescita, con l'ascesa dell'IA generativa innescata dal lancio di ChatGPT . 12 13 14 15
Nel 2025, AMD ha annunciato l'acquisizione di un talentuoso team di ingegneri hardware e software per l'IA da Untether AI, sviluppatore di chip per l'inferenza AI a basso consumo energetico per provider edge e data center aziendali. Questa operazione potenzia le capacità di AMD in materia di compilatori AI, sviluppo del kernel e progettazione di chip, rafforzando ulteriormente la sua posizione nel mercato dell'inferenza. Inoltre, AMD ha acquisito la startup di compilatori Brium per ottimizzare le prestazioni dell'IA sulle sue GPU Instinct per data center destinate ad applicazioni aziendali. 16
AMD rilascerà la serie MI350 per sostituire la MI300 e competere con l'H200 di NVIDIA. AMD afferma che l'MI325X, un altro chip recente, ha prestazioni di inferenza leader di mercato. 17
AMD sta inoltre collaborando con aziende di machine learning come Hugging Face per consentire agli scienziati dei dati di utilizzare il proprio hardware in modo più efficiente. 18
L'ecosistema software è fondamentale, poiché le prestazioni hardware dipendono fortemente dall'ottimizzazione del software. Ad esempio, AMD e NVIDIA hanno avuto un disaccordo pubblico sul benchmarking di H100 e MI300. Il punto centrale del disaccordo riguardava il pacchetto e il tipo di virgola mobile da utilizzare nel benchmark. Secondo i benchmark più recenti, sembra che MI300 sia migliore o alla pari con H100 per l'inferenza su un LLM a 70 bit. 19 20
Software
Mentre l'hardware AMD sta recuperando terreno rispetto a NVIDIA, il suo software è indietro in termini di usabilità. Mentre CUDA funziona immediatamente per la maggior parte delle attività, il software AMD richiede una configurazione significativa. 21
Ecosistema
Come NVIDIA, anche AMD sta investendo in modo selettivo negli utenti delle sue soluzioni per promuovere l'adozione del suo hardware. 22
3. Intel
Intel è il principale attore nel mercato delle CPU e vanta una lunga storia nello sviluppo di semiconduttori. A differenza di NVIDIA e AMD, Intel utilizza una propria fonderia per la produzione dei suoi chip.
Gaudi3 è l'ultimo processore acceleratore AI di Intel. 23 Tuttavia, le previsioni di vendita di Intel per Gaudi3 erano di circa 500 milioni di dollari per il 2024, una cifra significativamente inferiore rispetto ai miliardi che AMD prevede di guadagnare nel 2024.
Intel sta affrontando problemi di governance, come dimostra l'abbandono del suo CEO Pat Gelsinger nel dicembre 2024. Una parte significativa dei membri del consiglio di amministrazione di Intel non ha esperienza nella gestione operativa di un'azienda di semiconduttori. 24 In seguito alla partenza del suo CEO, la strategia di Intel nei mercati dell'IA e delle fonderie rimane poco chiara.
Quali fornitori di cloud pubblico producono chip per l'intelligenza artificiale?
4. AWS
AWS produce chip Tranium per l'addestramento dei modelli e chip Inferentia per l'inferenza. Sebbene AWS sia leader di mercato nel cloud pubblico, ha iniziato a sviluppare i propri chip dopo il Google.
Centinaia di migliaia di chip Tranium2 vengono utilizzati per formare il cluster Project Rainier, che alimenta i modelli dello sviluppatore LLM Anthropic.
5. Google Piattaforma Cloud
Google Cloud TPU è il chip acceleratore di machine learning appositamente progettato che alimenta i prodotti Google come Traduttore, Foto, Ricerca, Assistente e Gmail. Può essere utilizzato anche tramite Google Cloud. Google ha annunciato le TPU nel 2016. 25 Il più recente Trillium TPU è di sesta generazione. 26
Google ha introdotto Ironwood. Questa ultima generazione è specificamente progettata per "modelli di pensiero" complessi come LLM e MoE, offrendo un'elaborazione parallela massiva (4.614 TFLOPs per chip) e una scalabilità fino a 42,5 Exaflops in pod da 9.216 chip. 27
Ironwood offre significativi miglioramenti rispetto a Trillium, tra cui un'efficienza energetica doppia, una capacità di memoria ad alta larghezza di banda sei volte superiore (192 GB/chip), una larghezza di banda HBM 4,5 volte maggiore (7,2 TBps/chip) e una velocità di interconnessione tra chip 1,5 volte superiore (1,2 Tbps). È inoltre dotato di uno SparseCore migliorato per integrazioni di grandi dimensioni. Google produce anche l'Edge TPU, molto più piccolo, per esigenze diverse, progettato per l'implementazione su dispositivi edge come smartphone e hardware IoT.
6. Alibaba
Alibaba produce chip come l'Hanguang 800 per l'inferenza. Tuttavia, alcune organizzazioni nordamericane, europee e australiane (ad esempio, quelle del settore della difesa) potrebbero non preferire l'utilizzo del Alibaba Cloud per ragioni geopolitiche.
7. IBM
IBM ha annunciato il suo ultimo chip per il deep learning, l'unità di intelligenza artificiale (AIU), nel 2022. 28 IBM sta valutando l'utilizzo di questi chip per alimentare la sua piattaforma di intelligenza artificiale generativa Watsonx. 29
AIU si basa sul processore Telum “IBM ”, che alimenta le capacità di elaborazione AI dei server mainframe Z IBM. Al momento del lancio, tra i casi d'uso principali dei processori Telum figurava il rilevamento delle frodi . 30
Il progetto IBM ha inoltre dimostrato che la fusione di calcolo e memoria può portare a una maggiore efficienza. Ciò è stato dimostrato nel prototipo di processore North Pole. 31
8. Huawei
Il chip HiSilicon Ascend 910C (codice Huawei) fa parte della famiglia di chip Ascend 910, introdotta nel 2019.
A causa delle sanzioni, i laboratori di intelligenza artificiale in Cina non possono acquistare i chip più recenti e performanti da aziende statunitensi come NVIDIA o AMD. Pertanto, stanno sperimentando con Ascend 910C.
Il cloud di Huawei ospita i modelli di DeepSeek e un ricercatore di DeepSeek afferma che può raggiungere il 60% delle prestazioni di inferenza H100 di NVIDIA. 32 33
Quali fornitori di intelligenza artificiale cloud producono i propri chip?
Questi fornitori non dispongono di cloud pubblici con funzionalità complete come gli hyperscaler. Offrono servizi cloud limitati, in genere focalizzati sull'inferenza AI. Siamo riusciti ad abbonarci a questi servizi senza dover parlare con i team di vendita:
8. Groq
Groq è stata fondata da ex dipendenti di Google. L'azienda rappresenta le LPU, un nuovo modello per l'architettura dei chip AI, che mira a semplificare l'adozione dei loro sistemi da parte delle aziende. La startup ha già raccolto circa 350 milioni di dollari e prodotto i suoi primi modelli, come GroqChip™ Processor, GroqCard™ Accelerator, ecc.
L'azienda è focalizzata sull'inferenza LLM e ha rilasciato i benchmark per Llama-2 70B. 34
Di recente, Groq si è assicurata un importante investimento di 1,5 miliardi di dollari dall'Arabia Saudita per espandere la fornitura dei suoi chip di intelligenza artificiale avanzati nel Paese. Questo investimento verrà utilizzato per ampliare il data center di Groq a Dammam, in Arabia Saudita, costruito in collaborazione con Aramco Digital. 35
Nel primo trimestre del 2024, l'azienda ha comunicato che 70.000 sviluppatori si sono registrati sulla sua piattaforma cloud e hanno creato 19.000 nuove applicazioni. 36
Il 1° marzo 2022, Groq ha acquisito Maxeler, azienda specializzata in soluzioni di calcolo ad alte prestazioni (HPC) per il settore dei servizi finanziari. 37
9. SambaNova Sistemi
SambaNova Systems è stata fondata nel 2017 per sviluppare sistemi hardware-software ad alte prestazioni e alta precisione per carichi di lavoro di intelligenza artificiale generativa ad alto volume. L'azienda ha raccolto oltre 1,5 miliardi di dollari in finanziamenti totali, inclusi 350 milioni di dollari in un round di Serie E nel febbraio 2026. 38
Nel febbraio 2026, SambaNova ha presentato il chip SN50, la sua ultima unità dati riconfigurabile (RDU), affermando una velocità massima 5 volte superiore rispetto ai chip della concorrenza e un costo totale di proprietà 3 volte inferiore rispetto alle GPU per i carichi di lavoro di intelligenza artificiale agentiva. L'SN50 offre una potenza di calcolo 5 volte superiore per acceleratore e una larghezza di banda di rete 4 volte maggiore rispetto alla precedente generazione SN40L e supporta un'architettura di memoria a tre livelli per modelli con oltre 10 trilioni di parametri e oltre 10 milioni di lunghezze di contesto dei token. 39
SoftBank Corp. sarà il primo cliente a implementare SN50 nei suoi data center di nuova generazione dedicati all'intelligenza artificiale in Giappone.
SambaNova ha inoltre annunciato una collaborazione strategica pluriennale pianificata con Intel per fornire soluzioni di inferenza AI, combinando i sistemi di SambaNova con i processori Xeon di Intel, le GPU di Intel e la rete di Intel per alimentare un'infrastruttura di inferenza scalabile come alternativa alle soluzioni incentrate sulle GPU.
È importante notare che SambaNova Systems offre anche in leasing la sua piattaforma alle aziende tramite SambaCloud. Questo approccio di piattaforma AI come servizio (AI platform-as-a-service) semplifica l'adozione dei loro sistemi e incoraggia il riutilizzo dell'hardware nell'ambito dell'economia circolare. 40
Quali sono le principali startup nel settore dei chip per l'intelligenza artificiale?
Vorremmo inoltre presentarvi alcune startup del settore dei chip per l'intelligenza artificiale, i cui nomi potremmo sentire più spesso in futuro. Pur essendo state fondate di recente, queste aziende hanno già raccolto milioni di dollari.
10. Cerebras
Cerebras è stata fondata nel 2015 ed è l'unico grande produttore di chip specializzato in chip su scala wafer. 41 I chip su scala wafer offrono vantaggi in termini di parallelismo rispetto alle GPU, grazie alla loro maggiore larghezza di banda della memoria. Tuttavia, la progettazione e la produzione di tali chip rappresentano una tecnologia emergente.
I chip Cerebras includono:
- WSE-1 con 1,2 trilioni di transistor e 400.000 core di elaborazione.
- Il WSE-2, con 2,6 trilioni di transistor e 850.000 core, è stato annunciato nell'aprile 2021. Ha sfruttato il processo a 7 nm di TSMC.
- WSE-3, con 4 trilioni di transistor e 900.000 core AI, è stato annunciato nel marzo 2024. Sfrutta il processo a 5 nm di TSMC. 42
Il sistema di Celebra collabora con aziende farmaceutiche come AstraZeneca e GlaxoSmithKline e con laboratori di ricerca che lo utilizzano per le simulazioni. Si rivolge anche ai produttori di modelli lineari lineari (LLM) poiché i suoi chip possono ridurre i costi di inferenza per i modelli di frontiera.
Cerebras offre inoltre i suoi chip sulla propria piattaforma cloud alle aziende.
11. Matrice d
d-Matrix adotta un approccio innovativo, abbandonando la tradizionale architettura di von Neumann a favore del calcolo in memoria. Sebbene questo approccio abbia il potenziale per risolvere il collo di bottiglia tra memoria e potenza di calcolo, si tratta di una soluzione nuova e ancora da testare. 43
12. Ribellioni
Una startup con sede in Corea ha raccolto 124 milioni di dollari nel 2024 ed è specializzata nell'inferenza LLM. 44
Rebellions si è fusa con un'altra azienda coreana di progettazione di semiconduttori, SAPEON, raggiungendo una valutazione da unicorno nel 2024. 45
Nel luglio 2025, Rebellions ha ottenuto un investimento dal colosso tecnologico Samsung nell'ambito di un round di finanziamento mirato a raccogliere fino a 200 milioni di dollari, in vista di una prevista offerta pubblica iniziale (IPO). Dalla sua fondazione nel 2020, l'azienda ha raccolto 220 milioni di dollari e sta collaborando con Samsung per portare sul mercato, entro la fine del 2025, il suo chip di seconda generazione, Rebel-Quad (composto da quattro chip Rebel AI), sfruttando il processo produttivo a 4 nanometri di Samsung. 46
13. Tenstorrent
Il più recente processore Blackhole Tensix di Tenstorrent offre prestazioni pari a 664 TFLOPS (BLOCKFP8), abbinate a 32 GB di memoria GDDR6 e una larghezza di banda di memoria di 512 GB/s.
La scheda P150a ha un prezzo di 1.399 dollari e dispone di quattro porte QSFP-DD 800G per la scalabilità multi-scheda. Il modello base P100a parte da 999 dollari. 47
Tenstorrent offre una suite di software completamente open source. Nel dicembre 2024, l'azienda ha raccolto 700 milioni di dollari, raggiungendo una valutazione di oltre 2,6 miliardi di dollari, da investitori tra cui Jeff Bezos. 48
14. Positrone
Positron è stata fondata nel 2023 e si concentra esclusivamente sull'inferenza di modelli transformer. L'azienda adotta un approccio ASIC, realizzando hardware appositamente ottimizzato per le architetture transformer, anziché per il calcolo GPU generico.
Prodotti:
- Atlas (spedizione immediata): un server di inferenza Transformer dotato di 8 acceleratori Positron Archer Transformer con 256 GB totali di HBM. L'azienda dichiara prestazioni superiori di oltre 4 volte per watt e di oltre 3 volte per dollaro rispetto ai sistemi Hopper NVIDIA, con benchmark su Llama 3.1 8B con potenza di calcolo BF16. 49
- Titan (in arrivo nel 2027): un sistema di nuova generazione con oltre 8 TB di memoria, basato su 4 chip Asimov personalizzati, progettato per supportare modelli con fino a 16 trilioni di parametri e oltre 10 milioni di finestre di contesto dei token in un fattore di forma 4U raffreddato ad aria. 50
- Asimov (in arrivo nel 2027): chip acceleratore di inferenza personalizzato con oltre 2 TB di memoria per chip.
All'inizio del 2026 Positron ha concluso un round di finanziamento di Serie B da oltre 230 milioni di dollari con investitori tra cui QIA, Arm Holdings, Arena e Jump Trading. 51
Atlas è attualmente utilizzato da aziende che operano nei settori del networking, del gaming, della moderazione dei contenuti, delle CDN e del Token-as-a-Service. Positron afferma che il suo sistema Atlas ha dimostrato una latenza end-to-end tre volte inferiore per i carichi di lavoro di inferenza di trading rispetto a sistemi H100 comparabili, consumando al contempo un terzo dell'energia.
I chip di Positron sono progettati, fabbricati e assemblati negli Stati Uniti.
15. _inciso
Il loro approccio sacrifica la flessibilità in favore dell'efficienza, integrando l'architettura del trasformatore direttamente nei chip.
La squadra afferma
- Sohu ha realizzato il primo ASIC al mondo per trasformatori.
- Quegli 8 chip Sohu possono generare >500.000 token/secondo. Questo è un ordine di grandezza superiore a quello che possono raggiungere 8 NVIDIA B200.
Attualmente, questi dati si basano su misurazioni interne del team. Diversi team di IA non hanno ancora trovato benchmark o referenze da parte dei clienti. Siamo curiosi di sapere:
- Cosa succede quando il modello diventa obsoleto? Gli utenti devono acquistare un nuovo chip o è possibile riconfigurare quello vecchio con il modello successivo?
- Come hanno eseguito il loro benchmark? Quali metodi di quantizzazione e modelli sono stati utilizzati?
Aggiorneremo queste informazioni non appena il team di _etched rilascerà ulteriori dettagli. Sarà interessante vedere se la masterizzazione dei modelli su chip si rivelerà una soluzione sostenibile, considerando il rilascio di nuovi modelli ogni pochi mesi.
16. Taalas
Taalas è stata fondata all'inizio del 2023 e adotta l'approccio più estremo alla specializzazione dei chip per l'intelligenza artificiale: integra i singoli modelli direttamente in chip di silicio personalizzati, producendo quelli che l'azienda chiama "modelli hardcore". 52 L'azienda afferma di poter trasformare qualsiasi modello di intelligenza artificiale mai visto prima in un chip personalizzato entro due mesi.
L'architettura di Taalas unifica archiviazione ed elaborazione su un singolo chip con una densità pari a quella delle DRAM, eliminando la necessità di HBM, packaging avanzato, impilamento 3D, raffreddamento a liquido o I/O ad alta velocità. L'azienda descrive questa soluzione come una semplificazione radicale dello stack hardware.
Prodotti:
- HC1 (disponibile ora): un dimostratore tecnologico con Llama 3.1 8B preinstallato, realizzato con processo produttivo TSMC a 6 nm e 53 miliardi di transistor. Taalas dichiara una velocità di 17.000 token al secondo per utente, quasi 10 volte superiore allo stato dell'arte attuale, con un costo di produzione 20 volte inferiore e un consumo energetico 10 volte inferiore in un server raffreddato ad aria da 2,5 kW. Tuttavia, il modello utilizza una quantizzazione personalizzata a 3 e 6 bit, che introduce un degrado della qualità rispetto alle GPU di riferimento. 53
- HC2 (in programma): Una piattaforma di seconda generazione con densità più elevata, esecuzione più veloce e formati standard a virgola mobile a 4 bit per ovviare alle limitazioni di quantizzazione di HC1.
Taalas ha raccolto oltre 200 milioni di dollari, ma dichiara di averne spesi solo 30 milioni per lanciare sul mercato il suo primo prodotto con un team di 24 persone.
17. Estropico
Extropic ha raccolto 14 milioni di dollari in un round di finanziamento alla fine del 2023 per utilizzare la termodinamica nel calcolo. L'azienda non ha ancora lanciato un chip sul mercato.
18. Vaire
Vaire è una startup con sede nel Regno Unito che sta aprendo la strada al calcolo reversibile, un approccio innovativo che mira a creare chip a consumo energetico quasi nullo. A differenza del calcolo tradizionale, in cui l'energia viene dispersa sotto forma di calore, il calcolo reversibile ricicla una parte significativa dell'energia per i calcoli successivi.
Vaire ha presentato un chip di prova in grado di recuperare il 50% della propria energia, dimostrando il potenziale di questa tecnologia nel ridurre il consumo energetico dei carichi di lavoro di intelligenza artificiale e nel superare i limiti fisici, o "muro termico", che rappresentano una sfida per la moderna produzione di semiconduttori. 54
Quali saranno i prossimi produttori di hardware per l'intelligenza artificiale?
Sebbene si tratti di soluzioni hardware basate sull'intelligenza artificiale molto promettenti, al momento esistono pochi parametri di riferimento sulla loro efficacia, dato che sono relativamente nuove sul mercato.
19. Mela
Secondo alcune indiscrezioni, il progetto ACDC di Apple si concentrerebbe sulla realizzazione di chip per l'inferenza dell'intelligenza artificiale. 55 Apple è già un importante progettista di chip, grazie ai semiconduttori progettati internamente e utilizzati in iPhone, iPad e MacBook.
20. Meta
Meta Training and Inference Accelerator (MTIA) è una famiglia di processori per carichi di lavoro di intelligenza artificiale come l'addestramento dei modelli LLaMa di Meta.
Il modello più recente è Next Gen MTIA, basato sulla tecnologia TSMC a 5 nm, che promette prestazioni tre volte superiori rispetto a MTIA v1. MTIA sarà installato in rack contenenti fino a 72 acceleratori. 56
Attualmente MTIA è destinato all'uso interno di Meta. Tuttavia, in futuro, qualora Meta lanciasse un'offerta di intelligenza artificiale generativa aziendale basata su LLaMa, questi chip potrebbero alimentare tale offerta.
21. Microsoft Azure
In occasione di Hot Chips 2024, Microsoft ha presentato Maia 100, il suo primo acceleratore AI personalizzato progettato per ottimizzare carichi di lavoro AI su larga scala in Azure attraverso la co-ottimizzazione hardware e software. Basato sul processo N5 di TSMC con tecnologie avanzate di memoria e interconnessione, Maia 100 punta a un throughput elevato e a diversi formati di dati, offrendo agli sviluppatori flessibilità tramite il suo SDK per una rapida implementazione dei modelli PyTorch e Triton. Tuttavia, il chip AI di nuova generazione di Microsoft, nome in codice Braga, subisce ritardi dal 2025 al 2026 a causa di modifiche di progettazione, vincoli di personale e un elevato turnover, potenzialmente rimanendo indietro rispetto al chip Blackwell di Nvidia in termini di efficienza energetica.
22. OpenAI
OpenAI sta finalizzando la progettazione del suo primo chip AI con Broadcom e TSMC, utilizzando la tecnologia a 3 nanometri di TSMC. Il team di sviluppo del chip di OpenAI ha maturato esperienza nella progettazione di TPU presso Google e punta a produrre il chip in serie nel 2026. 57
Quali sono gli altri produttori di chip per l'intelligenza artificiale?
23. Graphcore
Graphcore è un'azienda britannica fondata nel 2016. L'azienda ha annunciato il suo chip di punta per l'intelligenza artificiale, l'IPU-POD256. Graphcore ha già ricevuto finanziamenti per circa 700 milioni di dollari.
L'azienda ha stretto partnership strategiche con società di archiviazione dati come DDN, Pure Storage e Vast Data. I chip per l'intelligenza artificiale di Graphcore sono utilizzati da istituti di ricerca come l'Oxford-Man Institute of Quantitative Finance, l'Università di Bristol e l'Università della California di Berkeley.
La sostenibilità a lungo termine dell'azienda era a rischio, poiché perdeva circa 200 milioni di dollari all'anno. 58 È stata acquisita da Softbank per oltre 600 milioni di dollari nell'ottobre 2024. 59
24. Mitico
Mythic è stata fondata nel 2012 e si concentra sull'intelligenza artificiale distribuita (edge AI). Mythic segue un percorso non convenzionale, un'architettura di calcolo analogica, che mira a fornire soluzioni di edge AI a basso consumo energetico.
Ha sviluppato prodotti come l'amplificatore M1076 e la smart card MM1076 e ha già raccolto circa 165 milioni di dollari di finanziamenti. 60
A seguito del round di finanziamento concluso nel marzo 2023, Mythic ha licenziato la maggior parte del personale e ha ristrutturato la propria attività. 61
25. Velocità
Fondata nel 2019 a Tel Aviv, Speedata sviluppa un'unità di elaborazione analitica (APU) progettata per accelerare l'analisi dei big data e i carichi di lavoro di intelligenza artificiale. Si tratta di un'APU pensata per i carichi di lavoro di Apache Spark, con l'intenzione di supportare in futuro anche altre importanti piattaforme di analisi dei dati.
Nel giugno 2025, Speedata ha raccolto 44 milioni di dollari in un round di finanziamento di Serie B, guidato da Walden Catalyst Ventures, 83North e altri, portando il finanziamento totale a 114 milioni di dollari. L'azienda afferma che la sua APU supera le prestazioni dei processori generici e delle GPU, consentendo di sostituire interi rack di server con un singolo chip, offrendo prestazioni superiori ed efficienza energetica per l'elaborazione dei dati. 62
26. Axelera AI
Fondata nel luglio 2021 a Eindhoven, nei Paesi Bassi, Axelera AI è specializzata in tecnologie di accelerazione hardware per l'intelligenza artificiale, in particolare per la visione artificiale e l'IA generativa. L'azienda sta sviluppando Titania, un chiplet per l'inferenza AI basato sulla sua architettura Digital In-Memory Computing (D-IMC), progettato per accelerare i carichi di lavoro di IA dall'edge al cloud.
Nel marzo 2025, Axelera AI si è assicurata un finanziamento fino a 61,6 milioni di euro dalla EuroHPC Joint Undertaking (JU) e dagli Stati membri nell'ambito del progetto DARE, dopo un precedente round di finanziamento di Serie B da 68 milioni di dollari. Questo porta il finanziamento totale a oltre 200 milioni di dollari in tre anni. Axelera AI punta a implementare Titania entro il 2028 per rispondere alla crescente domanda di soluzioni di intelligenza artificiale ad alte prestazioni, economiche e sostenibili, sottolineando la sua capacità di migliorare la produttività e l'efficienza rispetto alle soluzioni cloud tradizionali. 63
Partner della fonderia e ruolo di TSMC
In qualità di fonderia leader a livello mondiale specializzata nella produzione di semiconduttori, TSMC realizza semiconduttori basati su progetti dei clienti anziché creare i propri chip, distinguendosi così da aziende come Samsung Foundry e Samsung Foundry Services. Sebbene Samsung Foundry e Samsung Foundry Services siano in competizione in questo settore, TSMC mantiene un vantaggio tecnologico.
Le sue tecnologie di processo avanzate, in particolare i nodi pionieristici a 5 nm e 3 nm, offrono la combinazione essenziale di prestazioni ed efficienza energetica richiesta per le applicazioni di intelligenza artificiale all'avanguardia, come dimostrano le sue partnership produttive con i progettisti di chip per l'IA elencati di seguito:
piani di espansione
TSMC sta cercando Nvidia, Broadcom e Broadcom per investire in una joint venture per gestire la divisione fonderia di TSMC, mantenendo il controllo operativo ma una quota di proprietà inferiore al 50%. Questa iniziativa, sostenuta dall'amministrazione Trump, arriva dopo che TSMC ha annunciato piani per un significativo investimento negli Stati Uniti e mira a rilanciare TSMC e rafforzare la produzione di chip negli Stati Uniti. L'accordo presenta delle sfide a causa delle differenze di processo, ma si basa sui punti di forza di TSMC come fonderia leader. 64 65
Quali sono i produttori di chip per l'intelligenza artificiale in Cina?
A causa delle sanzioni statunitensi che impediscono a molte aziende cinesi di acquisire i chip AI più avanzati da AMD e NVIDIA, gli acquirenti cinesi hanno aumentato i loro acquisti dai produttori locali.
Oltre a Huawei e Alibaba, già menzionati, questi sono i principali produttori di chip per l'intelligenza artificiale in Cina:
- Cambricon si concentra sull'hardware per l'intelligenza artificiale e prevede un fatturato di circa 150 milioni di dollari nel suo ultimo anno di attività. 66
- Baidu utilizza i chip Kunlun nel suo cloud e sta progettando il chip di terza generazione. Il Kunlun 2 era paragonabile all'A100 (991259-1747).
- Biren , fondata da ex studenti di NVIDIA, produce i chip GPU BR106 e BR110.
- Moore Threads produce le GPU MTT S2000.
FAQ
I chip e le apparecchiature per la loro produzione sono le macchine più complesse mai create dall'uomo. Sebbene nell'ecosistema dei semiconduttori siano presenti numerose aziende, in questo articolo ci siamo concentrati su progettisti di chip come NVIDIA.
La maggior parte dei progettisti di chip esternalizza la produzione a fonderie come TSMC. Le fonderie utilizzano apparecchiature di litografia prodotte da aziende come ASML per fabbricare questi chip. L'ecosistema è supportato da fornitori come Arm e Synopsys che forniscono IP e strumenti di progettazione.
Come visto in precedenza, un numero crescente di parametri, dimensioni del dataset e potenza di calcolo hanno portato i modelli di IA generativa a diventare più accurati. Per creare modelli di deep learning migliori e potenziare le applicazioni di IA generativa, le organizzazioni necessitano di maggiore potenza di calcolo e larghezza di banda della memoria.
I potenti chip generici (come le CPU) non sono in grado di supportare modelli di deep learning altamente parallelizzati. Pertanto, i chip per l'intelligenza artificiale (ad esempio, le GPU) che consentono capacità di calcolo parallelo sono sempre più richiesti.
Le aziende hyperscaler stanno reagendo a questa situazione progettando i propri chip, un processo che richiede anni. Le altre aziende devono invece seguire una di queste strade per costruire i propri modelli di intelligenza artificiale: noleggiare capacità da fornitori di GPU cloud o acquistare hardware dai principali produttori di chip per l'IA elencati in questo articolo.
L'hardware per l'intelligenza artificiale è anche chiamato unità di elaborazione neurale (NPU), acceleratori di IA o processori di apprendimento profondo (DLP).
Per approfondire
Puoi anche consultare il nostro elenco ordinabile di aziende che lavorano su chip per l'intelligenza artificiale .
Potrebbe interessarti leggere i nostri articoli su TinyML e sul calcolo accelerato .
Se hai domande su come l'hardware basato sull'intelligenza artificiale può aiutare la tua azienda, possiamo aiutarti:
Trova i fornitori giusti
Commenti 2
Condividi i tuoi pensieri
Il tuo indirizzo email non verrà pubblicato. Tutti i campi sono obbligatori.
You forgot to include Tesla with their DOJO supercomputer. From the ground-up, the supercomputer was specifically designed for machine learning and image recognition - which means that every component was designed for it including, but not limited to, PCI board design, CPU, RAM, cooling, power, scalable hardware design and software. If I'm not mistaken, the AI is also the second most widely tested and used in the "wild", just below that of Google due to Google using it in their Search.
Thank you for your feedback, Dave! Here we are only covering companies that sell the chips that they produce. Therefore, companies like Tesla that build supercomputers for their own use or companies that embed chips in their products are out of our scope.
surprised that brainchip (akida) missing in this report. any reasons?
All included companies here raised $100+M. Last time we collected the data, that wasn't the case for akida. Why don't you reach out to us at info@aimultiple.com and let's discuss why it should be included. Thank you!