Contattaci
Nessun risultato trovato.

I 20+ migliori produttori di chip per l'intelligenza artificiale: NVIDIA e i suoi concorrenti

Cem Dilmegani
Cem Dilmegani
aggiornato il Feb 26, 2026
Guarda il nostro norme etiche

In base alla nostra esperienza con il benchmark GPU cloud di AIMultiple, eseguito con 10 diversi modelli di GPU in 4 scenari differenti, queste sono le aziende leader nell'hardware AI per i carichi di lavoro dei data center. Seguite i link per scoprire le motivazioni alla base di ciascuna selezione:

Oltre 20 produttori di chip per l'intelligenza artificiale, suddivisi per categoria.

Questi produttori di chip si concentrano sui chip per data center:

*I modelli selezionati si basano sugli annunci più recenti.

**ACCEL è stato sviluppato da scienziati cinesi in collaborazione con Alibaba e la società cinese Semiconductor Manufacturing International Corporation (SMIC)** 1

L'ordinamento avviene per categoria. I fornitori sono classificati in base alla quota di mercato stimata nelle prime 3 categorie (ovvero, produttore leader, cloud pubblico, cloud pubblico per l'IA) perché è possibile stimare i dati di vendita o l'utilizzo del cloud. I fornitori nelle ultime tre categorie (ovvero, startup nel settore dell'IA, produttore emergente, altri produttori) sono ordinati alfabeticamente.

5 fornitori di chip per intelligenza artificiale mobile

*Vengono selezionate le patatine più popolari e recenti.

5 chip AI Edge

La crescente richiesta di elaborazione a bassa latenza ha stimolato l'innovazione nei chip per l'intelligenza artificiale distribuita (edge ​​AI). I processori di questi chip sono progettati per eseguire calcoli di intelligenza artificiale localmente sui dispositivi, anziché affidarsi a soluzioni basate sul cloud.

*Questi sono i valori massimi indicati dai fornitori. TOPS indica tera operazioni al secondo.

Comprendere le architetture dei chip per l'intelligenza artificiale: GPU vs. ASIC

Non tutti i chip per l'intelligenza artificiale sono uguali. Sebbene i fornitori sopracitati operino nello stesso mercato, utilizzano architetture di chip fondamentalmente diverse:

  • Le GPU (Graphics Processing Units) sono processori generici in grado di gestire sia l'addestramento che l'inferenza su un'ampia gamma di carichi di lavoro di intelligenza artificiale. I modelli NVIDIA e AMD dominano questa categoria.
  • Gli ASIC (Application-Specific Integrated Circuits) sono circuiti integrati specifici progettati su misura per determinate attività. Alcuni supportano sia l'addestramento che l'inferenza (Google TPU, AWS Trainium), mentre altri sono dedicati esclusivamente all'inferenza (Groq LPU, AWS Inferentia).

Approfondimento chiave:

Non tutti gli ASIC sono dedicati esclusivamente all'inferenza. Google TPU, AWS Trainium, Cerebras e SambaNova supportano sia l'addestramento che l'inferenza, mentre Groq LPU e AWS Inferentia si concentrano esclusivamente sull'inferenza.

Questa distinzione è importante per gli acquirenti: le GPU offrono flessibilità in diversi carichi di lavoro di intelligenza artificiale, mentre gli ASIC offrono prestazioni migliori per watt ma sono più difficili da riprogrammare quando cambiano le architetture dei modelli.

Secondo TrendForce 2 Sulla base dei tassi di crescita delle spedizioni di server AI, si prevede che le spedizioni di ASIC personalizzati da parte dei fornitori di servizi cloud cresceranno del 44,6% nel 2026, mentre le spedizioni di GPU dovrebbero crescere del 16,1%. Ciò segnala un cambiamento nel panorama hardware dell'IA, poiché gli hyperscaler investono sempre di più nei propri chip.

Quali sono i principali produttori di chip per l'intelligenza artificiale?

1. NVIDIA

NVIDIA progetta unità di elaborazione grafica (GPU) per il settore dei videogiochi sin dagli anni '90. NVIDIA è un produttore di chip fabless che esternalizza la maggior parte della sua produzione di chip a TSMC . Le sue principali attività includono:

Soluzioni di intelligenza artificiale per desktop

DGX Spark (precedentemente Project Digits) è un supercomputer desktop per l'intelligenza artificiale, destinato a ingegneri e data scientist, che offre le seguenti funzionalità:

  • Il costo previsto si aggira intorno ai 3.000 dollari.
  • Ha all'incirca le stesse dimensioni di un Mac mini ed è alimentato dal Superchip Grace Blackwell GB10 NVIDIA con 128 GB di memoria.
  • In grado di gestire l'inferenza LLM e la messa a punto di modelli con fino a 200 miliardi di parametri, sfruttando NVLink-C2C per una comunicazione CPU+GPU ad alta velocità.

Soluzioni per data center

L'azienda produce chip per l'intelligenza artificiale basati sulle architetture Ampere, Hopper e, più recentemente, Blackwell. Grazie al boom dell'IA generativa , NVIDIA ha ottenuto risultati eccellenti negli ultimi anni, raggiungendo una valutazione di mille miliardi di dollari e consolidando la sua posizione di leader nei mercati hardware per GPU e IA. Il grafico seguente mostra come il fatturato di NVIDIA in questo segmento sia cresciuto nel corso degli anni e come sia diventato la principale fonte di reddito dell'azienda.

I chipset di Nvidia sono progettati per risolvere problemi aziendali in diversi settori. DGX™ A100 e H100 sono stati i chip AI di punta di Nvidia, progettati per l'addestramento e l'inferenza dell'IA nei data center. 3 NVIDIA hanno dato seguito a questi con

  • Chip H200, B300 e GB300
  • Server HGX come HGX H200 e HGX B300 che combinano 8 di questi chip
  • Le serie NVL e GB200 SuperPod combinano un numero ancora maggiore di chip in grandi cluster. 4

GPU cloud

Grazie alla solidità della sua offerta di data center, NVIDIA detiene quasi il monopolio del mercato dell'IA cloud, con la maggior parte dei fornitori di servizi cloud che offrono solo GPU NVIDIA come GPU cloud .

NVIDIA ha inoltre lanciato la sua offerta DGX Cloud , fornendo infrastrutture GPU cloud direttamente alle aziende, bypassando i fornitori di servizi cloud.

GPU per la grafica

Xbox utilizza un chipset sviluppato congiuntamente da NVIDIA e Microsoft. Le GPU di NVIDIA per gli utenti al dettaglio includono la serie GeForce.

Sviluppi recenti

DGX Cloud Lepton

Annunciato il 19 maggio 2025 al Computex, DGX Cloud Lepton di NVIDIA è un marketplace che collega gli sviluppatori di IA ai provider di cloud GPU di NVIDIA, come CoreWeave, Lambda e Crusoe. Consente un accesso flessibile alle risorse GPU per l'addestramento e l'inferenza dei modelli di IA, bypassando le tradizionali dipendenze dai provider di cloud. Ciò rafforza la strategia cloud di NVIDIA focalizzata sulle aziende. 5

NVIDIA Dinamo

Dynamo, annunciato al GTC 2025, è un nuovo framework di inferenza open-source progettato per l'implementazione ad alta velocità e bassa latenza di modelli di IA generativa in ambienti distribuiti, aumentando la velocità di gestione delle richieste fino a 30 volte su Blackwell, come mostrato nella figura seguente. Questo framework, compatibile con strumenti popolari come PyTorch e TensorRT-LLM, utilizza innovazioni come fasi di inferenza disaggregate e pianificazione dinamica della GPU per ottimizzare le prestazioni e ridurre i costi. Disponibile su GitHub per gli sviluppatori e incluso nei microservizi NIM per soluzioni aziendali, Dynamo facilita l'erogazione scalabile ed economica di IA generativa da sistemi a singola GPU a sistemi multi-GPU. 6

Figura 1. Dynamo accelera significativamente le prestazioni dei modelli AI. Nello specifico, fornisce un'accelerazione di 30 volte per il modello 671B sulla piattaforma GB200 NVL72. Inoltre, più che raddoppia le prestazioni del modello Llama 70B quando si utilizzano GPU Hopper. 7

NVIDIA Server RTX PRO e Enterprise AI Factory

Annunciati a maggio 2025 al Computex, NVIDIA ha introdotto i server RTX PRO basati su GPU RTX PRO 6000 Blackwell Server Edition, progettati per le aziende che sviluppano IA. Questi server offrono un'accelerazione universale per applicazioni di IA, progettazione, ingegneria e business, supportando carichi di lavoro come l'inferenza IA multimodale, l'IA fisica e i gemelli digitali sulla piattaforma NVIDIA Omniverse.

Il design validato di NVIDIA Enterprise AI Factory, che incorpora server RTX PRO, Ethernet NVIDIA Spectrum-X, DPU NVIDIA BlueField e il software NVIDIA AI Enterprise, consente a partner come Cadence, Foxconn e Lilly di creare infrastrutture AI on-premise. Questa iniziativa accelera la transizione del settore IT, del valore di mille miliardi di dollari, verso le fabbriche di intelligenza artificiale accelerate da GPU. 8

DeepSeek

Il rilascio dell'R1 di DeepSeek ha dimostrato che i modelli all'avanguardia potevano essere addestrati con un numero relativamente piccolo di GPU. Ciò ha portato a una riduzione del prezzo delle azioni di NVIDIA. Sebbene questo non sia un consiglio di investimento, ciò può essere positivo per NVIDIA poiché maggiore è l'utilità fornita dalla potenza di calcolo, più ampiamente dovrebbe essere utilizzata (ovvero, il paradosso di Jevons). 9 ).

Tuttavia, dato che le prestazioni dei sistemi GPU migliorano più volte all'anno grazie ai progressi nella progettazione dei chip e nelle interconnessioni, sarebbe saggio per gli acquirenti non acquistare più di quanto necessario per l'anno a venire, poiché ciò potrebbe comportare il possesso di sistemi obsoleti.

Tariffe e restrizioni all'esportazione

NVIDIA ora è autorizzato a esportare processori AI avanzati sul mercato cinese, segnando un cambiamento rispetto ai precedenti requisiti che imponevano la vendita solo di versioni depotenziate. Tuttavia, queste esportazioni si scontrano con nuovi ostacoli logistici e finanziari: i chip prodotti a Taiwan devono ora passare attraverso gli Stati Uniti per i test di terze parti, il che fa scattare una nuova tariffa del 25% per motivi di sicurezza nazionale.

Nonostante il ripristino dell'accesso all'hardware di fascia alta, i costi aggiuntivi e la complessità della catena di approvvigionamento continuano a incentivare il governo cinese e l'industria dei semiconduttori a sviluppare alternative locali competitive. Sebbene i chip cinesi attualmente non raggiungano le prestazioni della tecnologia più recente di NVIDIA, queste barriere commerciali garantiscono che lo sviluppo interno rimanga una priorità strategica, potenzialmente in grado di sfidare il dominio di mercato di NVIDIA in futuro. 10

Concorrenza di mercato inferenziale

Mentre NVIDIA domina il mercato dell'“addestramento” dell'IA, la concorrenza si sta intensificando nell'“inferenza”, ovvero l'applicazione di modelli di IA a compiti reali. Aziende come AMD e numerose startup, tra cui Untether AI e Groq, stanno sviluppando chip che mirano a fornire soluzioni di inferenza più economiche, concentrandosi in particolare sul basso consumo energetico.

Le nuove tecniche di IA basate sul "ragionamento" richiedono maggiore potenza di calcolo. NVIDIA ritiene che il ragionamento favorirà la sua architettura nel lungo periodo e prevede che il mercato dell'inferenza supererà alla fine quello dell'addestramento in termini di dimensioni, anche se la sua quota di mercato è inferiore. 11

2. AMD

AMD è un produttore di chip fabless con prodotti CPU, GPU e acceleratori di intelligenza artificiale.

AMD ha lanciato MI300 per i carichi di lavoro di addestramento dell'IA nel giugno 2023 e compete con NVIDIA per la quota di mercato. Ci sono startup, istituti di ricerca, aziende e giganti della tecnologia che hanno adottato l'hardware AMD nel 2023 poiché l'hardware AI di Nvidia è stato difficile da reperire a causa della domanda in rapida crescita, con l'ascesa dell'IA generativa innescata dal lancio di ChatGPT . 12 13 14 15

Nel 2025, AMD ha annunciato l'acquisizione di un talentuoso team di ingegneri hardware e software per l'IA da Untether AI, sviluppatore di chip per l'inferenza AI a basso consumo energetico per provider edge e data center aziendali. Questa operazione potenzia le capacità di AMD in materia di compilatori AI, sviluppo del kernel e progettazione di chip, rafforzando ulteriormente la sua posizione nel mercato dell'inferenza. Inoltre, AMD ha acquisito la startup di compilatori Brium per ottimizzare le prestazioni dell'IA sulle sue GPU Instinct per data center destinate ad applicazioni aziendali. 16

AMD rilascerà la serie MI350 per sostituire la MI300 e competere con l'H200 di NVIDIA. AMD afferma che l'MI325X, un altro chip recente, ha prestazioni di inferenza leader di mercato. 17

AMD sta inoltre collaborando con aziende di machine learning come Hugging Face per consentire agli scienziati dei dati di utilizzare il proprio hardware in modo più efficiente. 18

L'ecosistema software è fondamentale, poiché le prestazioni hardware dipendono fortemente dall'ottimizzazione del software. Ad esempio, AMD e NVIDIA hanno avuto un disaccordo pubblico sul benchmarking di H100 e MI300. Il punto centrale del disaccordo riguardava il pacchetto e il tipo di virgola mobile da utilizzare nel benchmark. Secondo i benchmark più recenti, sembra che MI300 sia migliore o alla pari con H100 per l'inferenza su un LLM a 70 bit. 19 20

Software

Mentre l'hardware AMD sta recuperando terreno rispetto a NVIDIA, il suo software è indietro in termini di usabilità. Mentre CUDA funziona immediatamente per la maggior parte delle attività, il software AMD richiede una configurazione significativa. 21

Ecosistema

Come NVIDIA, anche AMD sta investendo in modo selettivo negli utenti delle sue soluzioni per promuovere l'adozione del suo hardware. 22

3. Intel

Intel è il principale attore nel mercato delle CPU e vanta una lunga storia nello sviluppo di semiconduttori. A differenza di NVIDIA e AMD, Intel utilizza una propria fonderia per la produzione dei suoi chip.

Gaudi3 è l'ultimo processore acceleratore AI di Intel. 23 Tuttavia, le previsioni di vendita di Intel per Gaudi3 erano di circa 500 milioni di dollari per il 2024, una cifra significativamente inferiore rispetto ai miliardi che AMD prevede di guadagnare nel 2024.

Intel sta affrontando problemi di governance, come dimostra l'abbandono del suo CEO Pat Gelsinger nel dicembre 2024. Una parte significativa dei membri del consiglio di amministrazione di Intel non ha esperienza nella gestione operativa di un'azienda di semiconduttori. 24 In seguito alla partenza del suo CEO, la strategia di Intel nei mercati dell'IA e delle fonderie rimane poco chiara.

Quali fornitori di cloud pubblico producono chip per l'intelligenza artificiale?

4. AWS

AWS produce chip Tranium per l'addestramento dei modelli e chip Inferentia per l'inferenza. Sebbene AWS sia leader di mercato nel cloud pubblico, ha iniziato a sviluppare i propri chip dopo il Google.

Centinaia di migliaia di chip Tranium2 vengono utilizzati per formare il cluster Project Rainier, che alimenta i modelli dello sviluppatore LLM Anthropic.

5. Google Piattaforma Cloud

Google Cloud TPU è il chip acceleratore di machine learning appositamente progettato che alimenta i prodotti Google come Traduttore, Foto, Ricerca, Assistente e Gmail. Può essere utilizzato anche tramite Google Cloud. Google ha annunciato le TPU nel 2016. 25 Il più recente Trillium TPU è di sesta generazione. 26

Google ha introdotto Ironwood. Questa ultima generazione è specificamente progettata per "modelli di pensiero" complessi come LLM e MoE, offrendo un'elaborazione parallela massiva (4.614 TFLOPs per chip) e una scalabilità fino a 42,5 Exaflops in pod da 9.216 chip. 27

Ironwood offre significativi miglioramenti rispetto a Trillium, tra cui un'efficienza energetica doppia, una capacità di memoria ad alta larghezza di banda sei volte superiore (192 GB/chip), una larghezza di banda HBM 4,5 volte maggiore (7,2 TBps/chip) e una velocità di interconnessione tra chip 1,5 volte superiore (1,2 Tbps). È inoltre dotato di uno SparseCore migliorato per integrazioni di grandi dimensioni. Google produce anche l'Edge TPU, molto più piccolo, per esigenze diverse, progettato per l'implementazione su dispositivi edge come smartphone e hardware IoT.

6. Alibaba

Alibaba produce chip come l'Hanguang 800 per l'inferenza. Tuttavia, alcune organizzazioni nordamericane, europee e australiane (ad esempio, quelle del settore della difesa) potrebbero non preferire l'utilizzo del Alibaba Cloud per ragioni geopolitiche.

7. IBM

IBM ha annunciato il suo ultimo chip per il deep learning, l'unità di intelligenza artificiale (AIU), nel 2022. 28 IBM sta valutando l'utilizzo di questi chip per alimentare la sua piattaforma di intelligenza artificiale generativa Watsonx. 29

AIU si basa sul processore Telum “IBM ”, che alimenta le capacità di elaborazione AI dei server mainframe Z IBM. Al momento del lancio, tra i casi d'uso principali dei processori Telum figurava il rilevamento delle frodi . 30

Il progetto IBM ha inoltre dimostrato che la fusione di calcolo e memoria può portare a una maggiore efficienza. Ciò è stato dimostrato nel prototipo di processore North Pole. 31

8. Huawei

Il chip HiSilicon Ascend 910C (codice Huawei) fa parte della famiglia di chip Ascend 910, introdotta nel 2019.

A causa delle sanzioni, i laboratori di intelligenza artificiale in Cina non possono acquistare i chip più recenti e performanti da aziende statunitensi come NVIDIA o AMD. Pertanto, stanno sperimentando con Ascend 910C.

Il cloud di Huawei ospita i modelli di DeepSeek e un ricercatore di DeepSeek afferma che può raggiungere il 60% delle prestazioni di inferenza H100 di NVIDIA. 32 33

Quali fornitori di intelligenza artificiale cloud producono i propri chip?

Questi fornitori non dispongono di cloud pubblici con funzionalità complete come gli hyperscaler. Offrono servizi cloud limitati, in genere focalizzati sull'inferenza AI. Siamo riusciti ad abbonarci a questi servizi senza dover parlare con i team di vendita:

8. Groq

Groq è stata fondata da ex dipendenti di Google. L'azienda rappresenta le LPU, un nuovo modello per l'architettura dei chip AI, che mira a semplificare l'adozione dei loro sistemi da parte delle aziende. La startup ha già raccolto circa 350 milioni di dollari e prodotto i suoi primi modelli, come GroqChip™ Processor, GroqCard™ Accelerator, ecc.

L'azienda è focalizzata sull'inferenza LLM e ha rilasciato i benchmark per Llama-2 70B. 34

Di recente, Groq si è assicurata un importante investimento di 1,5 miliardi di dollari dall'Arabia Saudita per espandere la fornitura dei suoi chip di intelligenza artificiale avanzati nel Paese. Questo investimento verrà utilizzato per ampliare il data center di Groq a Dammam, in Arabia Saudita, costruito in collaborazione con Aramco Digital. 35

Nel primo trimestre del 2024, l'azienda ha comunicato che 70.000 sviluppatori si sono registrati sulla sua piattaforma cloud e hanno creato 19.000 nuove applicazioni. 36

Il 1° marzo 2022, Groq ha acquisito Maxeler, azienda specializzata in soluzioni di calcolo ad alte prestazioni (HPC) per il settore dei servizi finanziari. 37

9. SambaNova Sistemi

SambaNova Systems è stata fondata nel 2017 per sviluppare sistemi hardware-software ad alte prestazioni e alta precisione per carichi di lavoro di intelligenza artificiale generativa ad alto volume. L'azienda ha raccolto oltre 1,5 miliardi di dollari in finanziamenti totali, inclusi 350 milioni di dollari in un round di Serie E nel febbraio 2026. 38

Nel febbraio 2026, SambaNova ha presentato il chip SN50, la sua ultima unità dati riconfigurabile (RDU), affermando una velocità massima 5 volte superiore rispetto ai chip della concorrenza e un costo totale di proprietà 3 volte inferiore rispetto alle GPU per i carichi di lavoro di intelligenza artificiale agentiva. L'SN50 offre una potenza di calcolo 5 volte superiore per acceleratore e una larghezza di banda di rete 4 volte maggiore rispetto alla precedente generazione SN40L e supporta un'architettura di memoria a tre livelli per modelli con oltre 10 trilioni di parametri e oltre 10 milioni di lunghezze di contesto dei token. 39

SoftBank Corp. sarà il primo cliente a implementare SN50 nei suoi data center di nuova generazione dedicati all'intelligenza artificiale in Giappone.

SambaNova ha inoltre annunciato una collaborazione strategica pluriennale pianificata con Intel per fornire soluzioni di inferenza AI, combinando i sistemi di SambaNova con i processori Xeon di Intel, le GPU di Intel e la rete di Intel per alimentare un'infrastruttura di inferenza scalabile come alternativa alle soluzioni incentrate sulle GPU.

È importante notare che SambaNova Systems offre anche in leasing la sua piattaforma alle aziende tramite SambaCloud. Questo approccio di piattaforma AI come servizio (AI platform-as-a-service) semplifica l'adozione dei loro sistemi e incoraggia il riutilizzo dell'hardware nell'ambito dell'economia circolare. 40

Quali sono le principali startup nel settore dei chip per l'intelligenza artificiale?

Vorremmo inoltre presentarvi alcune startup del settore dei chip per l'intelligenza artificiale, i cui nomi potremmo sentire più spesso in futuro. Pur essendo state fondate di recente, queste aziende hanno già raccolto milioni di dollari.

10. Cerebras

Cerebras è stata fondata nel 2015 ed è l'unico grande produttore di chip specializzato in chip su scala wafer. 41 I chip su scala wafer offrono vantaggi in termini di parallelismo rispetto alle GPU, grazie alla loro maggiore larghezza di banda della memoria. Tuttavia, la progettazione e la produzione di tali chip rappresentano una tecnologia emergente.

I chip Cerebras includono:

  • WSE-1 con 1,2 trilioni di transistor e 400.000 core di elaborazione.
  • Il WSE-2, con 2,6 trilioni di transistor e 850.000 core, è stato annunciato nell'aprile 2021. Ha sfruttato il processo a 7 nm di TSMC.
  • WSE-3, con 4 trilioni di transistor e 900.000 core AI, è stato annunciato nel marzo 2024. Sfrutta il processo a 5 nm di TSMC. 42

Il sistema di Celebra collabora con aziende farmaceutiche come AstraZeneca e GlaxoSmithKline e con laboratori di ricerca che lo utilizzano per le simulazioni. Si rivolge anche ai produttori di modelli lineari lineari (LLM) poiché i suoi chip possono ridurre i costi di inferenza per i modelli di frontiera.

Cerebras offre inoltre i suoi chip sulla propria piattaforma cloud alle aziende.

11. Matrice d

d-Matrix adotta un approccio innovativo, abbandonando la tradizionale architettura di von Neumann a favore del calcolo in memoria. Sebbene questo approccio abbia il potenziale per risolvere il collo di bottiglia tra memoria e potenza di calcolo, si tratta di una soluzione nuova e ancora da testare. 43

12. Ribellioni

Una startup con sede in Corea ha raccolto 124 milioni di dollari nel 2024 ed è specializzata nell'inferenza LLM. 44

Rebellions si è fusa con un'altra azienda coreana di progettazione di semiconduttori, SAPEON, raggiungendo una valutazione da unicorno nel 2024. 45

Nel luglio 2025, Rebellions ha ottenuto un investimento dal colosso tecnologico Samsung nell'ambito di un round di finanziamento mirato a raccogliere fino a 200 milioni di dollari, in vista di una prevista offerta pubblica iniziale (IPO). Dalla sua fondazione nel 2020, l'azienda ha raccolto 220 milioni di dollari e sta collaborando con Samsung per portare sul mercato, entro la fine del 2025, il suo chip di seconda generazione, Rebel-Quad (composto da quattro chip Rebel AI), sfruttando il processo produttivo a 4 nanometri di Samsung. 46

13. Tenstorrent

Il più recente processore Blackhole Tensix di Tenstorrent offre prestazioni pari a 664 TFLOPS (BLOCKFP8), abbinate a 32 GB di memoria GDDR6 e una larghezza di banda di memoria di 512 GB/s.

La scheda P150a ha un prezzo di 1.399 dollari e dispone di quattro porte QSFP-DD 800G per la scalabilità multi-scheda. Il modello base P100a parte da 999 dollari. 47

Tenstorrent offre una suite di software completamente open source. Nel dicembre 2024, l'azienda ha raccolto 700 milioni di dollari, raggiungendo una valutazione di oltre 2,6 miliardi di dollari, da investitori tra cui Jeff Bezos. 48

14. Positrone

Positron è stata fondata nel 2023 e si concentra esclusivamente sull'inferenza di modelli transformer. L'azienda adotta un approccio ASIC, realizzando hardware appositamente ottimizzato per le architetture transformer, anziché per il calcolo GPU generico.

Prodotti:

  • Atlas (spedizione immediata): un server di inferenza Transformer dotato di 8 acceleratori Positron Archer Transformer con 256 GB totali di HBM. L'azienda dichiara prestazioni superiori di oltre 4 volte per watt e di oltre 3 volte per dollaro rispetto ai sistemi Hopper NVIDIA, con benchmark su Llama 3.1 8B con potenza di calcolo BF16. 49
  • Titan (in arrivo nel 2027): un sistema di nuova generazione con oltre 8 TB di memoria, basato su 4 chip Asimov personalizzati, progettato per supportare modelli con fino a 16 trilioni di parametri e oltre 10 milioni di finestre di contesto dei token in un fattore di forma 4U raffreddato ad aria. 50
  • Asimov (in arrivo nel 2027): chip acceleratore di inferenza personalizzato con oltre 2 TB di memoria per chip.

All'inizio del 2026 Positron ha concluso un round di finanziamento di Serie B da oltre 230 milioni di dollari con investitori tra cui QIA, Arm Holdings, Arena e Jump Trading. 51

Atlas è attualmente utilizzato da aziende che operano nei settori del networking, del gaming, della moderazione dei contenuti, delle CDN e del Token-as-a-Service. Positron afferma che il suo sistema Atlas ha dimostrato una latenza end-to-end tre volte inferiore per i carichi di lavoro di inferenza di trading rispetto a sistemi H100 comparabili, consumando al contempo un terzo dell'energia.

I chip di Positron sono progettati, fabbricati e assemblati negli Stati Uniti.

15. _inciso

Il loro approccio sacrifica la flessibilità in favore dell'efficienza, integrando l'architettura del trasformatore direttamente nei chip.

La squadra afferma

  • Sohu ha realizzato il primo ASIC al mondo per trasformatori.
  • Quegli 8 chip Sohu possono generare >500.000 token/secondo. Questo è un ordine di grandezza superiore a quello che possono raggiungere 8 NVIDIA B200.

Attualmente, questi dati si basano su misurazioni interne del team. Diversi team di IA non hanno ancora trovato benchmark o referenze da parte dei clienti. Siamo curiosi di sapere:

  • Cosa succede quando il modello diventa obsoleto? Gli utenti devono acquistare un nuovo chip o è possibile riconfigurare quello vecchio con il modello successivo?
  • Come hanno eseguito il loro benchmark? Quali metodi di quantizzazione e modelli sono stati utilizzati?

Aggiorneremo queste informazioni non appena il team di _etched rilascerà ulteriori dettagli. Sarà interessante vedere se la masterizzazione dei modelli su chip si rivelerà una soluzione sostenibile, considerando il rilascio di nuovi modelli ogni pochi mesi.

16. Taalas

Taalas è stata fondata all'inizio del 2023 e adotta l'approccio più estremo alla specializzazione dei chip per l'intelligenza artificiale: integra i singoli modelli direttamente in chip di silicio personalizzati, producendo quelli che l'azienda chiama "modelli hardcore". 52 L'azienda afferma di poter trasformare qualsiasi modello di intelligenza artificiale mai visto prima in un chip personalizzato entro due mesi.

L'architettura di Taalas unifica archiviazione ed elaborazione su un singolo chip con una densità pari a quella delle DRAM, eliminando la necessità di HBM, packaging avanzato, impilamento 3D, raffreddamento a liquido o I/O ad alta velocità. L'azienda descrive questa soluzione come una semplificazione radicale dello stack hardware.

Prodotti:

  • HC1 (disponibile ora): un dimostratore tecnologico con Llama 3.1 8B preinstallato, realizzato con processo produttivo TSMC a 6 nm e 53 miliardi di transistor. Taalas dichiara una velocità di 17.000 token al secondo per utente, quasi 10 volte superiore allo stato dell'arte attuale, con un costo di produzione 20 volte inferiore e un consumo energetico 10 volte inferiore in un server raffreddato ad aria da 2,5 kW. Tuttavia, il modello utilizza una quantizzazione personalizzata a 3 e 6 bit, che introduce un degrado della qualità rispetto alle GPU di riferimento. 53
  • HC2 (in programma): Una piattaforma di seconda generazione con densità più elevata, esecuzione più veloce e formati standard a virgola mobile a 4 bit per ovviare alle limitazioni di quantizzazione di HC1.

Taalas ha raccolto oltre 200 milioni di dollari, ma dichiara di averne spesi solo 30 milioni per lanciare sul mercato il suo primo prodotto con un team di 24 persone.

17. Estropico

Extropic ha raccolto 14 milioni di dollari in un round di finanziamento alla fine del 2023 per utilizzare la termodinamica nel calcolo. L'azienda non ha ancora lanciato un chip sul mercato.

18. Vaire

Vaire è una startup con sede nel Regno Unito che sta aprendo la strada al calcolo reversibile, un approccio innovativo che mira a creare chip a consumo energetico quasi nullo. A differenza del calcolo tradizionale, in cui l'energia viene dispersa sotto forma di calore, il calcolo reversibile ricicla una parte significativa dell'energia per i calcoli successivi.

Vaire ha presentato un chip di prova in grado di recuperare il 50% della propria energia, dimostrando il potenziale di questa tecnologia nel ridurre il consumo energetico dei carichi di lavoro di intelligenza artificiale e nel superare i limiti fisici, o "muro termico", che rappresentano una sfida per la moderna produzione di semiconduttori. 54

Quali saranno i prossimi produttori di hardware per l'intelligenza artificiale?

Sebbene si tratti di soluzioni hardware basate sull'intelligenza artificiale molto promettenti, al momento esistono pochi parametri di riferimento sulla loro efficacia, dato che sono relativamente nuove sul mercato.

19. Mela

Secondo alcune indiscrezioni, il progetto ACDC di Apple si concentrerebbe sulla realizzazione di chip per l'inferenza dell'intelligenza artificiale. 55 Apple è già un importante progettista di chip, grazie ai semiconduttori progettati internamente e utilizzati in iPhone, iPad e MacBook.

20. Meta

Meta Training and Inference Accelerator (MTIA) è una famiglia di processori per carichi di lavoro di intelligenza artificiale come l'addestramento dei modelli LLaMa di Meta.

Il modello più recente è Next Gen MTIA, basato sulla tecnologia TSMC a 5 nm, che promette prestazioni tre volte superiori rispetto a MTIA v1. MTIA sarà installato in rack contenenti fino a 72 acceleratori. 56

Attualmente MTIA è destinato all'uso interno di Meta. Tuttavia, in futuro, qualora Meta lanciasse un'offerta di intelligenza artificiale generativa aziendale basata su LLaMa, questi chip potrebbero alimentare tale offerta.

21. Microsoft Azure

In occasione di Hot Chips 2024, Microsoft ha presentato Maia 100, il suo primo acceleratore AI personalizzato progettato per ottimizzare carichi di lavoro AI su larga scala in Azure attraverso la co-ottimizzazione hardware e software. Basato sul processo N5 di TSMC con tecnologie avanzate di memoria e interconnessione, Maia 100 punta a un throughput elevato e a diversi formati di dati, offrendo agli sviluppatori flessibilità tramite il suo SDK per una rapida implementazione dei modelli PyTorch e Triton. Tuttavia, il chip AI di nuova generazione di Microsoft, nome in codice Braga, subisce ritardi dal 2025 al 2026 a causa di modifiche di progettazione, vincoli di personale e un elevato turnover, potenzialmente rimanendo indietro rispetto al chip Blackwell di Nvidia in termini di efficienza energetica.

22. OpenAI

OpenAI sta finalizzando la progettazione del suo primo chip AI con Broadcom e TSMC, utilizzando la tecnologia a 3 nanometri di TSMC. Il team di sviluppo del chip di OpenAI ha maturato esperienza nella progettazione di TPU presso Google e punta a produrre il chip in serie nel 2026. 57

Quali sono gli altri produttori di chip per l'intelligenza artificiale?

23. Graphcore

Graphcore è un'azienda britannica fondata nel 2016. L'azienda ha annunciato il suo chip di punta per l'intelligenza artificiale, l'IPU-POD256. Graphcore ha già ricevuto finanziamenti per circa 700 milioni di dollari.

L'azienda ha stretto partnership strategiche con società di archiviazione dati come DDN, Pure Storage e Vast Data. I chip per l'intelligenza artificiale di Graphcore sono utilizzati da istituti di ricerca come l'Oxford-Man Institute of Quantitative Finance, l'Università di Bristol e l'Università della California di Berkeley.

La sostenibilità a lungo termine dell'azienda era a rischio, poiché perdeva circa 200 milioni di dollari all'anno. 58 È stata acquisita da Softbank per oltre 600 milioni di dollari nell'ottobre 2024. 59

24. Mitico

Mythic è stata fondata nel 2012 e si concentra sull'intelligenza artificiale distribuita (edge ​​AI). Mythic segue un percorso non convenzionale, un'architettura di calcolo analogica, che mira a fornire soluzioni di edge AI a basso consumo energetico.

Ha sviluppato prodotti come l'amplificatore M1076 e la smart card MM1076 e ha già raccolto circa 165 milioni di dollari di finanziamenti. 60

A seguito del round di finanziamento concluso nel marzo 2023, Mythic ha licenziato la maggior parte del personale e ha ristrutturato la propria attività. 61

25. Velocità

Fondata nel 2019 a Tel Aviv, Speedata sviluppa un'unità di elaborazione analitica (APU) progettata per accelerare l'analisi dei big data e i carichi di lavoro di intelligenza artificiale. Si tratta di un'APU pensata per i carichi di lavoro di Apache Spark, con l'intenzione di supportare in futuro anche altre importanti piattaforme di analisi dei dati.

Nel giugno 2025, Speedata ha raccolto 44 milioni di dollari in un round di finanziamento di Serie B, guidato da Walden Catalyst Ventures, 83North e altri, portando il finanziamento totale a 114 milioni di dollari. L'azienda afferma che la sua APU supera le prestazioni dei processori generici e delle GPU, consentendo di sostituire interi rack di server con un singolo chip, offrendo prestazioni superiori ed efficienza energetica per l'elaborazione dei dati. 62

26. Axelera AI

Fondata nel luglio 2021 a Eindhoven, nei Paesi Bassi, Axelera AI è specializzata in tecnologie di accelerazione hardware per l'intelligenza artificiale, in particolare per la visione artificiale e l'IA generativa. L'azienda sta sviluppando Titania, un chiplet per l'inferenza AI basato sulla sua architettura Digital In-Memory Computing (D-IMC), progettato per accelerare i carichi di lavoro di IA dall'edge al cloud.

Nel marzo 2025, Axelera AI si è assicurata un finanziamento fino a 61,6 milioni di euro dalla EuroHPC Joint Undertaking (JU) e dagli Stati membri nell'ambito del progetto DARE, dopo un precedente round di finanziamento di Serie B da 68 milioni di dollari. Questo porta il finanziamento totale a oltre 200 milioni di dollari in tre anni. Axelera AI punta a implementare Titania entro il 2028 per rispondere alla crescente domanda di soluzioni di intelligenza artificiale ad alte prestazioni, economiche e sostenibili, sottolineando la sua capacità di migliorare la produttività e l'efficienza rispetto alle soluzioni cloud tradizionali. 63

Partner della fonderia e ruolo di TSMC

In qualità di fonderia leader a livello mondiale specializzata nella produzione di semiconduttori, TSMC realizza semiconduttori basati su progetti dei clienti anziché creare i propri chip, distinguendosi così da aziende come Samsung Foundry e Samsung Foundry Services. Sebbene Samsung Foundry e Samsung Foundry Services siano in competizione in questo settore, TSMC mantiene un vantaggio tecnologico.

Le sue tecnologie di processo avanzate, in particolare i nodi pionieristici a 5 nm e 3 nm, offrono la combinazione essenziale di prestazioni ed efficienza energetica richiesta per le applicazioni di intelligenza artificiale all'avanguardia, come dimostrano le sue partnership produttive con i progettisti di chip per l'IA elencati di seguito:

piani di espansione

TSMC sta cercando Nvidia, Broadcom e Broadcom per investire in una joint venture per gestire la divisione fonderia di TSMC, mantenendo il controllo operativo ma una quota di proprietà inferiore al 50%. Questa iniziativa, sostenuta dall'amministrazione Trump, arriva dopo che TSMC ha annunciato piani per un significativo investimento negli Stati Uniti e mira a rilanciare TSMC e rafforzare la produzione di chip negli Stati Uniti. L'accordo presenta delle sfide a causa delle differenze di processo, ma si basa sui punti di forza di TSMC come fonderia leader. 64 65

Quali sono i produttori di chip per l'intelligenza artificiale in Cina?

A causa delle sanzioni statunitensi che impediscono a molte aziende cinesi di acquisire i chip AI più avanzati da AMD e NVIDIA, gli acquirenti cinesi hanno aumentato i loro acquisti dai produttori locali.

Oltre a Huawei e Alibaba, già menzionati, questi sono i principali produttori di chip per l'intelligenza artificiale in Cina:

  • Cambricon si concentra sull'hardware per l'intelligenza artificiale e prevede un fatturato di circa 150 milioni di dollari nel suo ultimo anno di attività. 66
  • Baidu utilizza i chip Kunlun nel suo cloud e sta progettando il chip di terza generazione. Il Kunlun 2 era paragonabile all'A100 (991259-1747).
  • Biren , fondata da ex studenti di NVIDIA, produce i chip GPU BR106 e BR110.
  • Moore Threads produce le GPU MTT S2000.

FAQ

I chip e le apparecchiature per la loro produzione sono le macchine più complesse mai create dall'uomo. Sebbene nell'ecosistema dei semiconduttori siano presenti numerose aziende, in questo articolo ci siamo concentrati su progettisti di chip come NVIDIA.
La maggior parte dei progettisti di chip esternalizza la produzione a fonderie come TSMC. Le fonderie utilizzano apparecchiature di litografia prodotte da aziende come ASML per fabbricare questi chip. L'ecosistema è supportato da fornitori come Arm e Synopsys che forniscono IP e strumenti di progettazione.

Come visto in precedenza, un numero crescente di parametri, dimensioni del dataset e potenza di calcolo hanno portato i modelli di IA generativa a diventare più accurati. Per creare modelli di deep learning migliori e potenziare le applicazioni di IA generativa, le organizzazioni necessitano di maggiore potenza di calcolo e larghezza di banda della memoria.
I potenti chip generici (come le CPU) non sono in grado di supportare modelli di deep learning altamente parallelizzati. Pertanto, i chip per l'intelligenza artificiale (ad esempio, le GPU) che consentono capacità di calcolo parallelo sono sempre più richiesti.
Le aziende hyperscaler stanno reagendo a questa situazione progettando i propri chip, un processo che richiede anni. Le altre aziende devono invece seguire una di queste strade per costruire i propri modelli di intelligenza artificiale: noleggiare capacità da fornitori di GPU cloud o acquistare hardware dai principali produttori di chip per l'IA elencati in questo articolo.
L'hardware per l'intelligenza artificiale è anche chiamato unità di elaborazione neurale (NPU), acceleratori di IA o processori di apprendimento profondo (DLP).

Per approfondire

Puoi anche consultare il nostro elenco ordinabile di aziende che lavorano su chip per l'intelligenza artificiale .

Potrebbe interessarti leggere i nostri articoli su TinyML e sul calcolo accelerato .

Se hai domande su come l'hardware basato sull'intelligenza artificiale può aiutare la tua azienda, possiamo aiutarti:

Trova i fornitori giusti

Riferimenti

Collegamenti di riferimento

1.
Good News For Alibaba - ACCEL Chip Outshines Nvidia's AI Chips, China Claims - Alibaba Gr Hldgs (NYSE:BAB - Benzinga
Benzinga
2.
ASIC Set to Outpace GPU? NVIDIA’s Scale-Up and Beyond | TrendForce
TrendForce
3.
DGX Platform: Built for Enterprise AI | NVIDIA
4.
DGX SuperPOD with DGX GB200 Systems | NVIDIA
5.
Nvidia Pushes Further Into Cloud With GPU Marketplace - WSJ
The Wall Street Journal
6.
NVIDIA Dynamo, A Low-Latency Distributed Inference Framework for Scaling Reasoning AI Models | NVIDIA Technical Blog
NVIDIA Developer
7.
NVIDIA Dynamo, A Low-Latency Distributed Inference Framework for Scaling Reasoning AI Models | NVIDIA Technical Blog
NVIDIA Developer
8.
NVIDIA RTX PRO Servers Speed Trillion-Dollar Enterprise IT Industry Transition to AI Factories | NVIDIA Newsroom
9.
Jevons paradox - Wikipedia
Contributors to Wikimedia projects
10.
Trump imposes 25% tariff on Nvidia AI chips and others, citing national security | Nvidia | The Guardian
The Guardian
11.
Nvidia CEO to defend AI dominance as competition intensifies | Reuters
Reuters
12.
Lamini & AMD: Paving the Road to GPU-Rich Enterprise LLMs | Lamini - Enterprise LLM Platform
13.
Annuncio di AI2 OLMo, un modello linguistico aperto creato da scienziati, per gli scienziati
14.
Training LLMs at Scale with AMD MI250 GPUs | Databricks Blog
15.
Training 221B Parameter Korean LLM on 1,200 AMD MI250 GPU Cluster – Moreh
16.
Exclusive: AMD Acquires Team Behind AI Chip Startup Untether AI
17.
AMD Delivers Leadership AI Performance with AMD Instinct MI325X Accelerators :: Advanced Micro Devices, Inc. (AMD)
18.
AMD + 🤗: Large Language Models Out-of-the-Box Acceleration with AMD GPU
Hugging Face
19.
Achieving Top Inference Performance with the NVIDIA H100 Tensor Core GPU and NVIDIA TensorRT-LLM | NVIDIA Technical Blog
NVIDIA Developer
20.
Competitive performance claims and industry leadin... - AMD Community
21.
MI300X vs H100 vs H200 Benchmark Part 1: Training - CUDA Moat Still Alive
SemiAnalysis
22.
Exclusive | AMD Invests in Drug-Discovery Company Absci in Push to Sell AI Chips - WSJ
The Wall Street Journal
23.
Intel Breaks Down Proprietary Walls to Bring Choice to Enterprise GenAI Market - Intel Newsroom
Intel Corporation
24.
The Death of Intel: When Boards Fail - by Doug O'Laughlin
Fabricated Knowledge
25.
Google supercharges machine learning tasks with TPU custom chip | Google Cloud Blog
Google Cloud
26.
Introducing Trillium, sixth-generation TPUs | Google Cloud Blog
Google Cloud
27.
Ironwood: The first Google TPU for the age of inference
Google
28.
IBM’s new AIU artificial intelligence chip - IBM Research
IBM
29.
Technology News | TechHQ | Latest Technology News & Analysis
TechHQ
30.
Telum Processor: IBM’s newest chip - IBM Research
IBM
31.
‘Mind-blowing’ IBM chip speeds up AI
Nature Publishing Group UK
32.
Tech war: China’s chip firms embrace DeepSeek in AI self-sufficiency drive | South China Morning Post
South China Morning Post
33.
https://mp.weixin.qq.com/s/ETHwNxWl04mqQt04o0zO8g
34.
35.
AI chip startup Groq secures $1.5 billion commitment from Saudi Arabia | Reuters
Reuters
36.
Real-time AI Inference Demand Accelerates on GroqCloud | Groq is fast, low cost inference.
37.
38.
SambaNova Unveils Fastest Chip for Agentic AI, Collaborates with Intel, and Raises $350M+
SambaNova
39.
Introducing the SN50 RDU: Purpose-Built for Agentic Inference
SambaNova
40.
SambaCloud | Full-Stack AI Platform for Large Open-Source Models
41.
Cerebras - Wikipedia
Contributors to Wikimedia projects
42.
Cerebras Systems Unveils World’s Fastest AI Chip with Whopping 4 Trillion Transistors - Cerebras
43.
https://www.d-matrix.ai/wp-content/uploads/2023/09/d-Matrix-WhitePaper-Approved-w-cover.pdf
44.
Korean AI chipmaker Rebellions Closes $124M Series B Fundraise - Rebellions
Rebellions
45.
Rebellions and SAPEON Korea Sign Definitive Merger Agreement - Rebellions
Rebellions
46.
Samsung backs AI chip startup Rebellions ahead of IPO
CNBC
47.
Blackhole™
48.
Jeff Bezos Is Betting on AI Chip Startup Tenstorrent to Take on Nvidia (NVDA) - Bloomberg
Bloomberg
49.
Positron | About
50.
Positron | About
51.
Positron | About
52.
The path to ubiquitous AI | Taalas
53.
Products | Taalas
54.
A startup working on 'reversible computing' chip for AI says initial tests show a 50% energy savings | Fortune
Fortune
55.
Exclusive | Apple Is Developing AI Chips for Data Centers, Seeking Edge in Arms Race - WSJ
The Wall Street Journal
56.
Our next generation Meta Training and Inference Accelerator
57.
Exclusive: OpenAI set to finalize first custom chip design this year  | Reuters
Reuters
58.
GRAPHCORE LIMITED filing history - Find and update company information - GOV.UK
59.
Graphcore joins SoftBank Group to build next generation of AI compute
Graphcore
60.
Mythic company information, funding & investors | Dealroom.co
61.
AI chip startup Mythic rises from the ashes with $13M, new CEO | TechCrunch
TechCrunch
62.
Speedata, a chip startup competing with Nvidia, raises a $44M Series B | TechCrunch
TechCrunch
63.
Eindhoven-based Axelera AI secures €61.6M grant
64.
TSMC shares open lower following announcement of $100 billion investment in US | Reuters
Reuters
65.
Exclusive: TSMC pitched Intel foundry JV to Nvidia, AMD and Broadcom, sources say | Reuters
Reuters
66.
https://www.cambricon.com/index.php?m=content&c=index&a=lists&catid=326
Cem Dilmegani
Cem Dilmegani
Analista principale
Cem è analista principale presso AIMultiple dal 2017. AIMultiple fornisce informazioni a centinaia di migliaia di aziende (secondo SimilarWeb), tra cui il 55% delle aziende Fortune 500, ogni mese. Il lavoro di Cem è stato citato da importanti pubblicazioni globali come Business Insider, Forbes, Washington Post, società globali come Deloitte e HPE, ONG come il World Economic Forum e organizzazioni sovranazionali come la Commissione Europea. È possibile consultare l'elenco di altre aziende e risorse autorevoli che hanno citato AIMultiple. Nel corso della sua carriera, Cem ha lavorato come consulente tecnologico, responsabile acquisti tecnologici e imprenditore nel settore tecnologico. Ha fornito consulenza alle aziende sulle loro decisioni tecnologiche presso McKinsey & Company e Altman Solon per oltre un decennio. Ha anche pubblicato un report di McKinsey sulla digitalizzazione. Ha guidato la strategia tecnologica e gli acquisti di un'azienda di telecomunicazioni, riportando direttamente al CEO. Ha inoltre guidato la crescita commerciale dell'azienda deep tech Hypatos, che ha raggiunto un fatturato annuo ricorrente a 7 cifre e una valutazione a 9 cifre partendo da zero in soli 2 anni. Il lavoro di Cem in Hypatos è stato oggetto di articoli su importanti pubblicazioni tecnologiche come TechCrunch e Business Insider. Cem partecipa regolarmente come relatore a conferenze internazionali di settore. Si è laureato in ingegneria informatica presso l'Università di Bogazici e ha conseguito un MBA presso la Columbia Business School.
Visualizza il profilo completo

Commenti 2

Condividi i tuoi pensieri

Il tuo indirizzo email non verrà pubblicato. Tutti i campi sono obbligatori.

0/450
Dave
Dave
Aug 29, 2022 at 05:49

You forgot to include Tesla with their DOJO supercomputer. From the ground-up, the supercomputer was specifically designed for machine learning and image recognition - which means that every component was designed for it including, but not limited to, PCI board design, CPU, RAM, cooling, power, scalable hardware design and software. If I'm not mistaken, the AI is also the second most widely tested and used in the "wild", just below that of Google due to Google using it in their Search.

Cem Dilmegani
Cem Dilmegani
Sep 06, 2022 at 13:52

Thank you for your feedback, Dave! Here we are only covering companies that sell the chips that they produce. Therefore, companies like Tesla that build supercomputers for their own use or companies that embed chips in their products are out of our scope.

thayyil
thayyil
Mar 19, 2022 at 11:48

surprised that brainchip (akida) missing in this report. any reasons?

Cem Dilmegani
Cem Dilmegani
Nov 18, 2022 at 07:36

All included companies here raised $100+M. Last time we collected the data, that wasn't the case for akida. Why don't you reach out to us at info@aimultiple.com and let's discuss why it should be included. Thank you!