Basierend auf unseren Erfahrungen mit dem Cloud-GPU-Benchmark von AIMultiple, bei dem wir 10 verschiedene GPU-Modelle in 4 verschiedenen Szenarien getestet haben, sind dies die führenden KI-Hardware-Hersteller für Rechenzentrums-Workloads. Folgen Sie den Links, um unsere Begründung für die jeweilige Auswahl zu erfahren:
Mehr als 20 KI-Chiphersteller nach Kategorie
Diese Chiphersteller konzentrieren sich auf Chips für Rechenzentren:
*Die ausgewählten Modelle basieren auf den neuesten Ankündigungen.
**ACCEL wurde von chinesischen Wissenschaftlern in Zusammenarbeit mit Alibaba und der chinesischen Semiconductor Manufacturing International Corporation (SMIC) entwickelt.** 1
Die Sortierung erfolgt nach Kategorie. Die Anbieter werden nach ihrem geschätzten Marktanteil in den drei Top-Kategorien (führender Hersteller, Public Cloud, Public AI Cloud) geordnet, da sich hier Umsatzzahlen bzw. Cloud-Nutzung schätzen lassen. Die Anbieter in den drei übrigen Kategorien (KI-Startups, aufstrebende Hersteller, sonstige Hersteller) werden alphabetisch sortiert.
5 Anbieter von mobilen KI-Chips
*Die beliebtesten und neuesten Chips wurden ausgewählt.
5 Edge-KI-Chips
Die Nachfrage nach latenzarmer Verarbeitung hat Innovationen bei Edge-KI-Chips vorangetrieben. Die Prozessoren dieser Chips sind so konzipiert, dass sie KI-Berechnungen lokal auf den Geräten durchführen, anstatt auf Cloud-basierte Lösungen zurückzugreifen:
*Dies sind die von den Anbietern angegebenen Maximalwerte. TOPS steht für Tera-Operationen pro Sekunde.
KI-Chiparchitekturen verstehen: GPUs vs. ASICs
Nicht alle KI-Chips sind gleich. Obwohl die oben genannten Anbieter im selben Markt konkurrieren, verwenden sie grundlegend unterschiedliche Chiparchitekturen:
- GPUs (Grafikprozessoren) sind universell einsetzbare Prozessoren, die sowohl Training als auch Inferenz für ein breites Spektrum an KI-Anwendungen bewältigen können. NVIDIA und AMD sind die führenden Prozessoren in dieser Kategorie.
- ASICs (anwendungsspezifische integrierte Schaltungen) werden kundenspezifisch für bestimmte Aufgaben entwickelt. Einige unterstützen sowohl Training als auch Inferenz (Google TPU, AWS Trainium), während andere nur für die Inferenz geeignet sind (Groq LPU, AWS Inferentia).
Wichtigste Erkenntnis:
Nicht alle ASICs sind ausschließlich für Inferenz geeignet. Google TPU, AWS Trainium, Cerebras und SambaNova unterstützen sowohl Training als auch Inferenz, während Groq LPU und AWS Inferentia sich ausschließlich auf Inferenz konzentrieren.
Diese Unterscheidung ist für Käufer wichtig: GPUs bieten Flexibilität bei verschiedenen KI-Workloads, während ASICs eine bessere Leistung pro Watt liefern, aber schwieriger umzuprogrammieren sind, wenn sich die Modellarchitekturen ändern.
Laut TrendForce 2 Basierend auf den Wachstumsraten der Auslieferungen von KI-Servern wird für 2026 ein Anstieg der Auslieferungen kundenspezifischer ASICs von Cloud-Anbietern um 44,6 % prognostiziert, während für GPUs ein Wachstum von 16,1 % erwartet wird. Dies deutet auf eine Verschiebung in der KI-Hardwarelandschaft hin, da Hyperscaler zunehmend in ihre eigenen Siliziumchips investieren.
Welche sind die führenden Hersteller von KI-Chips?
1. NVIDIA
NVIDIA entwickelt seit den 1990er Jahren Grafikprozessoren (GPUs) für den Gaming-Sektor. NVIDIA ist ein fabless Chiphersteller, der den Großteil seiner Chipfertigung an TSMC auslagert. Zu seinen Hauptgeschäftsfeldern gehören:
Desktop-KI-Lösungen
DGX Spark (ehemals Project Digits) ist ein Desktop-KI-Supercomputer für KI-Ingenieure und Datenwissenschaftler, der Folgendes bietet:
- Die Kosten werden voraussichtlich bei etwa 3.000 US-Dollar liegen.
- Es ist etwa so groß wie ein Mac mini und wird vom NVIDIA GB10 Grace Blackwell Superchip mit 128 GB Speicher angetrieben.
- Es ist in der Lage, LLM-Inferenz und Feinabstimmung für Modelle mit bis zu 200 Milliarden Parametern durchzuführen und nutzt NVLink-C2C für eine schnelle CPU+GPU-Kommunikation.
Rechenzentrumslösungen
Das Unternehmen stellt KI-Chips auf Basis seiner Ampere-, Hopper- und zuletzt Blackwell-Architekturen her. Dank des Booms im Bereich der generativen KI erzielte das Unternehmen in den vergangenen Jahren hervorragende Ergebnisse, erreichte eine Billionen-Dollar-Bewertung und festigte seine Position als Marktführer im Bereich GPU- und KI-Hardware. Die folgende Grafik veranschaulicht das Umsatzwachstum des Unternehmens in diesem Segment über die Jahre und dessen Entwicklung zur wichtigsten Einnahmequelle.
Die Chipsätze von NVIDIA wurden entwickelt, um Geschäftsprobleme in verschiedenen Branchen zu lösen. Die DGX™ A100 und H100 waren erfolgreiche Flaggschiff-KI-Chips von Nvidia, die für KI-Training und -Inferenz in Rechenzentren konzipiert wurden. 3 NVIDIA hat diese weiterverfolgt mit
- H200-, B300- und GB300-Chips
- HGX-Server wie HGX H200 und HGX B300, die 8 dieser Chips kombinieren.
- Die NVL-Serie und der GB200 SuperPod kombinieren noch mehr Chips zu großen Clustern. 4
Cloud-GPUs
Dank der Stärke seines Rechenzentrumsangebots hat NVIDIA fast ein Monopol auf dem Markt für Cloud-KI, da die meisten Cloud-Anbieter nur NVIDIA GPUs als Cloud-GPUs anbieten.
NVIDIA hat außerdem sein DGX Cloud -Angebot auf den Markt gebracht, das Unternehmen direkt Cloud-GPU-Infrastruktur zur Verfügung stellt und dabei Cloud-Anbieter umgeht.
GPUs für Grafik
Xbox verwendet einen von NVIDIA und Microsoft gemeinsam entwickelten Chipsatz. Zu den GPUs von NVIDIA für Endkunden gehört die GeForce-Serie.
Aktuelle Entwicklungen
DGX Cloud Lepton
DGX Cloud Lepton, angekündigt am 19. Mai 2025 auf der Computex, ist ein Marktplatz, der KI-Entwickler mit GPU-Cloud-Anbietern wie CoreWeave, und verbunden hat. Er ermöglicht flexiblen Zugriff auf GPU-Ressourcen für das Training und die Inferenz von KI-Modellen und umgeht so die Abhängigkeit von herkömmlichen Cloud-Anbietern. Dies stärkt die unternehmensorientierte Cloud-Strategie von . 5
NVIDIA Dynamo
Dynamo, vorgestellt auf der GTC 2025, ist ein neues Open-Source-Framework für Inferenz, das für den Einsatz generativer KI-Modelle mit hohem Durchsatz und geringer Latenz in verteilten Umgebungen entwickelt wurde. Es steigert die Bearbeitungsgeschwindigkeit von Anfragen auf Blackwell um bis zu 30x (siehe Abbildung unten). Das Framework ist kompatibel mit gängigen Tools wie PyTorch und TensorRT-LLM und nutzt Innovationen wie disaggregierte Inferenzphasen und dynamische GPU-Planung, um die Leistung zu optimieren und Kosten zu senken. Dynamo ist auf GitHub für Entwickler verfügbar und in den NIM-Mikrodiensten für Unternehmenslösungen enthalten. Es ermöglicht die skalierbare und kosteneffiziente Bereitstellung generativer KI von Systemen mit einer bis hin zu Systemen mit mehreren GPUs. 6
NVIDIA RTX PRO Server und Enterprise AI Factory
Auf der Computex im Mai 2025 wurden die RTX PRO Server vorgestellt, die mit RTX PRO 6000 Blackwell Server Edition GPUs ausgestattet sind und speziell für KI-Entwicklungsumgebungen in Unternehmen konzipiert wurden. Diese Server bieten universelle Beschleunigung für KI-, Design-, Entwicklungs- und Geschäftsanwendungen und unterstützen Workloads wie multimodale KI-Inferenz, physikalische KI und digitale Zwillinge auf der Omniverse-Plattform.
Das validierte Design der Enterprise AI Factory (NVIDIA), das RTX PRO Server, Spectrum-X Ethernet, BlueField DPUs und die AI Enterprise Software integriert, ermöglicht Partnern wie Cadence, Foxconn und Lilly den Aufbau eigener KI-Infrastrukturen. Diese Initiative beschleunigt den Übergang der Billionen-Dollar-IT-Branche zu GPU-beschleunigten KI-Fabriken. 8
DeepSeek
Die Veröffentlichung von DeepSeeks R1 zeigte, dass sich hochmoderne Modelle mit einer relativ geringen Anzahl von GPUs trainieren lassen. Dies führte zu einem Rückgang des Aktienkurses von NVIDIA. Obwohl dies keine Anlageberatung darstellt, kann dies für NVIDIA positiv sein, da mit zunehmendem Nutzen der Rechenleistung auch deren breitere Anwendung zunimmt (vgl. Jevons-Paradoxon). 9 ).
Da sich die Leistung von GPU-Systemen jedoch dank Verbesserungen im Chipdesign und in der Verbindungstechnik jährlich um ein Vielfaches steigert, sollten Käufer nicht mehr kaufen, als sie jährlich benötigen, da dies zum Besitz veralteter Systeme führen kann.
Zölle und Ausfuhrbeschränkungen
Taiwan (Lizenznummer 991259_1747) darf nun fortschrittliche KI-Prozessoren nach China exportieren. Dies bedeutet eine Abkehr von den bisherigen Bestimmungen, die nur den Verkauf von leistungsschwächeren Versionen erlaubten. Allerdings sehen sich diese Exporte mit neuen logistischen und finanziellen Hürden konfrontiert: In Taiwan hergestellte Chips müssen nun zur Prüfung durch Dritte einen Umweg über die USA nehmen, was einen neu eingeführten nationalen Sicherheitszoll von 25 % auslöst.
Trotz des wiederhergestellten Zugangs zu High-End-Hardware spornen die gestiegenen Kosten und die komplexen Lieferketten die chinesische Regierung und die Chipindustrie weiterhin an, wettbewerbsfähige lokale Alternativen zu entwickeln. Obwohl chinesische Chips derzeit noch hinter der neuesten Technologie von NVIDIA zurückbleiben, stellen diese Handelsbarrieren sicher, dass die heimische Entwicklung strategische Priorität behält und die Marktführerschaft von NVIDIA in Zukunft potenziell in Frage stellen könnte. 10
Wettbewerb auf dem Inferenzmarkt
Während NVIDIA den Markt für KI-Training dominiert, verschärft sich der Wettbewerb im Bereich der Inferenz, also dem Einsatz von KI-Modellen für reale Aufgaben. Unternehmen wie AMD und zahlreiche Startups, darunter Untether AI und Groq, entwickeln Chips, die kostengünstigere Inferenzlösungen mit besonderem Fokus auf geringeren Stromverbrauch bieten sollen.
Neue KI-Verfahren zum logischen Denken erfordern mehr Rechenleistung. NVIDIA geht davon aus, dass das logische Denken langfristig seine Architektur begünstigen wird und erwartet, dass der Markt für Inferenz den Trainingsmarkt schließlich deutlich übertreffen wird, selbst wenn sein Marktanteil geringer ist. 11
2. AMD
AMD ist ein fabless Chiphersteller mit Produkten aus den Bereichen CPU, GPU und KI-Beschleuniger.
AMD brachte im Juni 2023 den MI300 für KI-Trainings-Workloads auf den Markt und konkurriert mit NVIDIA um Marktanteile. Startups, Forschungsinstitute, Unternehmen und Technologiekonzerne haben 2023 Hardware von AMD eingeführt, da KI-Hardware von Nvidia aufgrund der rasant steigenden Nachfrage – ausgelöst durch den Aufstieg der generativen KI infolge der Einführung von ChatGPT – schwer zu beschaffen war. 12 13 14 15
Im Jahr 2025 gab AMD die Übernahme eines talentierten Teams von KI-Hardware- und Software-Ingenieuren von Untether AI bekannt, einem Entwickler energieeffizienter KI-Inferenzchips für Edge-Anbieter und Rechenzentren. Dieser Schritt stärkt die Kompetenzen von AMD in den Bereichen KI-Compiler, Kernel-Entwicklung und Chipdesign und festigt die Position des Unternehmens im Inferenzmarkt. Zusätzlich erwarb AMD das Compiler-Startup Brium, um die KI-Performance auf seinen Instinct-GPUs für Rechenzentren in Unternehmensanwendungen zu optimieren. 16
AMD wird die MI350-Serie als Nachfolger der MI300-Serie auf den Markt bringen und mit der H200-Serie von NVIDIA konkurrieren. AMD behauptet, dass der MI325X, ein weiterer kürzlich entwickelter Chip, eine marktführende Inferenzleistung aufweist. 17
AMD arbeitet außerdem mit Unternehmen im Bereich maschinelles Lernen wie Hugging Face zusammen, um Datenwissenschaftlern eine effizientere Nutzung ihrer Hardware zu ermöglichen. 18
Das Software-Ökosystem ist von entscheidender Bedeutung, da die Hardwareleistung maßgeblich von der Softwareoptimierung abhängt. Beispielsweise gab es zwischen AMD und NVIDIA eine öffentliche Auseinandersetzung über die Benchmark-Ergebnisse von H100 und MI300. Im Mittelpunkt der Diskussion standen das zu verwendende Softwarepaket und die Gleitkomma-Generierung für den Benchmark. Laut den neuesten Benchmarks scheint MI300 bei Inferenzberechnungen auf einem 70-Byte-LLM mindestens gleichwertig oder sogar besser als H100 zu sein. 19 20
Software
Während die Hardware von AMD gegenüber NVIDIA aufholt, hinkt die Software in puncto Benutzerfreundlichkeit hinterher. CUDA funktioniert zwar für die meisten Aufgaben sofort, die Software von AMD erfordert jedoch umfangreiche Konfigurationen. 21
Ökosystem
Ähnlich wie NVIDIA investiert auch AMD gezielt in die Nutzer seiner Lösungen, um die Akzeptanz seiner Hardware zu steigern. 22
3. Intel
Intel ist der bedeutendste Akteur auf dem CPU-Markt und blickt auf eine lange Geschichte in der Halbleiterentwicklung zurück. Im Gegensatz zu NVIDIA und AMD nutzt Intel eine eigene Chipfertigung.
Gaudi3 ist der neueste KI-Beschleunigerprozessor von Intel. 23 Allerdings lag die Umsatzprognose von Intel für Gaudi3 bei rund 500 Millionen US-Dollar für das Jahr 2024, was deutlich niedriger ist als die Milliarden, die AMD im Jahr 2024 zu verdienen prognostiziert.
Intel leidet unter Governance-Problemen, wie der Rücktritt von CEO Pat Gelsinger im Dezember 2024 zeigt. Einem erheblichen Teil der Vorstandsmitglieder von Intel fehlt die Erfahrung in der operativen Führung eines Halbleiterunternehmens. 24 Nach dem Ausscheiden des CEO bleibt die Strategie von Intel auf den Märkten für KI und Foundry unklar.
Welche Public-Cloud-Anbieter produzieren KI-Chips?
4. AWS
AWS produziert Tranium-Chips für das Modelltraining und Inferentia-Chips für die Inferenz. Obwohl AWS Marktführer im Bereich Public Cloud ist, begann das Unternehmen erst nach Google mit der Entwicklung eigener Chips.
Hunderttausende von Tranium2-Chips werden verwendet, um den Project Rainier-Cluster zu bilden, der die Modelle des LLM- Entwicklers Anthropic antreibt.
5. Google Cloud-Plattform
Der Cloud TPU ist ein speziell entwickelter Beschleunigerchip für maschinelles Lernen, der Produkte wie Translate, Fotos, Suche, Assistant und Gmail antreibt. Er kann auch über die Cloud genutzt werden. TPUs wurden 2016 angekündigt. 25 Das neueste Trillium TPU ist die 6. Generation. 26
Google hat Ironwood vorgestellt. Diese neueste Generation ist speziell für komplexe „Denkmodelle“ wie LLMs und MoEs konzipiert und bietet massive Parallelverarbeitung (4.614 TFLOPS pro Chip) und eine Skalierung auf bis zu 42,5 Exaflops in 9.216-Chip-Pods. 27
Ironwood bietet gegenüber Trillium deutliche Verbesserungen, darunter eine doppelt so hohe Energieeffizienz, die sechsfache Speicherkapazität (192 GB/Chip), die 4,5-fache HBM-Bandbreite (7,2 TB/s/Chip) und die 1,5-fache Inter-Chip-Verbindungsgeschwindigkeit (1,2 Tbps). Zudem verfügt es über einen optimierten SparseCore für große Einbettungen. Google bietet außerdem die deutlich kleinere Edge TPU für andere Anforderungen, die für den Einsatz in Edge-Geräten wie Smartphones und IoT-Hardware konzipiert ist.
6. Alibaba
Alibaba produziert Chips wie den Hanguang 800 für Inferenzsysteme. Allerdings könnten einige nordamerikanische, europäische und australische Organisationen (z. B. aus der Verteidigungsindustrie) aus geopolitischen Gründen die Verwendung von Alibaba Cloud ablehnen.
7. IBM
IBM kündigte im Jahr 2022 seinen neuesten Deep-Learning-Chip, die Artificial Intelligence Unit (AIU), an. 28 IBM erwägt, diese Chips für seine generative KI-Plattform Watsonx zu verwenden. 29
AIU basiert auf dem „ IBM Telum-Prozessor “, der die KI-Verarbeitungsfunktionen der IBM Z-Mainframe-Server ermöglicht. Zu den hervorgehobenen Anwendungsfällen der Telum-Prozessoren bei ihrer Markteinführung gehörte die Betrugserkennung . 30
IBM zeigte außerdem, dass die Zusammenführung von Rechenleistung und Speicher zu Effizienzsteigerungen führen kann. Diese wurden im Prototyp des Nordpolprozessors demonstriert. 31
8. Huawei
Der HiSilicon Ascend 910C mit der Seriennummer Huawei gehört zur Ascend 910-Chipfamilie, die im Jahr 2019 eingeführt wurde.
Aufgrund von Sanktionen können KI-Labore in China die neuesten und leistungsstärksten Chips von US-Firmen wie beispielsweise NVIDIA oder AMD nicht erwerben. Daher experimentieren sie mit dem Ascend 910C.
Die Cloud von Huawei hostet DeepSeek Modelle, und ein Forscher bei DeepSeek behauptet, dass sie 60% der NVIDIA H100 Inferenzleistung erreichen kann. 32 33
Welche Cloud-KI-Anbieter produzieren ihre eigenen Chips?
Diese Anbieter verfügen nicht über öffentliche Cloud-Dienste mit so umfassenden Funktionen wie die Hyperscaler. Sie bieten eingeschränkte Cloud-Dienste an, die sich typischerweise auf KI-Inferenz konzentrieren. Wir konnten uns für diese Dienste anmelden, ohne mit Vertriebsteams sprechen zu müssen.
8. Groq
Groq wurde von ehemaligen Mitarbeitern von [Name des Unternehmens] gegründet. Das Unternehmen vertritt LPUs, ein neues Modell für KI-Chiparchitekturen, das Unternehmen die Einführung seiner Systeme erleichtern soll. Das Startup hat bereits rund 350 Millionen US-Dollar an Kapital eingeworben und erste Produkte wie den GroqChip™ Prozessor und den GroqCard™ Beschleuniger auf den Markt gebracht.
Das Unternehmen konzentriert sich auf LLM-Inferenz und hat Benchmarks für Llama-2 70B veröffentlicht. 34
Groq hat kürzlich eine bedeutende Investitionszusage in Höhe von 1,5 Milliarden US-Dollar aus Saudi-Arabien erhalten, um die Lieferung seiner fortschrittlichen KI-Chips in das Land auszuweiten. Mit dieser Investition wird das bestehende Rechenzentrum von Groq in Dammam, Saudi-Arabien, das in Partnerschaft mit Aramco Digital errichtet wurde, erweitert. 35
Im ersten Quartal 2024 teilte das Unternehmen mit, dass sich 70.000 Entwickler auf seiner Cloud-Plattform registriert und 19.000 neue Anwendungen entwickelt hätten. 36
Am 1. März 2022 erwarb Groq Maxeler, einen Anbieter von High-Performance-Computing-Lösungen (HPC) für Finanzdienstleistungen. 37
9. SambaNova Systeme
SambaNova Systems wurde 2017 gegründet, um leistungsstarke und hochpräzise Hardware-Software-Systeme für umfangreiche generative KI-Workloads zu entwickeln. Das Unternehmen hat insgesamt mehr als 1,5 Milliarden US-Dollar an Finanzmitteln eingeworben, darunter eine Serie-E-Finanzierungsrunde über 350 Millionen US-Dollar im Februar 2026. 38
Im Februar 2026 stellte SambaNova den SN50-Chip vor, seine neueste rekonfigurierbare Dateneinheit (RDU). Dieser Chip verspricht eine bis zu fünfmal höhere Geschwindigkeit als vergleichbare Chips und dreimal niedrigere Gesamtbetriebskosten im Vergleich zu GPUs für agentenbasierte KI-Workloads. Der SN50 bietet die fünffache Rechenleistung pro Beschleuniger und die vierfache Netzwerkbandbreite im Vergleich zur Vorgängergeneration SN40L und unterstützt eine dreistufige Speicherarchitektur für Modelle mit über 10 Billionen Parametern und über 10 Millionen Token-Kontextlängen. 39
SoftBank Corp. wird der erste Kunde sein, der SN50 in seinen KI-Rechenzentren der nächsten Generation in Japan einsetzt.
SambaNova kündigte außerdem eine geplante mehrjährige strategische Zusammenarbeit mit Intel an, um KI-Inferenzlösungen bereitzustellen. Dabei werden die Systeme von SambaNova mit Xeon-Prozessoren, GPUs und Netzwerken von Intel kombiniert, um eine skalierbare Inferenzinfrastruktur als Alternative zu GPU-zentrierten Lösungen zu ermöglichen.
Es ist wichtig zu erwähnen, dass SambaNova Systems seine Plattform auch über SambaCloud an Unternehmen vermietet. Dieser Ansatz einer KI-Plattform als Dienstleistung erleichtert die Einführung ihrer Systeme und fördert die Wiederverwendung von Hardware im Sinne der Kreislaufwirtschaft. 40
Welche sind die führenden KI-Chip-Startups?
Wir möchten Ihnen außerdem einige Startups aus der KI-Chip-Branche vorstellen, deren Namen wir in naher Zukunft sicherlich häufiger hören werden. Obwohl diese Unternehmen erst vor Kurzem gegründet wurden, haben sie bereits Millionen von Dollar an Kapital eingeworben.
10. Cerebras
Cerebras wurde 2015 gegründet und ist der einzige große Chiphersteller, der sich auf Wafer-Scale-Chips spezialisiert hat. 41 Wafer-Scale-Chips bieten dank ihrer höheren Speicherbandbreite Vorteile bei der Parallelverarbeitung gegenüber GPUs. Die Entwicklung und Herstellung solcher Chips ist jedoch eine aufstrebende Technologie.
Cerebras Chips umfassen:
- WSE-1 mit 1,2 Billionen Transistoren und 400.000 Prozessorkernen.
- Die WSE-2-Architektur mit 2,6 Billionen Transistoren und 850.000 Kernen wurde im April 2021 angekündigt. Sie nutzte den 7-nm-Prozess von TSMC.
- Der WSE-3, ausgestattet mit 4 Billionen Transistoren und 900.000 KI-Kernen, wurde im März 2024 angekündigt. Er nutzt den 5-nm-Prozess von TSMC. 42
Das System von Celebra arbeitet mit Pharmaunternehmen wie AstraZeneca und GlaxoSmithKline sowie mit Forschungslaboren zusammen, die es für Simulationen nutzen. Es richtet sich auch an Hersteller von LLM-Systemen , da seine Chips die Inferenzkosten für innovative Modelle senken können.
Cerebras bietet seine Chips auch Unternehmen über seine Cloud an.
11. d-Matrix
d-Matrix verfolgt einen neuartigen Ansatz und verzichtet auf die traditionelle Von-Neumann-Architektur zugunsten von In-Memory-Computing. Obwohl dieser Ansatz das Potenzial hat, den Engpass zwischen Speicher und Rechenleistung zu beheben, ist er neu und noch nicht erprobt. 43
12. Rebellionen
Ein in Korea ansässiges Startup sammelte im Jahr 2024 124 Millionen Dollar ein und konzentriert sich auf LLM-Inferenz. 44
Rebellions fusionierte mit einem anderen koreanischen Halbleiterdesignunternehmen, SAPEON, und erreichte 2024 eine Einhorn-Bewertung. 45
Im Juli 2025 sicherte sich Rebellions im Rahmen einer Finanzierungsrunde mit einem Zielvolumen von bis zu 200 Millionen US-Dollar eine Investition des Technologiekonzerns Samsung, kurz vor dem geplanten Börsengang (IPO). Das Unternehmen hat seit seiner Gründung im Jahr 2020 220 Millionen US-Dollar eingeworben und arbeitet mit Samsung zusammen, um seinen Chip der zweiten Generation, Rebel-Quad (bestehend aus vier Rebel-KI-Chips), noch im Laufe des Jahres 2025 auf den Markt zu bringen. Dabei kommt Samsungs 4-Nanometer-Fertigungsprozess zum Einsatz. 46
13. Torrent
Der neueste Blackhole Tensix Prozessor von TensorPort liefert eine Leistung von 664 TFLOPS (BLOCKFP8), gepaart mit 32 GB GDDR6-Speicher und einer Speicherbandbreite von 512 GB/s.
Die P150a-Karte kostet 1.399 US-Dollar und verfügt über vier QSFP-DD 800G-Ports für die Skalierung mit mehreren Karten. Das Einsteigermodell P100a ist ab 999 US-Dollar erhältlich. 47
TensorT bietet eine vollständig quelloffene Softwareplattform. Das Unternehmen sammelte im Dezember 2024 von Investoren, darunter Jeff Bezos, 700 Millionen US-Dollar bei einer Bewertung von über 2,6 Milliarden US-Dollar ein. 48
14. Positron
Positron wurde 2023 gegründet und konzentriert sich ausschließlich auf die Inferenz von Transformer-Modellen. Das Unternehmen verfolgt einen ASIC-Ansatz und entwickelt speziell für Transformer-Architekturen optimierte Hardware anstelle von universellem GPU-Computing.
Produkte:
- Atlas (jetzt lieferbar): Ein Transformer-Inferenzserver mit 8 Positron Archer Transformer-Beschleunigern und insgesamt 256 GB HBM. Das Unternehmen verspricht eine mehr als vierfache Leistung pro Watt und eine mehr als dreifache Leistung pro Dollar im Vergleich zu Hopper-Systemen (Benchmarks auf Llama 3.1 8B mit BF16-Rechenleistung). 49
- Titan (erscheint 2027): Ein System der nächsten Generation mit über 8 TB Speicher, angetrieben von 4x Asimov Custom Chips, das für die Unterstützung von bis zu 16 Billionen Parametermodellen und über 10 Millionen Token-Kontextfenstern in einem luftgekühlten 4U-Formfaktor ausgelegt ist. 50
- Asimov (erscheint 2027): Kundenspezifischer Inferenzbeschleuniger-Siliziumchip mit mehr als 2 TB Speicher pro Chip.
Positron schloss Anfang 2026 eine Series-B-Finanzierungsrunde über mehr als 230 Millionen US-Dollar ab. Zu den Investoren gehörten QIA, Arm Holdings, Arena und Jump Trading. 51
Atlas wird derzeit von Unternehmen aus den Bereichen Netzwerktechnik, Gaming, Content-Moderation, CDN und Token-as-a-Service eingesetzt. Positron gibt an, dass sein Atlas-System im Vergleich zu ähnlichen H100-Systemen eine dreimal geringere End-to-End-Latenz bei Trading-Inferenz-Workloads aufweist und dabei nur ein Drittel des Stromverbrauchs aufweist.
Die Chips von Positron werden in den Vereinigten Staaten entwickelt, hergestellt und montiert.
15. _geätzt
Ihr Ansatz opfert Flexibilität für Effizienz, indem die Transformatorarchitektur fest in die Chips integriert wird.
Das Team behauptet
- Sohu hat den weltweit ersten Transformator-ASIC entwickelt.
- Diese 8 Sohu-Chips können über 500.000 Token pro Sekunde generieren. Das ist um eine Größenordnung mehr als das, was 8 B200-Chips (Typ 9912591747) leisten können.
Aktuell basieren diese Werte auf internen Messungen des Teams. Die KI-Teams von AIMultiple haben bisher keine Vergleichswerte oder Kundenreferenzen gefunden. Wir sind neugierig auf Folgendes:
- Was passiert, wenn das Modell veraltet ist? Müssen die Benutzer einen neuen Chip kaufen oder kann der alte Chip mit dem Nachfolgemodell rekonfiguriert werden?
- Wie haben sie ihren Benchmark durchgeführt? Welche Quantisierung und welches Modell wurden verwendet?
Wir werden diesen Artikel aktualisieren, sobald das _etched-Team weitere Details veröffentlicht. Es wird interessant sein zu sehen, ob das Brennen von Modellen auf Chips angesichts der alle paar Monate erscheinenden neuen Modelle nachhaltig ist.
16. Taalas
Taalas wurde Anfang 2023 gegründet und verfolgt den extremsten Ansatz bei der Spezialisierung von KI-Chips: die direkte Verdrahtung einzelner Modelle in kundenspezifische Siliziumchips, wodurch sogenannte „Hardcore-Modelle“ entstehen. 52 Das Unternehmen behauptet, es könne jedes bisher unbekannte KI-Modell innerhalb von zwei Monaten in kundenspezifischen Siliziumchip umwandeln.
Die Architektur von Taalas vereint Speicher und Rechenleistung auf einem einzigen Chip mit DRAM-ähnlicher Dichte und macht so HBM, fortschrittliche Gehäuse, 3D-Stapelung, Flüssigkeitskühlung oder Hochgeschwindigkeits-I/O überflüssig. Das Unternehmen beschreibt dies als eine radikale Vereinfachung des Hardware-Stacks.
Produkte:
- HC1 (jetzt verfügbar): Ein Technologiedemonstrator mit fest verdrahteter Llama 3.1 8B-Architektur, gefertigt auf TSMC 6 nm mit 53 Milliarden Transistoren. Taalas gibt 17.000 Token pro Sekunde und Nutzer an, was laut Herstellerangaben fast zehnmal schneller ist als der aktuelle Stand der Technik, bei 20-mal geringeren Herstellungskosten und einem zehnmal geringeren Stromverbrauch in einem luftgekühlten 2,5-kW-Server. Allerdings verwendet das Modell eine aggressive, kundenspezifische 3-Bit- und 6-Bit-Quantisierung, die im Vergleich zu GPU-Standards zu Qualitätseinbußen führt. 53
- HC2 (geplant): Eine Plattform der zweiten Generation mit höherer Dichte, schnellerer Ausführung und standardmäßigen 4-Bit-Gleitkommaformaten, um die Quantisierungsbeschränkungen von HC1 zu beheben.
Taalas hat mehr als 200 Millionen Dollar eingesammelt, gibt aber an, nur 30 Millionen Dollar für die Markteinführung seines ersten Produkts mit einem Team von 24 Personen ausgegeben zu haben.
17. Extropisch
Extropic sammelte Ende 2023 14 Millionen US-Dollar ein, um die Thermodynamik für Computeranwendungen zu nutzen. Das Unternehmen hat bisher noch keinen Chip auf den Markt gebracht.
18. Vaire
Vaire ist ein britisches Startup-Unternehmen, das Pionierarbeit im Bereich des reversiblen Rechnens leistet – einem innovativen Ansatz zur Entwicklung von Chips mit nahezu null Energieverbrauch. Im Gegensatz zum herkömmlichen Rechnen, bei dem Energie als Wärme verloren geht, recycelt das reversible Rechnen einen erheblichen Teil der Energie für nachfolgende Berechnungen.
Vaire hat einen Testchip vorgestellt, der 50 % seiner Energie zurückgewinnen kann. Dies zeigt das Potenzial der Technologie, den Energieverbrauch von KI-Workloads zu reduzieren und die physikalischen Grenzen, die sogenannte thermische Wand, zu umgehen, die die moderne Halbleiterfertigung vor Herausforderungen stellen. 54
Welche Hersteller von KI-Hardware werden in Zukunft auf den Markt kommen?
Obwohl es sich hierbei um überzeugende KI-Hardwarelösungen handelt, gibt es derzeit nur wenige Vergleichswerte zu ihrer Effektivität, da sie neu auf dem Markt sind.
19. Apple
Berichten zufolge konzentriert sich Apples Projekt ACDC auf die Entwicklung von Chips für KI-Inferenz. 55 Apple ist bereits ein bedeutender Chipdesigner; seine intern entwickelten Halbleiter werden in iPhones, iPads und MacBooks verwendet.
20. Meta
Meta Training and Inference Accelerator (MTIA) ist eine Familie von Prozessoren für KI-Workloads wie das Training von Meta LLaMa-Modellen.
Das neueste Modell ist Next Gen MTIA, das auf der 5-nm-Technologie von TSMC basiert und laut Herstellerangaben eine dreifach höhere Leistung als MTIA v1 bietet. MTIA wird in Racks mit bis zu 72 Beschleunigern untergebracht. 56
MTIA wird derzeit intern von Meta verwendet. Sollte Meta jedoch zukünftig ein auf LLaMa basierendes Angebot für generative KI im Unternehmensbereich auf den Markt bringen, könnten diese Chips ein solches Angebot unterstützen.
21. Microsoft Azure
Auf der Hot Chips 2024 präsentierte Microsoft den Maia 100, ihren ersten kundenspezifischen KI-Beschleuniger. Dieser optimiert umfangreiche KI-Workloads in Azure durch Hardware- und Software-Co-Optimierung. Der auf TSMCs N5-Prozess basierende Maia 100 mit fortschrittlicher Speicher- und Verbindungstechnologie ist auf hohen Durchsatz und diverse Datenformate ausgelegt und bietet Entwicklern dank seines SDKs Flexibilität für die schnelle Bereitstellung von PyTorch- und Triton-Modellen. Der KI-Chip der nächsten Generation von Microsoft, Codename Braga, verzögert sich jedoch aufgrund von Designänderungen, Personalengpässen und hoher Fluktuation von 2025 auf 2026 und könnte in puncto Energieeffizienz hinter Nvidias Blackwell-Chip zurückbleiben.
22. OpenAI
OpenAI finalisiert gemeinsam mit Broadcom und TSMC das Design seines ersten KI-Chips unter Verwendung der 3-Nanometer-Technologie von TSMC. Das Führungsteam des Chip-Teams verfügt über Erfahrung in der Entwicklung von TPUs bei Google und strebt die Massenproduktion des Chips im Jahr 2026 an. 57
Welche anderen Hersteller von KI-Chips gibt es?
23. Graphcore
Graphcore ist ein britisches Unternehmen, das 2016 gegründet wurde. Das Unternehmen kündigte seinen Flaggschiff-KI-Chip als IPU-POD256 an. Graphcore hat bereits rund 700 Millionen US-Dollar an Finanzmitteln erhalten.
Das Unternehmen unterhält strategische Partnerschaften mit Datenspeicheranbietern wie DDN, Pure Storage und Vast Data. Die KI-Chips von Graphcore werden von Forschungsinstituten wie dem Oxford-Man Institute of Quantitative Finance, der University of Bristol und der University of California, Berkeley, eingesetzt.
Die langfristige Überlebensfähigkeit des Unternehmens war gefährdet, da es jährlich Verluste in Höhe von rund 200 Millionen US-Dollar verzeichnete. 58 Im Oktober 2024 wurde es von Softbank für mehr als 600 Millionen Dollar übernommen. 59
24. Mythisch
Mythic wurde 2012 gegründet und konzentriert sich auf Edge-KI. Mythic verfolgt einen unkonventionellen Ansatz, eine analoge Rechenarchitektur, die energieeffizientes Edge-KI-Computing ermöglichen soll.
Das Unternehmen hat Produkte wie den M1076 AMP und die MM1076-Schlüsselkarte entwickelt und bereits rund 165 Millionen US-Dollar an Finanzmitteln eingeworben. 60
Mythic entließ den Großteil seiner Mitarbeiter und restrukturierte sein Geschäft im Zuge der Finanzierungsrunde im März 2023. 61
25. Speedata
Speedata wurde 2019 in Tel Aviv gegründet und entwickelt eine Analytics Processing Unit (APU) zur Beschleunigung von Big-Data-Analysen und KI-Workloads. Die APU ist primär für Apache-Spark-Workloads konzipiert, die Unterstützung weiterer gängiger Datenanalyseplattformen ist jedoch geplant.
Speedata sammelte im Juni 2025 in einer von Walden Catalyst Ventures, 83North und anderen angeführten Serie-B-Finanzierungsrunde 44 Millionen US-Dollar ein und erhöhte damit die Gesamtfinanzierung auf 114 Millionen US-Dollar. Das Unternehmen behauptet, seine APU übertreffe Allzweckprozessoren und GPUs, indem sie ganze Serverracks durch einen einzigen Chip ersetze und so überlegene Leistung und Energieeffizienz für die Datenverarbeitung biete. 62
26. Axelera AI
Axelera AI wurde im Juli 2021 in Eindhoven, Niederlande, gegründet und ist auf Hardwarebeschleunigungstechnologie für Computer Vision und generative KI spezialisiert. Das Unternehmen entwickelt Titania, einen KI-Inferenz-Chiplet, der auf seiner Digital In-Memory Computing (D-IMC)-Architektur basiert und KI-Workloads von der Edge bis zur Cloud beschleunigen soll.
Axelera AI sicherte sich im März 2025 im Rahmen des DARE-Projekts bis zu 61,6 Millionen Euro an Fördermitteln vom EuroHPC Joint Undertaking (JU) und den Mitgliedstaaten, nachdem zuvor in einer Serie-B-Finanzierungsrunde 68 Millionen US-Dollar eingeworben worden waren. Damit erhöht sich die Gesamtfinanzierung innerhalb von drei Jahren auf über 200 Millionen US-Dollar. Axelera AI plant, Titania bis 2028 einzuführen, um der steigenden Nachfrage nach leistungsstarken, kosteneffizienten und nachhaltigen KI-Lösungen gerecht zu werden. Dabei hebt das Unternehmen die Fähigkeit von Titania hervor, Durchsatz und Effizienz im Vergleich zu herkömmlichen Cloud-Lösungen zu verbessern. 63
Foundry-Partner und die Rolle von TSMC
Als weltweit führender Auftragsfertiger produziert TSMC Halbleiter nach Kundendesigns, anstatt eigene Chips zu entwickeln. Dies unterscheidet das Unternehmen von Firmen wie Samsung Foundry und Foundry Services. Obwohl Samsung Foundry und Foundry Services in diesem Bereich konkurrieren, behält TSMC seinen technologischen Vorsprung.
Seine fortschrittlichen Prozesstechnologien, insbesondere seine wegweisenden 5-nm- und 3-nm-Knoten, bieten die essentielle Kombination aus Leistung und Energieeffizienz, die für hochmoderne KI-Anwendungen erforderlich ist, wie die Fertigungspartnerschaften mit den unten aufgeführten KI-Chipdesignern zeigen:
Expansionspläne
TSMC sucht nach Nvidia, Broadcom und weiteren Unternehmen, die in ein Joint Venture investieren sollen, um die Foundry-Sparte von TSMC zu betreiben. Die operative Kontrolle soll erhalten bleiben, die Beteiligung jedoch unter 50 % liegen. Diese von der Trump-Administration unterstützte Initiative folgt auf TSMCs Ankündigung einer bedeutenden Investition in den USA und zielt darauf ab, die Foundry-Sparte wiederzubeleben und die US-Chipfertigung zu stärken. Das Vorhaben steht aufgrund von Prozessunterschieden vor Herausforderungen, baut aber auf TSMCs Stärken als führender Foundry-Anbieter auf. 64 65
Welche KI-Chiphersteller gibt es in China?
Da die US-Sanktionen viele chinesische Unternehmen daran hindern, die fortschrittlichsten KI-Chips von AMD und NVIDIA zu erwerben, haben chinesische Käufer ihre Käufe bei lokalen Herstellern erhöht.
Neben Huawei und Alibaba (siehe oben) sind dies die führenden KI-Chip-Hersteller in China:
- Cambricon konzentriert sich auf KI-Hardware und erwartet im letzten Geschäftsjahr einen Umsatz von rund 150 Millionen US-Dollar. 66
- Baidu nutzt Kunlun-Chips in seiner Cloud und entwickelt derzeit die dritte Chipgeneration. Kunlun 2 war vergleichbar mit dem A100 (991259-1747).
- Biren , gegründet von Alumni der NVIDIA, produziert die GPU-Chips BR106 und BR110.
- Moore Threads produziert MTT S2000 GPUs.
FAQs
Chips und die Anlagen zu ihrer Herstellung sind die komplexesten Maschinen, die je von Menschenhand geschaffen wurden. Obwohl es im Halbleiter-Ökosystem viele Unternehmen gibt, konzentrieren wir uns in diesem Artikel auf Chipdesigner wie NVIDIA.
Die meisten Chipdesigner lagern die Chipfertigung an Auftragsfertiger wie TSMC aus. Diese Auftragsfertiger nutzen Lithografieanlagen von Unternehmen wie ASML, um die Chips herzustellen. Unterstützt wird das Ökosystem von Anbietern wie Arm und Synopsys, die geistiges Eigentum und Designwerkzeuge bereitstellen.
Wie oben dargestellt, führten eine steigende Anzahl von Parametern, größere Datensätze und ein höherer Rechenaufwand zu präziseren generativen KI-Modellen. Um bessere Deep-Learning-Modelle zu entwickeln und generative KI-Anwendungen zu optimieren, benötigen Unternehmen daher mehr Rechenleistung und Speicherbandbreite.
Leistungsstarke Allzweckchips (wie CPUs) können hochgradig parallelisierte Deep-Learning-Modelle nicht unterstützen. Daher steigt die Nachfrage nach KI-Chips (z. B. GPUs), die parallele Rechenleistung ermöglichen.
Hyperscaler reagieren darauf, indem sie ihre eigenen Chips entwickeln – ein Prozess, der Jahre dauert. Die übrigen Anbieter müssen einen der folgenden Wege beschreiten, um ihre eigenen KI-Modelle zu erstellen: Kapazität von Cloud-GPU-Anbietern mieten oder Hardware von den in diesem Artikel genannten führenden KI-Chipherstellern kaufen.
KI-Hardware wird auch als neuronale Verarbeitungseinheiten (NPUs), KI-Beschleuniger oder Deep-Learning-Prozessoren (DLPs) bezeichnet.
Weiterführende Literatur
Sie können auch unsere sortierbare Liste der Unternehmen einsehen, die an KI-Chips arbeiten .
Vielleicht interessieren Sie sich auch für unsere Artikel über TinyML und beschleunigtes Rechnen .
Wenn Sie Fragen dazu haben, wie KI-Hardware Ihrem Unternehmen helfen kann, können wir Ihnen weiterhelfen:
Die richtigen Anbieter finden
Kommentare 2
Teilen Sie Ihre Gedanken
Ihre E-Mail-Adresse wird nicht veröffentlicht. Alle Felder sind erforderlich.
You forgot to include Tesla with their DOJO supercomputer. From the ground-up, the supercomputer was specifically designed for machine learning and image recognition - which means that every component was designed for it including, but not limited to, PCI board design, CPU, RAM, cooling, power, scalable hardware design and software. If I'm not mistaken, the AI is also the second most widely tested and used in the "wild", just below that of Google due to Google using it in their Search.
Thank you for your feedback, Dave! Here we are only covering companies that sell the chips that they produce. Therefore, companies like Tesla that build supercomputers for their own use or companies that embed chips in their products are out of our scope.
surprised that brainchip (akida) missing in this report. any reasons?
All included companies here raised $100+M. Last time we collected the data, that wasn't the case for akida. Why don't you reach out to us at info@aimultiple.com and let's discuss why it should be included. Thank you!