Kontaktieren Sie uns
Keine Ergebnisse gefunden.

Top 20+ KI-Chip-Hersteller: NVIDIA & seine Wettbewerber

Cem Dilmegani
Cem Dilmegani
aktualisiert am Feb 26, 2026
Siehe unsere ethischen Normen

Basierend auf unseren Erfahrungen mit dem Cloud-GPU-Benchmark von AIMultiple, bei dem wir 10 verschiedene GPU-Modelle in 4 verschiedenen Szenarien getestet haben, sind dies die führenden KI-Hardware-Hersteller für Rechenzentrums-Workloads. Folgen Sie den Links, um unsere Begründung für die jeweilige Auswahl zu erfahren:

Mehr als 20 KI-Chiphersteller nach Kategorie

Diese Chiphersteller konzentrieren sich auf Chips für Rechenzentren:

*Die ausgewählten Modelle basieren auf den neuesten Ankündigungen.

**ACCEL wurde von chinesischen Wissenschaftlern in Zusammenarbeit mit Alibaba und der chinesischen Semiconductor Manufacturing International Corporation (SMIC) entwickelt.** 1

Die Sortierung erfolgt nach Kategorie. Die Anbieter werden nach ihrem geschätzten Marktanteil in den drei Top-Kategorien (führender Hersteller, Public Cloud, Public AI Cloud) geordnet, da sich hier Umsatzzahlen bzw. Cloud-Nutzung schätzen lassen. Die Anbieter in den drei übrigen Kategorien (KI-Startups, aufstrebende Hersteller, sonstige Hersteller) werden alphabetisch sortiert.

5 Anbieter von mobilen KI-Chips

*Die beliebtesten und neuesten Chips wurden ausgewählt.

5 Edge-KI-Chips

Die Nachfrage nach latenzarmer Verarbeitung hat Innovationen bei Edge-KI-Chips vorangetrieben. Die Prozessoren dieser Chips sind so konzipiert, dass sie KI-Berechnungen lokal auf den Geräten durchführen, anstatt auf Cloud-basierte Lösungen zurückzugreifen:

*Dies sind die von den Anbietern angegebenen Maximalwerte. TOPS steht für Tera-Operationen pro Sekunde.

KI-Chiparchitekturen verstehen: GPUs vs. ASICs

Nicht alle KI-Chips sind gleich. Obwohl die oben genannten Anbieter im selben Markt konkurrieren, verwenden sie grundlegend unterschiedliche Chiparchitekturen:

  • GPUs (Grafikprozessoren) sind universell einsetzbare Prozessoren, die sowohl Training als auch Inferenz für ein breites Spektrum an KI-Anwendungen bewältigen können. NVIDIA und AMD sind die führenden Prozessoren in dieser Kategorie.
  • ASICs (anwendungsspezifische integrierte Schaltungen) werden kundenspezifisch für bestimmte Aufgaben entwickelt. Einige unterstützen sowohl Training als auch Inferenz (Google TPU, AWS Trainium), während andere nur für die Inferenz geeignet sind (Groq LPU, AWS Inferentia).

Wichtigste Erkenntnis:

Nicht alle ASICs sind ausschließlich für Inferenz geeignet. Google TPU, AWS Trainium, Cerebras und SambaNova unterstützen sowohl Training als auch Inferenz, während Groq LPU und AWS Inferentia sich ausschließlich auf Inferenz konzentrieren.

Diese Unterscheidung ist für Käufer wichtig: GPUs bieten Flexibilität bei verschiedenen KI-Workloads, während ASICs eine bessere Leistung pro Watt liefern, aber schwieriger umzuprogrammieren sind, wenn sich die Modellarchitekturen ändern.

Laut TrendForce 2 Basierend auf den Wachstumsraten der Auslieferungen von KI-Servern wird für 2026 ein Anstieg der Auslieferungen kundenspezifischer ASICs von Cloud-Anbietern um 44,6 % prognostiziert, während für GPUs ein Wachstum von 16,1 % erwartet wird. Dies deutet auf eine Verschiebung in der KI-Hardwarelandschaft hin, da Hyperscaler zunehmend in ihre eigenen Siliziumchips investieren.

Welche sind die führenden Hersteller von KI-Chips?

1. NVIDIA

NVIDIA entwickelt seit den 1990er Jahren Grafikprozessoren (GPUs) für den Gaming-Sektor. NVIDIA ist ein fabless Chiphersteller, der den Großteil seiner Chipfertigung an TSMC auslagert. Zu seinen Hauptgeschäftsfeldern gehören:

Desktop-KI-Lösungen

DGX Spark (ehemals Project Digits) ist ein Desktop-KI-Supercomputer für KI-Ingenieure und Datenwissenschaftler, der Folgendes bietet:

  • Die Kosten werden voraussichtlich bei etwa 3.000 US-Dollar liegen.
  • Es ist etwa so groß wie ein Mac mini und wird vom NVIDIA GB10 Grace Blackwell Superchip mit 128 GB Speicher angetrieben.
  • Es ist in der Lage, LLM-Inferenz und Feinabstimmung für Modelle mit bis zu 200 Milliarden Parametern durchzuführen und nutzt NVLink-C2C für eine schnelle CPU+GPU-Kommunikation.

Rechenzentrumslösungen

Das Unternehmen stellt KI-Chips auf Basis seiner Ampere-, Hopper- und zuletzt Blackwell-Architekturen her. Dank des Booms im Bereich der generativen KI erzielte das Unternehmen in den vergangenen Jahren hervorragende Ergebnisse, erreichte eine Billionen-Dollar-Bewertung und festigte seine Position als Marktführer im Bereich GPU- und KI-Hardware. Die folgende Grafik veranschaulicht das Umsatzwachstum des Unternehmens in diesem Segment über die Jahre und dessen Entwicklung zur wichtigsten Einnahmequelle.

Die Chipsätze von NVIDIA wurden entwickelt, um Geschäftsprobleme in verschiedenen Branchen zu lösen. Die DGX™ A100 und H100 waren erfolgreiche Flaggschiff-KI-Chips von Nvidia, die für KI-Training und -Inferenz in Rechenzentren konzipiert wurden. 3 NVIDIA hat diese weiterverfolgt mit

  • H200-, B300- und GB300-Chips
  • HGX-Server wie HGX H200 und HGX B300, die 8 dieser Chips kombinieren.
  • Die NVL-Serie und der GB200 SuperPod kombinieren noch mehr Chips zu großen Clustern. 4

Cloud-GPUs

Dank der Stärke seines Rechenzentrumsangebots hat NVIDIA fast ein Monopol auf dem Markt für Cloud-KI, da die meisten Cloud-Anbieter nur NVIDIA GPUs als Cloud-GPUs anbieten.

NVIDIA hat außerdem sein DGX Cloud -Angebot auf den Markt gebracht, das Unternehmen direkt Cloud-GPU-Infrastruktur zur Verfügung stellt und dabei Cloud-Anbieter umgeht.

GPUs für Grafik

Xbox verwendet einen von NVIDIA und Microsoft gemeinsam entwickelten Chipsatz. Zu den GPUs von NVIDIA für Endkunden gehört die GeForce-Serie.

Aktuelle Entwicklungen

DGX Cloud Lepton

DGX Cloud Lepton, angekündigt am 19. Mai 2025 auf der Computex, ist ein Marktplatz, der KI-Entwickler mit GPU-Cloud-Anbietern wie CoreWeave, und verbunden hat. Er ermöglicht flexiblen Zugriff auf GPU-Ressourcen für das Training und die Inferenz von KI-Modellen und umgeht so die Abhängigkeit von herkömmlichen Cloud-Anbietern. Dies stärkt die unternehmensorientierte Cloud-Strategie von . 5

NVIDIA Dynamo

Dynamo, vorgestellt auf der GTC 2025, ist ein neues Open-Source-Framework für Inferenz, das für den Einsatz generativer KI-Modelle mit hohem Durchsatz und geringer Latenz in verteilten Umgebungen entwickelt wurde. Es steigert die Bearbeitungsgeschwindigkeit von Anfragen auf Blackwell um bis zu 30x (siehe Abbildung unten). Das Framework ist kompatibel mit gängigen Tools wie PyTorch und TensorRT-LLM und nutzt Innovationen wie disaggregierte Inferenzphasen und dynamische GPU-Planung, um die Leistung zu optimieren und Kosten zu senken. Dynamo ist auf GitHub für Entwickler verfügbar und in den NIM-Mikrodiensten für Unternehmenslösungen enthalten. Es ermöglicht die skalierbare und kosteneffiziente Bereitstellung generativer KI von Systemen mit einer bis hin zu Systemen mit mehreren GPUs. 6

Abbildung 1. Dynamo beschleunigt die Leistung von KI-Modellen signifikant. Konkret bietet es eine 30-fache Beschleunigung für das Modell 671B-R1 auf der GB200 NVL72-Plattform. Außerdem verdoppelt es die Leistung des Modells Llama 70B bei Verwendung von Hopper-GPUs. 7

NVIDIA RTX PRO Server und Enterprise AI Factory

Auf der Computex im Mai 2025 wurden die RTX PRO Server vorgestellt, die mit RTX PRO 6000 Blackwell Server Edition GPUs ausgestattet sind und speziell für KI-Entwicklungsumgebungen in Unternehmen konzipiert wurden. Diese Server bieten universelle Beschleunigung für KI-, Design-, Entwicklungs- und Geschäftsanwendungen und unterstützen Workloads wie multimodale KI-Inferenz, physikalische KI und digitale Zwillinge auf der Omniverse-Plattform.

Das validierte Design der Enterprise AI Factory (NVIDIA), das RTX PRO Server, Spectrum-X Ethernet, BlueField DPUs und die AI Enterprise Software integriert, ermöglicht Partnern wie Cadence, Foxconn und Lilly den Aufbau eigener KI-Infrastrukturen. Diese Initiative beschleunigt den Übergang der Billionen-Dollar-IT-Branche zu GPU-beschleunigten KI-Fabriken. 8

DeepSeek

Die Veröffentlichung von DeepSeeks R1 zeigte, dass sich hochmoderne Modelle mit einer relativ geringen Anzahl von GPUs trainieren lassen. Dies führte zu einem Rückgang des Aktienkurses von NVIDIA. Obwohl dies keine Anlageberatung darstellt, kann dies für NVIDIA positiv sein, da mit zunehmendem Nutzen der Rechenleistung auch deren breitere Anwendung zunimmt (vgl. Jevons-Paradoxon). 9 ).

Da sich die Leistung von GPU-Systemen jedoch dank Verbesserungen im Chipdesign und in der Verbindungstechnik jährlich um ein Vielfaches steigert, sollten Käufer nicht mehr kaufen, als sie jährlich benötigen, da dies zum Besitz veralteter Systeme führen kann.

Zölle und Ausfuhrbeschränkungen

Taiwan (Lizenznummer 991259_1747) darf nun fortschrittliche KI-Prozessoren nach China exportieren. Dies bedeutet eine Abkehr von den bisherigen Bestimmungen, die nur den Verkauf von leistungsschwächeren Versionen erlaubten. Allerdings sehen sich diese Exporte mit neuen logistischen und finanziellen Hürden konfrontiert: In Taiwan hergestellte Chips müssen nun zur Prüfung durch Dritte einen Umweg über die USA nehmen, was einen neu eingeführten nationalen Sicherheitszoll von 25 % auslöst.

Trotz des wiederhergestellten Zugangs zu High-End-Hardware spornen die gestiegenen Kosten und die komplexen Lieferketten die chinesische Regierung und die Chipindustrie weiterhin an, wettbewerbsfähige lokale Alternativen zu entwickeln. Obwohl chinesische Chips derzeit noch hinter der neuesten Technologie von NVIDIA zurückbleiben, stellen diese Handelsbarrieren sicher, dass die heimische Entwicklung strategische Priorität behält und die Marktführerschaft von NVIDIA in Zukunft potenziell in Frage stellen könnte. 10

Wettbewerb auf dem Inferenzmarkt

Während NVIDIA den Markt für KI-Training dominiert, verschärft sich der Wettbewerb im Bereich der Inferenz, also dem Einsatz von KI-Modellen für reale Aufgaben. Unternehmen wie AMD und zahlreiche Startups, darunter Untether AI und Groq, entwickeln Chips, die kostengünstigere Inferenzlösungen mit besonderem Fokus auf geringeren Stromverbrauch bieten sollen.

Neue KI-Verfahren zum logischen Denken erfordern mehr Rechenleistung. NVIDIA geht davon aus, dass das logische Denken langfristig seine Architektur begünstigen wird und erwartet, dass der Markt für Inferenz den Trainingsmarkt schließlich deutlich übertreffen wird, selbst wenn sein Marktanteil geringer ist. 11

2. AMD

AMD ist ein fabless Chiphersteller mit Produkten aus den Bereichen CPU, GPU und KI-Beschleuniger.

AMD brachte im Juni 2023 den MI300 für KI-Trainings-Workloads auf den Markt und konkurriert mit NVIDIA um Marktanteile. Startups, Forschungsinstitute, Unternehmen und Technologiekonzerne haben 2023 Hardware von AMD eingeführt, da KI-Hardware von Nvidia aufgrund der rasant steigenden Nachfrage – ausgelöst durch den Aufstieg der generativen KI infolge der Einführung von ChatGPT – schwer zu beschaffen war. 12 13 14 15

Im Jahr 2025 gab AMD die Übernahme eines talentierten Teams von KI-Hardware- und Software-Ingenieuren von Untether AI bekannt, einem Entwickler energieeffizienter KI-Inferenzchips für Edge-Anbieter und Rechenzentren. Dieser Schritt stärkt die Kompetenzen von AMD in den Bereichen KI-Compiler, Kernel-Entwicklung und Chipdesign und festigt die Position des Unternehmens im Inferenzmarkt. Zusätzlich erwarb AMD das Compiler-Startup Brium, um die KI-Performance auf seinen Instinct-GPUs für Rechenzentren in Unternehmensanwendungen zu optimieren. 16

AMD wird die MI350-Serie als Nachfolger der MI300-Serie auf den Markt bringen und mit der H200-Serie von NVIDIA konkurrieren. AMD behauptet, dass der MI325X, ein weiterer kürzlich entwickelter Chip, eine marktführende Inferenzleistung aufweist. 17

AMD arbeitet außerdem mit Unternehmen im Bereich maschinelles Lernen wie Hugging Face zusammen, um Datenwissenschaftlern eine effizientere Nutzung ihrer Hardware zu ermöglichen. 18

Das Software-Ökosystem ist von entscheidender Bedeutung, da die Hardwareleistung maßgeblich von der Softwareoptimierung abhängt. Beispielsweise gab es zwischen AMD und NVIDIA eine öffentliche Auseinandersetzung über die Benchmark-Ergebnisse von H100 und MI300. Im Mittelpunkt der Diskussion standen das zu verwendende Softwarepaket und die Gleitkomma-Generierung für den Benchmark. Laut den neuesten Benchmarks scheint MI300 bei Inferenzberechnungen auf einem 70-Byte-LLM mindestens gleichwertig oder sogar besser als H100 zu sein. 19 20

Software

Während die Hardware von AMD gegenüber NVIDIA aufholt, hinkt die Software in puncto Benutzerfreundlichkeit hinterher. CUDA funktioniert zwar für die meisten Aufgaben sofort, die Software von AMD erfordert jedoch umfangreiche Konfigurationen. 21

Ökosystem

Ähnlich wie NVIDIA investiert auch AMD gezielt in die Nutzer seiner Lösungen, um die Akzeptanz seiner Hardware zu steigern. 22

3. Intel

Intel ist der bedeutendste Akteur auf dem CPU-Markt und blickt auf eine lange Geschichte in der Halbleiterentwicklung zurück. Im Gegensatz zu NVIDIA und AMD nutzt Intel eine eigene Chipfertigung.

Gaudi3 ist der neueste KI-Beschleunigerprozessor von Intel. 23 Allerdings lag die Umsatzprognose von Intel für Gaudi3 bei rund 500 Millionen US-Dollar für das Jahr 2024, was deutlich niedriger ist als die Milliarden, die AMD im Jahr 2024 zu verdienen prognostiziert.

Intel leidet unter Governance-Problemen, wie der Rücktritt von CEO Pat Gelsinger im Dezember 2024 zeigt. Einem erheblichen Teil der Vorstandsmitglieder von Intel fehlt die Erfahrung in der operativen Führung eines Halbleiterunternehmens. 24 Nach dem Ausscheiden des CEO bleibt die Strategie von Intel auf den Märkten für KI und Foundry unklar.

Welche Public-Cloud-Anbieter produzieren KI-Chips?

4. AWS

AWS produziert Tranium-Chips für das Modelltraining und Inferentia-Chips für die Inferenz. Obwohl AWS Marktführer im Bereich Public Cloud ist, begann das Unternehmen erst nach Google mit der Entwicklung eigener Chips.

Hunderttausende von Tranium2-Chips werden verwendet, um den Project Rainier-Cluster zu bilden, der die Modelle des LLM- Entwicklers Anthropic antreibt.

5. Google Cloud-Plattform

Der Cloud TPU ist ein speziell entwickelter Beschleunigerchip für maschinelles Lernen, der Produkte wie Translate, Fotos, Suche, Assistant und Gmail antreibt. Er kann auch über die Cloud genutzt werden. TPUs wurden 2016 angekündigt. 25 Das neueste Trillium TPU ist die 6. Generation. 26

Google hat Ironwood vorgestellt. Diese neueste Generation ist speziell für komplexe „Denkmodelle“ wie LLMs und MoEs konzipiert und bietet massive Parallelverarbeitung (4.614 TFLOPS pro Chip) und eine Skalierung auf bis zu 42,5 Exaflops in 9.216-Chip-Pods. 27

Ironwood bietet gegenüber Trillium deutliche Verbesserungen, darunter eine doppelt so hohe Energieeffizienz, die sechsfache Speicherkapazität (192 GB/Chip), die 4,5-fache HBM-Bandbreite (7,2 TB/s/Chip) und die 1,5-fache Inter-Chip-Verbindungsgeschwindigkeit (1,2 Tbps). Zudem verfügt es über einen optimierten SparseCore für große Einbettungen. Google bietet außerdem die deutlich kleinere Edge TPU für andere Anforderungen, die für den Einsatz in Edge-Geräten wie Smartphones und IoT-Hardware konzipiert ist.

6. Alibaba

Alibaba produziert Chips wie den Hanguang 800 für Inferenzsysteme. Allerdings könnten einige nordamerikanische, europäische und australische Organisationen (z. B. aus der Verteidigungsindustrie) aus geopolitischen Gründen die Verwendung von Alibaba Cloud ablehnen.

7. IBM

IBM kündigte im Jahr 2022 seinen neuesten Deep-Learning-Chip, die Artificial Intelligence Unit (AIU), an. 28 IBM erwägt, diese Chips für seine generative KI-Plattform Watsonx zu verwenden. 29

AIU basiert auf dem „ IBM Telum-Prozessor “, der die KI-Verarbeitungsfunktionen der IBM Z-Mainframe-Server ermöglicht. Zu den hervorgehobenen Anwendungsfällen der Telum-Prozessoren bei ihrer Markteinführung gehörte die Betrugserkennung . 30

IBM zeigte außerdem, dass die Zusammenführung von Rechenleistung und Speicher zu Effizienzsteigerungen führen kann. Diese wurden im Prototyp des Nordpolprozessors demonstriert. 31

8. Huawei

Der HiSilicon Ascend 910C mit der Seriennummer Huawei gehört zur Ascend 910-Chipfamilie, die im Jahr 2019 eingeführt wurde.

Aufgrund von Sanktionen können KI-Labore in China die neuesten und leistungsstärksten Chips von US-Firmen wie beispielsweise NVIDIA oder AMD nicht erwerben. Daher experimentieren sie mit dem Ascend 910C.

Die Cloud von Huawei hostet DeepSeek Modelle, und ein Forscher bei DeepSeek behauptet, dass sie 60% der NVIDIA H100 Inferenzleistung erreichen kann. 32 33

Welche Cloud-KI-Anbieter produzieren ihre eigenen Chips?

Diese Anbieter verfügen nicht über öffentliche Cloud-Dienste mit so umfassenden Funktionen wie die Hyperscaler. Sie bieten eingeschränkte Cloud-Dienste an, die sich typischerweise auf KI-Inferenz konzentrieren. Wir konnten uns für diese Dienste anmelden, ohne mit Vertriebsteams sprechen zu müssen.

8. Groq

Groq wurde von ehemaligen Mitarbeitern von [Name des Unternehmens] gegründet. Das Unternehmen vertritt LPUs, ein neues Modell für KI-Chiparchitekturen, das Unternehmen die Einführung seiner Systeme erleichtern soll. Das Startup hat bereits rund 350 Millionen US-Dollar an Kapital eingeworben und erste Produkte wie den GroqChip™ Prozessor und den GroqCard™ Beschleuniger auf den Markt gebracht.

Das Unternehmen konzentriert sich auf LLM-Inferenz und hat Benchmarks für Llama-2 70B veröffentlicht. 34

Groq hat kürzlich eine bedeutende Investitionszusage in Höhe von 1,5 Milliarden US-Dollar aus Saudi-Arabien erhalten, um die Lieferung seiner fortschrittlichen KI-Chips in das Land auszuweiten. Mit dieser Investition wird das bestehende Rechenzentrum von Groq in Dammam, Saudi-Arabien, das in Partnerschaft mit Aramco Digital errichtet wurde, erweitert. 35

Im ersten Quartal 2024 teilte das Unternehmen mit, dass sich 70.000 Entwickler auf seiner Cloud-Plattform registriert und 19.000 neue Anwendungen entwickelt hätten. 36

Am 1. März 2022 erwarb Groq Maxeler, einen Anbieter von High-Performance-Computing-Lösungen (HPC) für Finanzdienstleistungen. 37

9. SambaNova Systeme

SambaNova Systems wurde 2017 gegründet, um leistungsstarke und hochpräzise Hardware-Software-Systeme für umfangreiche generative KI-Workloads zu entwickeln. Das Unternehmen hat insgesamt mehr als 1,5 Milliarden US-Dollar an Finanzmitteln eingeworben, darunter eine Serie-E-Finanzierungsrunde über 350 Millionen US-Dollar im Februar 2026. 38

Im Februar 2026 stellte SambaNova den SN50-Chip vor, seine neueste rekonfigurierbare Dateneinheit (RDU). Dieser Chip verspricht eine bis zu fünfmal höhere Geschwindigkeit als vergleichbare Chips und dreimal niedrigere Gesamtbetriebskosten im Vergleich zu GPUs für agentenbasierte KI-Workloads. Der SN50 bietet die fünffache Rechenleistung pro Beschleuniger und die vierfache Netzwerkbandbreite im Vergleich zur Vorgängergeneration SN40L und unterstützt eine dreistufige Speicherarchitektur für Modelle mit über 10 Billionen Parametern und über 10 Millionen Token-Kontextlängen. 39

SoftBank Corp. wird der erste Kunde sein, der SN50 in seinen KI-Rechenzentren der nächsten Generation in Japan einsetzt.

SambaNova kündigte außerdem eine geplante mehrjährige strategische Zusammenarbeit mit Intel an, um KI-Inferenzlösungen bereitzustellen. Dabei werden die Systeme von SambaNova mit Xeon-Prozessoren, GPUs und Netzwerken von Intel kombiniert, um eine skalierbare Inferenzinfrastruktur als Alternative zu GPU-zentrierten Lösungen zu ermöglichen.

Es ist wichtig zu erwähnen, dass SambaNova Systems seine Plattform auch über SambaCloud an Unternehmen vermietet. Dieser Ansatz einer KI-Plattform als Dienstleistung erleichtert die Einführung ihrer Systeme und fördert die Wiederverwendung von Hardware im Sinne der Kreislaufwirtschaft. 40

Welche sind die führenden KI-Chip-Startups?

Wir möchten Ihnen außerdem einige Startups aus der KI-Chip-Branche vorstellen, deren Namen wir in naher Zukunft sicherlich häufiger hören werden. Obwohl diese Unternehmen erst vor Kurzem gegründet wurden, haben sie bereits Millionen von Dollar an Kapital eingeworben.

10. Cerebras

Cerebras wurde 2015 gegründet und ist der einzige große Chiphersteller, der sich auf Wafer-Scale-Chips spezialisiert hat. 41 Wafer-Scale-Chips bieten dank ihrer höheren Speicherbandbreite Vorteile bei der Parallelverarbeitung gegenüber GPUs. Die Entwicklung und Herstellung solcher Chips ist jedoch eine aufstrebende Technologie.

Cerebras Chips umfassen:

  • WSE-1 mit 1,2 Billionen Transistoren und 400.000 Prozessorkernen.
  • Die WSE-2-Architektur mit 2,6 Billionen Transistoren und 850.000 Kernen wurde im April 2021 angekündigt. Sie nutzte den 7-nm-Prozess von TSMC.
  • Der WSE-3, ausgestattet mit 4 Billionen Transistoren und 900.000 KI-Kernen, wurde im März 2024 angekündigt. Er nutzt den 5-nm-Prozess von TSMC. 42

Das System von Celebra arbeitet mit Pharmaunternehmen wie AstraZeneca und GlaxoSmithKline sowie mit Forschungslaboren zusammen, die es für Simulationen nutzen. Es richtet sich auch an Hersteller von LLM-Systemen , da seine Chips die Inferenzkosten für innovative Modelle senken können.

Cerebras bietet seine Chips auch Unternehmen über seine Cloud an.

11. d-Matrix

d-Matrix verfolgt einen neuartigen Ansatz und verzichtet auf die traditionelle Von-Neumann-Architektur zugunsten von In-Memory-Computing. Obwohl dieser Ansatz das Potenzial hat, den Engpass zwischen Speicher und Rechenleistung zu beheben, ist er neu und noch nicht erprobt. 43

12. Rebellionen

Ein in Korea ansässiges Startup sammelte im Jahr 2024 124 Millionen Dollar ein und konzentriert sich auf LLM-Inferenz. 44

Rebellions fusionierte mit einem anderen koreanischen Halbleiterdesignunternehmen, SAPEON, und erreichte 2024 eine Einhorn-Bewertung. 45

Im Juli 2025 sicherte sich Rebellions im Rahmen einer Finanzierungsrunde mit einem Zielvolumen von bis zu 200 Millionen US-Dollar eine Investition des Technologiekonzerns Samsung, kurz vor dem geplanten Börsengang (IPO). Das Unternehmen hat seit seiner Gründung im Jahr 2020 220 Millionen US-Dollar eingeworben und arbeitet mit Samsung zusammen, um seinen Chip der zweiten Generation, Rebel-Quad (bestehend aus vier Rebel-KI-Chips), noch im Laufe des Jahres 2025 auf den Markt zu bringen. Dabei kommt Samsungs 4-Nanometer-Fertigungsprozess zum Einsatz. 46

13. Torrent

Der neueste Blackhole Tensix Prozessor von TensorPort liefert eine Leistung von 664 TFLOPS (BLOCKFP8), gepaart mit 32 GB GDDR6-Speicher und einer Speicherbandbreite von 512 GB/s.

Die P150a-Karte kostet 1.399 US-Dollar und verfügt über vier QSFP-DD 800G-Ports für die Skalierung mit mehreren Karten. Das Einsteigermodell P100a ist ab 999 US-Dollar erhältlich. 47

TensorT bietet eine vollständig quelloffene Softwareplattform. Das Unternehmen sammelte im Dezember 2024 von Investoren, darunter Jeff Bezos, 700 Millionen US-Dollar bei einer Bewertung von über 2,6 Milliarden US-Dollar ein. 48

14. Positron

Positron wurde 2023 gegründet und konzentriert sich ausschließlich auf die Inferenz von Transformer-Modellen. Das Unternehmen verfolgt einen ASIC-Ansatz und entwickelt speziell für Transformer-Architekturen optimierte Hardware anstelle von universellem GPU-Computing.

Produkte:

  • Atlas (jetzt lieferbar): Ein Transformer-Inferenzserver mit 8 Positron Archer Transformer-Beschleunigern und insgesamt 256 GB HBM. Das Unternehmen verspricht eine mehr als vierfache Leistung pro Watt und eine mehr als dreifache Leistung pro Dollar im Vergleich zu Hopper-Systemen (Benchmarks auf Llama 3.1 8B mit BF16-Rechenleistung). 49
  • Titan (erscheint 2027): Ein System der nächsten Generation mit über 8 TB Speicher, angetrieben von 4x Asimov Custom Chips, das für die Unterstützung von bis zu 16 Billionen Parametermodellen und über 10 Millionen Token-Kontextfenstern in einem luftgekühlten 4U-Formfaktor ausgelegt ist. 50
  • Asimov (erscheint 2027): Kundenspezifischer Inferenzbeschleuniger-Siliziumchip mit mehr als 2 TB Speicher pro Chip.

Positron schloss Anfang 2026 eine Series-B-Finanzierungsrunde über mehr als 230 Millionen US-Dollar ab. Zu den Investoren gehörten QIA, Arm Holdings, Arena und Jump Trading. 51

Atlas wird derzeit von Unternehmen aus den Bereichen Netzwerktechnik, Gaming, Content-Moderation, CDN und Token-as-a-Service eingesetzt. Positron gibt an, dass sein Atlas-System im Vergleich zu ähnlichen H100-Systemen eine dreimal geringere End-to-End-Latenz bei Trading-Inferenz-Workloads aufweist und dabei nur ein Drittel des Stromverbrauchs aufweist.

Die Chips von Positron werden in den Vereinigten Staaten entwickelt, hergestellt und montiert.

15. _geätzt

Ihr Ansatz opfert Flexibilität für Effizienz, indem die Transformatorarchitektur fest in die Chips integriert wird.

Das Team behauptet

  • Sohu hat den weltweit ersten Transformator-ASIC entwickelt.
  • Diese 8 Sohu-Chips können über 500.000 Token pro Sekunde generieren. Das ist um eine Größenordnung mehr als das, was 8 B200-Chips (Typ 9912591747) leisten können.

Aktuell basieren diese Werte auf internen Messungen des Teams. Die KI-Teams von AIMultiple haben bisher keine Vergleichswerte oder Kundenreferenzen gefunden. Wir sind neugierig auf Folgendes:

  • Was passiert, wenn das Modell veraltet ist? Müssen die Benutzer einen neuen Chip kaufen oder kann der alte Chip mit dem Nachfolgemodell rekonfiguriert werden?
  • Wie haben sie ihren Benchmark durchgeführt? Welche Quantisierung und welches Modell wurden verwendet?

Wir werden diesen Artikel aktualisieren, sobald das _etched-Team weitere Details veröffentlicht. Es wird interessant sein zu sehen, ob das Brennen von Modellen auf Chips angesichts der alle paar Monate erscheinenden neuen Modelle nachhaltig ist.

16. Taalas

Taalas wurde Anfang 2023 gegründet und verfolgt den extremsten Ansatz bei der Spezialisierung von KI-Chips: die direkte Verdrahtung einzelner Modelle in kundenspezifische Siliziumchips, wodurch sogenannte „Hardcore-Modelle“ entstehen. 52 Das Unternehmen behauptet, es könne jedes bisher unbekannte KI-Modell innerhalb von zwei Monaten in kundenspezifischen Siliziumchip umwandeln.

Die Architektur von Taalas vereint Speicher und Rechenleistung auf einem einzigen Chip mit DRAM-ähnlicher Dichte und macht so HBM, fortschrittliche Gehäuse, 3D-Stapelung, Flüssigkeitskühlung oder Hochgeschwindigkeits-I/O überflüssig. Das Unternehmen beschreibt dies als eine radikale Vereinfachung des Hardware-Stacks.

Produkte:

  • HC1 (jetzt verfügbar): Ein Technologiedemonstrator mit fest verdrahteter Llama 3.1 8B-Architektur, gefertigt auf TSMC 6 nm mit 53 Milliarden Transistoren. Taalas gibt 17.000 Token pro Sekunde und Nutzer an, was laut Herstellerangaben fast zehnmal schneller ist als der aktuelle Stand der Technik, bei 20-mal geringeren Herstellungskosten und einem zehnmal geringeren Stromverbrauch in einem luftgekühlten 2,5-kW-Server. Allerdings verwendet das Modell eine aggressive, kundenspezifische 3-Bit- und 6-Bit-Quantisierung, die im Vergleich zu GPU-Standards zu Qualitätseinbußen führt. 53
  • HC2 (geplant): Eine Plattform der zweiten Generation mit höherer Dichte, schnellerer Ausführung und standardmäßigen 4-Bit-Gleitkommaformaten, um die Quantisierungsbeschränkungen von HC1 zu beheben.

Taalas hat mehr als 200 Millionen Dollar eingesammelt, gibt aber an, nur 30 Millionen Dollar für die Markteinführung seines ersten Produkts mit einem Team von 24 Personen ausgegeben zu haben.

17. Extropisch

Extropic sammelte Ende 2023 14 Millionen US-Dollar ein, um die Thermodynamik für Computeranwendungen zu nutzen. Das Unternehmen hat bisher noch keinen Chip auf den Markt gebracht.

18. Vaire

Vaire ist ein britisches Startup-Unternehmen, das Pionierarbeit im Bereich des reversiblen Rechnens leistet – einem innovativen Ansatz zur Entwicklung von Chips mit nahezu null Energieverbrauch. Im Gegensatz zum herkömmlichen Rechnen, bei dem Energie als Wärme verloren geht, recycelt das reversible Rechnen einen erheblichen Teil der Energie für nachfolgende Berechnungen.

Vaire hat einen Testchip vorgestellt, der 50 % seiner Energie zurückgewinnen kann. Dies zeigt das Potenzial der Technologie, den Energieverbrauch von KI-Workloads zu reduzieren und die physikalischen Grenzen, die sogenannte thermische Wand, zu umgehen, die die moderne Halbleiterfertigung vor Herausforderungen stellen. 54

Welche Hersteller von KI-Hardware werden in Zukunft auf den Markt kommen?

Obwohl es sich hierbei um überzeugende KI-Hardwarelösungen handelt, gibt es derzeit nur wenige Vergleichswerte zu ihrer Effektivität, da sie neu auf dem Markt sind.

19. Apple

Berichten zufolge konzentriert sich Apples Projekt ACDC auf die Entwicklung von Chips für KI-Inferenz. 55 Apple ist bereits ein bedeutender Chipdesigner; seine intern entwickelten Halbleiter werden in iPhones, iPads und MacBooks verwendet.

20. Meta

Meta Training and Inference Accelerator (MTIA) ist eine Familie von Prozessoren für KI-Workloads wie das Training von Meta LLaMa-Modellen.

Das neueste Modell ist Next Gen MTIA, das auf der 5-nm-Technologie von TSMC basiert und laut Herstellerangaben eine dreifach höhere Leistung als MTIA v1 bietet. MTIA wird in Racks mit bis zu 72 Beschleunigern untergebracht. 56

MTIA wird derzeit intern von Meta verwendet. Sollte Meta jedoch zukünftig ein auf LLaMa basierendes Angebot für generative KI im Unternehmensbereich auf den Markt bringen, könnten diese Chips ein solches Angebot unterstützen.

21. Microsoft Azure

Auf der Hot Chips 2024 präsentierte Microsoft den Maia 100, ihren ersten kundenspezifischen KI-Beschleuniger. Dieser optimiert umfangreiche KI-Workloads in Azure durch Hardware- und Software-Co-Optimierung. Der auf TSMCs N5-Prozess basierende Maia 100 mit fortschrittlicher Speicher- und Verbindungstechnologie ist auf hohen Durchsatz und diverse Datenformate ausgelegt und bietet Entwicklern dank seines SDKs Flexibilität für die schnelle Bereitstellung von PyTorch- und Triton-Modellen. Der KI-Chip der nächsten Generation von Microsoft, Codename Braga, verzögert sich jedoch aufgrund von Designänderungen, Personalengpässen und hoher Fluktuation von 2025 auf 2026 und könnte in puncto Energieeffizienz hinter Nvidias Blackwell-Chip zurückbleiben.

22. OpenAI

OpenAI finalisiert gemeinsam mit Broadcom und TSMC das Design seines ersten KI-Chips unter Verwendung der 3-Nanometer-Technologie von TSMC. Das Führungsteam des Chip-Teams verfügt über Erfahrung in der Entwicklung von TPUs bei Google und strebt die Massenproduktion des Chips im Jahr 2026 an. 57

Welche anderen Hersteller von KI-Chips gibt es?

23. Graphcore

Graphcore ist ein britisches Unternehmen, das 2016 gegründet wurde. Das Unternehmen kündigte seinen Flaggschiff-KI-Chip als IPU-POD256 an. Graphcore hat bereits rund 700 Millionen US-Dollar an Finanzmitteln erhalten.

Das Unternehmen unterhält strategische Partnerschaften mit Datenspeicheranbietern wie DDN, Pure Storage und Vast Data. Die KI-Chips von Graphcore werden von Forschungsinstituten wie dem Oxford-Man Institute of Quantitative Finance, der University of Bristol und der University of California, Berkeley, eingesetzt.

Die langfristige Überlebensfähigkeit des Unternehmens war gefährdet, da es jährlich Verluste in Höhe von rund 200 Millionen US-Dollar verzeichnete. 58 Im Oktober 2024 wurde es von Softbank für mehr als 600 Millionen Dollar übernommen. 59

24. Mythisch

Mythic wurde 2012 gegründet und konzentriert sich auf Edge-KI. Mythic verfolgt einen unkonventionellen Ansatz, eine analoge Rechenarchitektur, die energieeffizientes Edge-KI-Computing ermöglichen soll.

Das Unternehmen hat Produkte wie den M1076 AMP und die MM1076-Schlüsselkarte entwickelt und bereits rund 165 Millionen US-Dollar an Finanzmitteln eingeworben. 60

Mythic entließ den Großteil seiner Mitarbeiter und restrukturierte sein Geschäft im Zuge der Finanzierungsrunde im März 2023. 61

25. Speedata

Speedata wurde 2019 in Tel Aviv gegründet und entwickelt eine Analytics Processing Unit (APU) zur Beschleunigung von Big-Data-Analysen und KI-Workloads. Die APU ist primär für Apache-Spark-Workloads konzipiert, die Unterstützung weiterer gängiger Datenanalyseplattformen ist jedoch geplant.

Speedata sammelte im Juni 2025 in einer von Walden Catalyst Ventures, 83North und anderen angeführten Serie-B-Finanzierungsrunde 44 Millionen US-Dollar ein und erhöhte damit die Gesamtfinanzierung auf 114 Millionen US-Dollar. Das Unternehmen behauptet, seine APU übertreffe Allzweckprozessoren und GPUs, indem sie ganze Serverracks durch einen einzigen Chip ersetze und so überlegene Leistung und Energieeffizienz für die Datenverarbeitung biete. 62

26. Axelera AI

Axelera AI wurde im Juli 2021 in Eindhoven, Niederlande, gegründet und ist auf Hardwarebeschleunigungstechnologie für Computer Vision und generative KI spezialisiert. Das Unternehmen entwickelt Titania, einen KI-Inferenz-Chiplet, der auf seiner Digital In-Memory Computing (D-IMC)-Architektur basiert und KI-Workloads von der Edge bis zur Cloud beschleunigen soll.

Axelera AI sicherte sich im März 2025 im Rahmen des DARE-Projekts bis zu 61,6 Millionen Euro an Fördermitteln vom EuroHPC Joint Undertaking (JU) und den Mitgliedstaaten, nachdem zuvor in einer Serie-B-Finanzierungsrunde 68 Millionen US-Dollar eingeworben worden waren. Damit erhöht sich die Gesamtfinanzierung innerhalb von drei Jahren auf über 200 Millionen US-Dollar. Axelera AI plant, Titania bis 2028 einzuführen, um der steigenden Nachfrage nach leistungsstarken, kosteneffizienten und nachhaltigen KI-Lösungen gerecht zu werden. Dabei hebt das Unternehmen die Fähigkeit von Titania hervor, Durchsatz und Effizienz im Vergleich zu herkömmlichen Cloud-Lösungen zu verbessern. 63

Foundry-Partner und die Rolle von TSMC

Als weltweit führender Auftragsfertiger produziert TSMC Halbleiter nach Kundendesigns, anstatt eigene Chips zu entwickeln. Dies unterscheidet das Unternehmen von Firmen wie Samsung Foundry und Foundry Services. Obwohl Samsung Foundry und Foundry Services in diesem Bereich konkurrieren, behält TSMC seinen technologischen Vorsprung.

Seine fortschrittlichen Prozesstechnologien, insbesondere seine wegweisenden 5-nm- und 3-nm-Knoten, bieten die essentielle Kombination aus Leistung und Energieeffizienz, die für hochmoderne KI-Anwendungen erforderlich ist, wie die Fertigungspartnerschaften mit den unten aufgeführten KI-Chipdesignern zeigen:

Expansionspläne

TSMC sucht nach Nvidia, Broadcom und weiteren Unternehmen, die in ein Joint Venture investieren sollen, um die Foundry-Sparte von TSMC zu betreiben. Die operative Kontrolle soll erhalten bleiben, die Beteiligung jedoch unter 50 % liegen. Diese von der Trump-Administration unterstützte Initiative folgt auf TSMCs Ankündigung einer bedeutenden Investition in den USA und zielt darauf ab, die Foundry-Sparte wiederzubeleben und die US-Chipfertigung zu stärken. Das Vorhaben steht aufgrund von Prozessunterschieden vor Herausforderungen, baut aber auf TSMCs Stärken als führender Foundry-Anbieter auf. 64 65

Welche KI-Chiphersteller gibt es in China?

Da die US-Sanktionen viele chinesische Unternehmen daran hindern, die fortschrittlichsten KI-Chips von AMD und NVIDIA zu erwerben, haben chinesische Käufer ihre Käufe bei lokalen Herstellern erhöht.

Neben Huawei und Alibaba (siehe oben) sind dies die führenden KI-Chip-Hersteller in China:

  • Cambricon konzentriert sich auf KI-Hardware und erwartet im letzten Geschäftsjahr einen Umsatz von rund 150 Millionen US-Dollar. 66
  • Baidu nutzt Kunlun-Chips in seiner Cloud und entwickelt derzeit die dritte Chipgeneration. Kunlun 2 war vergleichbar mit dem A100 (991259-1747).
  • Biren , gegründet von Alumni der NVIDIA, produziert die GPU-Chips BR106 und BR110.
  • Moore Threads produziert MTT S2000 GPUs.

FAQs

Chips und die Anlagen zu ihrer Herstellung sind die komplexesten Maschinen, die je von Menschenhand geschaffen wurden. Obwohl es im Halbleiter-Ökosystem viele Unternehmen gibt, konzentrieren wir uns in diesem Artikel auf Chipdesigner wie NVIDIA.
Die meisten Chipdesigner lagern die Chipfertigung an Auftragsfertiger wie TSMC aus. Diese Auftragsfertiger nutzen Lithografieanlagen von Unternehmen wie ASML, um die Chips herzustellen. Unterstützt wird das Ökosystem von Anbietern wie Arm und Synopsys, die geistiges Eigentum und Designwerkzeuge bereitstellen.

Wie oben dargestellt, führten eine steigende Anzahl von Parametern, größere Datensätze und ein höherer Rechenaufwand zu präziseren generativen KI-Modellen. Um bessere Deep-Learning-Modelle zu entwickeln und generative KI-Anwendungen zu optimieren, benötigen Unternehmen daher mehr Rechenleistung und Speicherbandbreite.
Leistungsstarke Allzweckchips (wie CPUs) können hochgradig parallelisierte Deep-Learning-Modelle nicht unterstützen. Daher steigt die Nachfrage nach KI-Chips (z. B. GPUs), die parallele Rechenleistung ermöglichen.
Hyperscaler reagieren darauf, indem sie ihre eigenen Chips entwickeln – ein Prozess, der Jahre dauert. Die übrigen Anbieter müssen einen der folgenden Wege beschreiten, um ihre eigenen KI-Modelle zu erstellen: Kapazität von Cloud-GPU-Anbietern mieten oder Hardware von den in diesem Artikel genannten führenden KI-Chipherstellern kaufen.
KI-Hardware wird auch als neuronale Verarbeitungseinheiten (NPUs), KI-Beschleuniger oder Deep-Learning-Prozessoren (DLPs) bezeichnet.

Weiterführende Literatur

Sie können auch unsere sortierbare Liste der Unternehmen einsehen, die an KI-Chips arbeiten .

Vielleicht interessieren Sie sich auch für unsere Artikel über TinyML und beschleunigtes Rechnen .

Wenn Sie Fragen dazu haben, wie KI-Hardware Ihrem Unternehmen helfen kann, können wir Ihnen weiterhelfen:

Die richtigen Anbieter finden

Referenzen

Referenzlinks

1.
Good News For Alibaba - ACCEL Chip Outshines Nvidia's AI Chips, China Claims - Alibaba Gr Hldgs (NYSE:BAB - Benzinga
Benzinga
2.
ASIC Set to Outpace GPU? NVIDIA’s Scale-Up and Beyond | TrendForce
TrendForce
3.
DGX Platform: Built for Enterprise AI | NVIDIA
4.
DGX SuperPOD with DGX GB200 Systems | NVIDIA
5.
Nvidia Pushes Further Into Cloud With GPU Marketplace - WSJ
The Wall Street Journal
6.
NVIDIA Dynamo, A Low-Latency Distributed Inference Framework for Scaling Reasoning AI Models | NVIDIA Technical Blog
NVIDIA Developer
7.
NVIDIA Dynamo, A Low-Latency Distributed Inference Framework for Scaling Reasoning AI Models | NVIDIA Technical Blog
NVIDIA Developer
8.
NVIDIA RTX PRO Servers Speed Trillion-Dollar Enterprise IT Industry Transition to AI Factories | NVIDIA Newsroom
9.
Jevons paradox - Wikipedia
Contributors to Wikimedia projects
10.
Trump imposes 25% tariff on Nvidia AI chips and others, citing national security | Nvidia | The Guardian
The Guardian
11.
Nvidia CEO to defend AI dominance as competition intensifies | Reuters
Reuters
12.
13.
https://blog.allenai.org/announcing-ai2-olmo-an-open-language-model-made-by-scientists-for-scientists-ab761e4e9b76
14.
Training LLMs at Scale with AMD MI250 GPUs | Databricks Blog
15.
Training 221B Parameter Korean LLM on 1,200 AMD MI250 GPU Cluster – Moreh
16.
Exclusive: AMD Acquires Team Behind AI Chip Startup Untether AI
17.
18.
AMD + 🤗: Large Language Models Out-of-the-Box Acceleration with AMD GPU
Hugging Face
19.
Achieving Top Inference Performance with the NVIDIA H100 Tensor Core GPU and NVIDIA TensorRT-LLM | NVIDIA Technical Blog
NVIDIA Developer
20.
Competitive performance claims and industry leadin... - AMD Community
21.
MI300X vs H100 vs H200 Benchmark Part 1: Training - CUDA Moat Still Alive
SemiAnalysis
22.
Exclusive | AMD Invests in Drug-Discovery Company Absci in Push to Sell AI Chips - WSJ
The Wall Street Journal
23.
24.
The Death of Intel: When Boards Fail - by Doug O'Laughlin
Fabricated Knowledge
25.
26.
27.
Ironwood: The first Google TPU for the age of inference
Google
28.
IBM’s new AIU artificial intelligence chip - IBM Research
IBM
29.
30.
31.
32.
Tech war: China’s chip firms embrace DeepSeek in AI self-sufficiency drive | South China Morning Post
South China Morning Post
33.
https://mp.weixin.qq.com/s/ETHwNxWl04mqQt04o0zO8g
34.
35.
AI chip startup Groq secures $1.5 billion commitment from Saudi Arabia | Reuters
Reuters
36.
Real-time AI Inference Demand Accelerates on GroqCloud | Groq is fast, low cost inference.
37.
38.
SambaNova Unveils Fastest Chip for Agentic AI, Collaborates with Intel, and Raises $350M+
SambaNova
39.
Introducing the SN50 RDU: Purpose-Built for Agentic Inference
SambaNova
40.
SambaCloud | Full-Stack AI Platform for Large Open-Source Models
41.
Cerebras - Wikipedia
Contributors to Wikimedia projects
42.
43.
https://www.d-matrix.ai/wp-content/uploads/2023/09/d-Matrix-WhitePaper-Approved-w-cover.pdf
44.
Korean AI chipmaker Rebellions Closes $124M Series B Fundraise - Rebellions
Rebellions
45.
Rebellions and SAPEON Korea Sign Definitive Merger Agreement - Rebellions
Rebellions
46.
Samsung backs AI chip startup Rebellions ahead of IPO
CNBC
47.
Blackhole™
48.
Jeff Bezos Is Betting on AI Chip Startup Tenstorrent to Take on Nvidia (NVDA) - Bloomberg
Bloomberg
49.
Positron | About
50.
Positron | About
51.
Positron | About
52.
The path to ubiquitous AI | Taalas
53.
Products | Taalas
54.
A startup working on 'reversible computing' chip for AI says initial tests show a 50% energy savings | Fortune
Fortune
55.
56.
57.
Exclusive: OpenAI set to finalize first custom chip design this year  | Reuters
Reuters
58.
59.
Graphcore joins SoftBank Group to build next generation of AI compute
Graphcore
60.
61.
AI chip startup Mythic rises from the ashes with $13M, new CEO | TechCrunch
TechCrunch
62.
Speedata, a chip startup competing with Nvidia, raises a $44M Series B | TechCrunch
TechCrunch
63.
Eindhoven-based Axelera AI secures €61.6M grant
64.
TSMC shares open lower following announcement of $100 billion investment in US | Reuters
Reuters
65.
Exclusive: TSMC pitched Intel foundry JV to Nvidia, AMD and Broadcom, sources say | Reuters
Reuters
66.
https://www.cambricon.com/index.php?m=content&c=index&a=lists&catid=326
Cem Dilmegani
Cem Dilmegani
Leitender Analyst
Cem ist seit 2017 leitender Analyst bei AIMultiple. AIMultiple informiert monatlich Hunderttausende von Unternehmen (laut similarWeb), darunter 55 % der Fortune 500. Cems Arbeit wurde von führenden globalen Publikationen wie Business Insider, Forbes und der Washington Post, von globalen Unternehmen wie Deloitte und HPE sowie von NGOs wie dem Weltwirtschaftsforum und supranationalen Organisationen wie der Europäischen Kommission zitiert. Weitere namhafte Unternehmen und Ressourcen, die AIMultiple referenziert haben, finden Sie hier. Im Laufe seiner Karriere war Cem als Technologieberater, Technologieeinkäufer und Technologieunternehmer tätig. Über ein Jahrzehnt lang beriet er Unternehmen bei McKinsey & Company und Altman Solon in ihren Technologieentscheidungen. Er veröffentlichte außerdem einen McKinsey-Bericht zur Digitalisierung. Bei einem Telekommunikationsunternehmen leitete er die Technologiestrategie und -beschaffung und berichtete direkt an den CEO. Darüber hinaus verantwortete er das kommerzielle Wachstum des Deep-Tech-Unternehmens Hypatos, das innerhalb von zwei Jahren von null auf einen siebenstelligen jährlichen wiederkehrenden Umsatz und eine neunstellige Unternehmensbewertung kam. Cems Arbeit bei Hypatos wurde von führenden Technologiepublikationen wie TechCrunch und Business Insider gewürdigt. Er ist ein gefragter Redner auf internationalen Technologiekonferenzen. Cem absolvierte sein Studium der Informatik an der Bogazici-Universität und besitzt einen MBA der Columbia Business School.
Vollständiges Profil anzeigen

Kommentare 2

Teilen Sie Ihre Gedanken

Ihre E-Mail-Adresse wird nicht veröffentlicht. Alle Felder sind erforderlich.

0/450
Dave
Dave
Aug 29, 2022 at 05:49

You forgot to include Tesla with their DOJO supercomputer. From the ground-up, the supercomputer was specifically designed for machine learning and image recognition - which means that every component was designed for it including, but not limited to, PCI board design, CPU, RAM, cooling, power, scalable hardware design and software. If I'm not mistaken, the AI is also the second most widely tested and used in the "wild", just below that of Google due to Google using it in their Search.

Cem Dilmegani
Cem Dilmegani
Sep 06, 2022 at 13:52

Thank you for your feedback, Dave! Here we are only covering companies that sell the chips that they produce. Therefore, companies like Tesla that build supercomputers for their own use or companies that embed chips in their products are out of our scope.

thayyil
thayyil
Mar 19, 2022 at 11:48

surprised that brainchip (akida) missing in this report. any reasons?

Cem Dilmegani
Cem Dilmegani
Nov 18, 2022 at 07:36

All included companies here raised $100+M. Last time we collected the data, that wasn't the case for akida. Why don't you reach out to us at info@aimultiple.com and let's discuss why it should be included. Thank you!