GPU Modelle
Letzte Aktualisierung: Feb 2026
Rank
Modell
Avail.
VRAM
BW
Kosten
Veröffentlicht: 2024
B200 SXM
1st
Rang
$4.89
Verda Cloud
1st
Rang
$4.89
Verda Cloud
Benchmark-Leistung
Rang
Kategorie
Leistung
7th
Bild Inferenz (Effizienz)
79k token/$
1st
Bild Inferenz (Durchsatz)
110 token/s
7th
Bildfeinabstimmung (Effizienz)
82k image/$
1st
Bildfeinabstimmung (Durchsatz)
114 image/s
3rd
Text Inferenz (Effizienz)
23M token/$
1st
Text Inferenz (Durchsatz)
33k token/s
4th
Textoptimierung (Effizienz)
13M image/$
1st
Text-Feinabstimmung (Durchsatz)
18k image/s
Technische Spezifikationen
Blackwell
Architektur
192 GB
Erinnerung
8.20 TB/s
Bandbreite
1,000 W
TDP
75 TFLOPS
FP32-Leistung
2,250 TFLOPS
BF16 Leistung
Anbieterpreise nach Region
Anbieter
/ Region
Preis/Stunde
Verda Cloud
/ North Europe
$4.89 (x1 GPU)
Runpod
/ East Europe
$4.99 (x1 GPU)
Lambda
/ Australia & New Zealand
$5.29 (x1 GPU)
Vultr
/ Not Specified
$23.92 (x8 GPUs)
Cirrascale
/ North America
$47.92 (x8 GPUs)
Coreweave
/ Not Specified
$68.80 (x8 GPUs)
FAQ
Diese Seite hilft Ihnen, die technischen Spezifikationen und Preise einzelner Modelle zu vergleichen. Für einen umfassenderen Marktüberblick basierend auf dem Preis-Leistungs-Verhältnis können Sie unseren ausführlichen Cloud-Benchmark GPU nutzen, der verschiedene Anbieter und Preismodelle für unterschiedliche AI-Workloads vergleicht.
Eine Cloud-Instanz GPU, die im Mittelpunkt dieser Seite steht, beinhaltet die stundenweise Anmietung eines virtuellen Servers mit einer dedizierten GPU-Instanz. Dadurch erhalten Sie kontinuierlichen Zugriff auf die Hardware und eignen sich ideal für langlaufende Aufgaben wie Modelltraining oder vorhersehbare Arbeitslasten. Einen umfassenderen Vergleich der Anbieter finden Sie in unserem Haupt -Cloud-Benchmark GPU .
Serverless GPU ist ein anderes Modell, bei dem Sie nur für die tatsächliche Laufzeit Ihres Codes pro Sekunde bezahlen, ohne Server verwalten zu müssen. Dies ist besonders kosteneffizient für Aufgaben mit variablem Datenverkehr, wie z. B. Inferenz APIs. Wenn dieses Modell Ihren Anforderungen entspricht, können Sie Anbieter anhand unseres dedizierten Serverless-Benchmarks GPU vergleichen.
Serverless GPU ist ein anderes Modell, bei dem Sie nur für die tatsächliche Laufzeit Ihres Codes pro Sekunde bezahlen, ohne Server verwalten zu müssen. Dies ist besonders kosteneffizient für Aufgaben mit variablem Datenverkehr, wie z. B. Inferenz APIs. Wenn dieses Modell Ihren Anforderungen entspricht, können Sie Anbieter anhand unseres dedizierten Serverless-Benchmarks GPU vergleichen.
NVIDIA ist zwar aktuell Marktführer, doch Unternehmen wie AMD und Intel sind starke Konkurrenten, und Cloud-Anbieter wie AWS und Google fertigen ebenfalls eigene Chips. In unserem ausführlichen Bericht erfahren Sie mehr über die führenden AI Chiphersteller und die gesamte Branche.
Die Entscheidung hängt von Faktoren wie der Expertise Ihres Teams, der Vorhersagbarkeit des Arbeitsaufkommens und Ihrem langfristigen Budget ab. Unser Leitfaden zur Frage „Kaufen oder Mieten Sie den GPUs?“ beleuchtet die Vor- und Nachteile beider Ansätze und hilft Ihnen so, die richtige strategische Entscheidung für Ihr Unternehmen zu treffen.
Dieser Wert misst die Kosteneffizienz des GPU. Er gibt an, wie viele Millionen (M) Tokens oder Bilder Sie pro ausgegebenem US-Dollar erhalten, und kombiniert Geschwindigkeit und Preis zu einem einzigen Wert für das Preis-Leistungs-Verhältnis. Bei allen Benchmarks auf dieser Seite ist ein höherer Wert immer besser, da er bedeutet, dass Sie mehr Leistung für Ihr Geld erhalten.
Inferenz misst die Effizienz der Nutzung eines vortrainierten Modells zur Generierung neuer Inhalte (wie Text oder Bilder). Ein hoher Inferenz-Wert ist entscheidend für den reibungslosen und kostengünstigen Betrieb von Anwendungen wie Chatbots oder AI Kunstgeneratoren.
Das Training (oder Fine-Tuning) misst die Effizienz der Anpassung eines bestehenden Modells an Ihre eigenen Daten. Ein hoher Trainingswert ist wichtig, wenn Sie schnell und kostengünstig spezialisierte Modelle erstellen müssen.
Das Training (oder Fine-Tuning) misst die Effizienz der Anpassung eines bestehenden Modells an Ihre eigenen Daten. Ein hoher Trainingswert ist wichtig, wenn Sie schnell und kostengünstig spezialisierte Modelle erstellen müssen.
Text-Benchmarks (gemessen in Token/$): Diese Werte sind relevant für sprachbasierte Workloads. Wählen Sie einen GPU mit hohen Text-Benchmarks für Aufgaben wie das Ausführen großer Sprachmodelle (LLMs), die Erstellung von Inhalten und die Codegenerierung.
Bild-Benchmarks (gemessen in Bildern/$): Diese Werte sind relevant für visuelle Arbeitslasten. Wählen Sie einen GPU mit hohen Bild-Benchmarks für Aufgaben wie die Generierung von AI-Grafiken, Objekterkennung oder die Erstellung synthetischer Bilddaten.
Bild-Benchmarks (gemessen in Bildern/$): Diese Werte sind relevant für visuelle Arbeitslasten. Wählen Sie einen GPU mit hohen Bild-Benchmarks für Aufgaben wie die Generierung von AI-Grafiken, Objekterkennung oder die Erstellung synthetischer Bilddaten.