AI Modelle
Erfahren Sie mehr über den führenden LLMs hinsichtlich Leistungsbenchmarks, Latenz und Preisgestaltung.
Model
Score (%)
Input Price
Output Price
Feb/4/2026
Claude Opus 4.6
Overall Bewertung
Kontextfenster1M
Input Price($/M)$5.00
Output Price($/M)$25.00
Max Output Tokens128k
Max Output Tokens128k
Benchmark-Leistung
AIMultiple
Rang
Kategorie
Benchmarks
Punktzahl
Kostenanalyse
Mischpreis (USD/1M Tokens)
$10.00
Von Anthropic
Minimale Latenz
1.91s
Von Anthropic
FAQ
Berücksichtigen Sie Ihre wichtigsten Bedürfnisse: Inhaltserstellung: Fokus auf die Ergebnisse im Bereich logisches Denken und Gedächtnis AI. Softwareentwicklung: Priorisieren Sie die Code-Performance AI. Datenanalyse: Betrachten Sie die Ergebnisse im Bereich Text-zu-SQL und Finanzen AI. Geschäftsautomatisierung: Berücksichtigen Sie die Agenten-Performance RAG und AI. Faktentreue: Betonen Sie geringe Halluzinationsraten.
Diese Modelle repräsentieren verschiedene Leistungsstufen der OpenAI GPT-5-Familie: GPT-5: Flaggschiffmodell mit vollem Funktionsumfang; GPT-5 Mini: Optimiert für Geschwindigkeit und Kosten bei gleichzeitig hoher Leistung; GPT-5 Nano: Ultraschnelle, leichte Version für Anwendungen mit hohem Datenaufkommen.
Datumszusätze kennzeichnen spezifische Schulungsfristen oder Release-Versionen. Beispielsweise wurde „claude-3-7-sonnet-20250219“ am 19. Februar 2025 veröffentlicht und hilft Nutzern so, die genaue Version zu ermitteln, die sie testen.
Die Zahl „32b“ in Modellen wie „exaone-4.0-32b“ steht für 32 Milliarden Parameter. Im Allgemeinen ermöglichen mehr Parameter eine bessere Performance, erfordern aber auch mehr Rechenressourcen und verursachen höhere Kosten.
Mini-Varianten: Optimiert für Geschwindigkeit und Kosten, typischerweise 65–80 % der Leistung von Vollmodellen. High-Varianten: Konfigurationen mit maximaler Leistung, oft mit erhöhtem Rechenaufwand.