Modelli di intelligenza artificiale
Scopri i principali LLM in termini di prestazioni, latenza e prezzi.
Model
Score (%)
Input Price
Output Price
Feb/4/2026
Claude Opus 4.6
Credito complessivo
Finestra di contesto1M
Input Price($/M)$5.00
Output Price($/M)$25.00
Max Output Tokens128k
Max Output Tokens128k
Prestazioni di riferimento
AI Multiplo
Rango
Categoria
Parametri di riferimento
Punto
Analisi dei costi
Prezzo medio ponderato (USD/1 milione di token)
$10.00
Da Anthropic
Latenza minima
1.91s
Da Anthropic
FAQ
Considera le tue esigenze principali: Creazione di contenuti: concentrati sul ragionamento AI e sui punteggi di memoria Sviluppo software: dai priorità alle prestazioni del codice AI Analisi dei dati: esamina i punteggi di conversione da testo a SQL e di finanza AI Automazione aziendale: considera Agentic RAG e le prestazioni degli agenti AI Accuratezza fattuale: dai priorità ai bassi tassi di allucinazione
Questi rappresentano diversi livelli della famiglia GPT-5 di OpenAI: GPT-5: modello di punta completo di tutte le funzionalità; GPT-5 Mini: ottimizzato per velocità e costi, pur mantenendo prestazioni elevate; GPT-5 Nano: versione ultraveloce e leggera per applicazioni ad alto volume.
I suffissi di data indicano specifiche date limite di addestramento o versioni di rilascio. Ad esempio, "claude-3-7-sonnet-20250219" è stato rilasciato il 19 febbraio 2025, aiutando gli utenti a tenere traccia della versione esatta che stanno valutando.
Il numero "32b" in modelli come "exaone-4.0-32b" si riferisce a 32 miliardi di parametri. In generale, un maggior numero di parametri consente prestazioni migliori, ma richiede anche più risorse computazionali e ha costi di esecuzione più elevati.
Varianti mini: ottimizzate per velocità e costi, in genere con prestazioni pari al 65-80% di quelle dei modelli completi. Varianti high: configurazioni con prestazioni massime, spesso con maggiori requisiti computazionali.