Contattaci
Nessun risultato trovato.

Modelli GPU

Ultimo aggiornamento: Feb 2026

Rango
Modello
Disponibile.
VRAM
BW
Costo
NVIDIA
NVIDIA
Rilasciato: 2024

B200 SXM

1st
Classifica
$4.89
Verda Cloud
1st
Classifica
$4.89
Verda Cloud

Prestazioni di riferimento

Rango
Categoria
Prestazione
7th
Inferenza di immagini (Efficienza)
79k token/$
1st
Inferenza di immagini (Throughput)
110 token/s
7th
Ottimizzazione dell'immagine (Efficienza)
82k image/$
1st
Ottimizzazione dell'immagine (produttività)
114 image/s
3rd
Inferenza testuale (Efficienza)
23M token/$
1st
Inferenza del testo (Throughput)
33k token/s
4th
Ottimizzazione del testo (Efficienza)
13M image/$
1st
Ottimizzazione del testo (produttività)
18k image/s

Specifiche tecniche

Blackwell
Architettura
192 GB
Memoria
8.20 TB/s
Larghezza di banda
1,000 W
TDP
75 TFLOPS
Prestazioni FP32
2,250 TFLOPS
Prestazioni del BF16

Prezzi dei fornitori per regione

Fornitore
/ Regione
Prezzo/ora
Verda Cloud
/ North Europe
$4.89 (x1 GPU)
Runpod
/ East Europe
$4.99 (x1 GPU)
Lambda
/ Australia & New Zealand
$5.29 (x1 GPU)
Vultr
/ Not Specified
$23.92 (x8 GPUs)
Cirrascale
/ North America
$47.92 (x8 GPUs)
Coreweave
/ Not Specified
$68.80 (x8 GPUs)

FAQ

Questa pagina ti aiuta a confrontare le specifiche tecniche e i prezzi dei singoli modelli. Per una panoramica più ampia del mercato basata sul rapporto prestazioni/prezzo, puoi consultare il nostro benchmark completo delle GPU cloud , che confronta diversi provider e modelli di prezzo per vari carichi di lavoro di intelligenza artificiale.

Un'istanza Cloud GPU, argomento principale di questa pagina, prevede il noleggio di un server virtuale con una GPU dedicata a ore. Questo garantisce un accesso continuo all'hardware, rendendola ideale per attività di lunga durata come l'addestramento di modelli o carichi di lavoro prevedibili. Per un confronto più approfondito tra i provider, consulta il nostro benchmark completo sulle GPU cloud .

Un modello GPU serverless si basa su un principio diverso: si paga al secondo solo per il tempo effettivo di esecuzione del codice, senza dover gestire alcun server. Questa soluzione è estremamente conveniente per attività con traffico variabile, come le API di inferenza. Se questo modello soddisfa le tue esigenze, puoi confrontare i diversi provider sul nostro benchmark dedicato alle GPU serverless .

Sebbene NVIDIA sia attualmente leader di mercato, aziende come AMD e Intel sono forti concorrenti, e anche i fornitori di servizi cloud come AWS e Google producono i propri chip personalizzati. Per saperne di più sui principali produttori di chip per l'intelligenza artificiale e sul panorama industriale in generale, consultate il nostro report dettagliato.

La decisione dipende da fattori quali le competenze del team, la prevedibilità del carico di lavoro e il budget a lungo termine. La nostra guida sull'acquisto o il noleggio di GPU analizza i pro e i contro di ciascuna soluzione per aiutarti a prendere la decisione strategica più adatta alla tua azienda.

Questo punteggio misura il rapporto costo-efficacia di una GPU. Indica quanti milioni (M) di token o immagini si ottengono per ogni dollaro statunitense speso, combinando velocità e prezzo in un unico valore di prestazioni per dollaro. Per tutti i benchmark presenti in questa pagina, un punteggio più alto è sempre migliore perché significa che si ottengono prestazioni superiori a parità di prezzo.

L'inferenza misura l'efficienza nell'utilizzo di un modello pre-addestrato per generare nuovi contenuti (come testo o immagini). Un punteggio di inferenza elevato è fondamentale per far funzionare in modo fluido ed economico applicazioni come chatbot o generatori di arte basati sull'intelligenza artificiale.

L'addestramento (o ottimizzazione) misura l'efficienza con cui si personalizza un modello esistente con i propri dati. Un punteggio di addestramento elevato è importante se si ha bisogno di creare modelli specializzati in modo rapido ed economico.

Benchmark di testo (misurati in token/$): questi punteggi sono rilevanti per i carichi di lavoro basati sul linguaggio. Scegli una GPU con punteggi di testo elevati per attività come l'esecuzione di modelli linguistici di grandi dimensioni (LLM), la creazione di contenuti e la generazione di codice.

Benchmark delle immagini (misurati in immagini/$): questi punteggi sono rilevanti per i carichi di lavoro visivi. Scegli una GPU con punteggi elevati per le immagini per attività come la generazione di arte AI, il riconoscimento di oggetti o la creazione di dati di immagini sintetiche.