Modèles d'IA
Découvrez les principaux LLM en termes de performances, de latence et de prix.
Model
Score (%)
Input Price
Output Price
Feb/4/2026
Claude Opus 4.6
Score global
Fenêtre contextuelle1M
Input Price($/M)$5.00
Output Price($/M)$25.00
Max Output Tokens128k
Max Output Tokens128k
Performances de référence
AIMultiple
Rang
Catégorie
Points de repère
Score
Analyse des coûts
Prix moyen (USD/1 million de jetons)
$10.00
Depuis Anthropic
Latence minimale
1.91s
Depuis Anthropic
FAQ
Tenez compte de vos besoins principaux : Création de contenu : concentrez-vous sur le raisonnement de l’IA et les scores de mémoire. Développement logiciel : privilégiez les performances du code IA. Analyse de données : examinez la conversion de texte en SQL et les scores financiers de l’IA. Automatisation des processus métier : tenez compte des performances d’Agentic RAG et des agents IA. Exactitude des faits : privilégiez les faibles taux d’hallucinations.
Ces termes représentent les différents niveaux de la famille GPT-5 d'OpenAI : GPT-5 : Modèle phare complet ; GPT-5 Mini : Optimisé pour la vitesse et le coût tout en conservant des performances élevées ; GPT-5 Nano : Version ultra-rapide et légère pour les applications à grand volume.
Les suffixes de date indiquent les dates limites de formation ou les versions de publication spécifiques. Par exemple, « claude-3-7-sonnet-20250219 » a été publié le 19 février 2025, permettant ainsi aux utilisateurs de savoir précisément quelle version ils évaluent.
Dans des modèles comme « exaone-4.0-32b », « 32b » fait référence à 32 milliards de paramètres. En général, un plus grand nombre de paramètres améliore les performances, mais exige également davantage de ressources de calcul et engendre des coûts d'exécution plus élevés.
Versions Mini : optimisées pour la vitesse et le coût, offrant généralement 65 à 80 % des performances des modèles complets. Versions Haute Performance : configurations de performances maximales, souvent avec des besoins de calcul accrus.