Contactez-nous
Aucun résultat trouvé.

Modèles d'IA

Les modèles d'IA prédisent des résultats à partir de leurs données d'entraînement. Ils peuvent fonctionner dans tous les domaines, tels que les nombres, le texte ou le multimédia.

Explorer : catégorie

Comparaison des modèles de langage visuel avec la reconnaissance d'images

Modèles d'IAAvr 24

Les modèles de vision et de langage (VLM) avancés peuvent-ils remplacer les modèles de reconnaissance d'images traditionnels ? Pour le savoir, nous avons comparé les performances de 16 modèles de pointe répartis en trois paradigmes : les CNN traditionnels (ResNet, EfficientNet), les VLM (tels que GPT-4.1, Gemini 2.5) et les API cloud (AWS, Google, Azure). La précision moyenne (mAP) a constitué notre principal indicateur de précision, complétée par la latence, le coût et les performances spécifiques à chaque classe.

En savoir plus
Modèles d'IAAvr 24

Comparaison des modèles Large Vision : GPT-4o vs YOLOv8n

Les modèles de vision à grande échelle (LVM) peuvent automatiser et améliorer des tâches visuelles telles que la détection de défauts, le diagnostic médical et la surveillance environnementale. Nous avons comparé trois modèles de détection d'objets : YOLOv8n, DETR et GPT-4oVision, sur 1 000 images chacun, en mesurant des métriques telles que le mAP@0,5, la vitesse d'inférence, les FLOP et le nombre de paramètres.

Modèles d'IAAvr 16

Évaluation comparative des modèles tabulaires : performances sur 19 jeux de données (2026)

Nous avons évalué les performances de 7 modèles d'apprentissage tabulaire largement utilisés sur 19 jeux de données réels, couvrant environ 260 000 échantillons et plus de 250 caractéristiques, avec des tailles de jeux de données allant de 435 à près de 49 000 lignes. Notre objectif était d'identifier les familles de modèles les plus performantes pour des jeux de données de tailles et de structures différentes (par exemple, numériques ou catégorielles) qui constituent un jeu de données d'entreprise typique.

Modèles d'IAAvr 15

Comparer les modèles de fondation relationnels

Nous avons comparé les performances de SAP-RPT-1-OSS à celles du gradient boosting (LightGBM, CatBoost) sur 17 jeux de données tabulaires couvrant le spectre sémantique et numérique, des tables de petite taille à forte sémantique, des jeux de données d'entreprise mixtes et de grands jeux de données numériques à faible sémantique. Notre objectif est de déterminer dans quels cas les a priori sémantiques pré-entraînés d'un LLM relationnel peuvent offrir des avantages par rapport aux modèles arborescents traditionnels et dans quels cas ils rencontrent des difficultés en cas de forte échelle ou de faible sémantique.

Modèles d'IAFév 11

Modèles de fondation mondiaux : 10 cas d'utilisation

L’entraînement des robots et des véhicules autonomes (VA) dans le monde physique peut s’avérer coûteux, long et risqué. Les modèles World Foundation offrent une alternative évolutive en permettant des simulations réalistes d’environnements réels. Ces modèles accélèrent le développement et le déploiement en robotique, en VA et dans d’autres domaines en réduisant la dépendance aux essais physiques.

Modèles d'IAFév 10

Modèles de base des séries temporelles : cas d'utilisation et avantages

Les modèles de base pour séries temporelles (TSFM) s'appuient sur les avancées des modèles de base issus du traitement automatique du langage naturel et de la vision par ordinateur. Grâce à des architectures basées sur les transformeurs et à des données d'entraînement à grande échelle, ils offrent des performances optimales dès le premier apprentissage et s'adaptent à divers secteurs tels que la finance, la distribution, l'énergie et la santé.