Contactez-nous
Aucun résultat trouvé.

Intelligence artificielle générative en entreprise : 11 cas d'utilisation et bonnes pratiques

Cem Dilmegani
Cem Dilmegani
mis à jour le Mar 12, 2026
Consultez notre normes éthiques

L’IA générative (GenAI) offre de nouvelles opportunités aux entreprises par rapport aux PME ou aux startups, notamment :

Cependant, l'IA générative pose des défis propres aux grandes organisations. Par exemple :

  • 36 % des entreprises font part de leurs inquiétudes concernant l'exposition de leurs données confidentielles lorsqu'elles utilisent des logiciels LLM commerciaux. 1
  • GenAI accélérera également le développement de nouveaux services et solutions, permettant ainsi aux concurrents d'entrer plus rapidement sur les marchés et de gagner des parts de marché.
  • L'automatisation basée sur des modèles génératifs peut améliorer l'expérience client ou réduire les coûts, mais elle peut également engendrer des risques opérationnels et de réputation en raison des biais ou des hallucinations de l'IA .

Explorez nos cas d'utilisation concrets de l'IA en entreprise pour découvrir comment les grandes entreprises peuvent créer, déployer et gérer efficacement leurs propres modèles d'IA générative.

Cas d'utilisation de l'intelligence artificielle générative en entreprise

Le web regorge de cas d'utilisation B2C, comme la rédaction d'e-mails avec l'aide de l'IA générative, qui ne nécessitent ni intégration profonde ni modèles spécialisés. Cependant, la valeur ajoutée de l'IA générative pour les entreprises réside dans les applications d'IA d'entreprise listées ci-dessous :

Cas d'utilisation courants

Gestion des connaissances d'entreprise (GCE) : Si les PME et les entreprises de taille intermédiaire n'ont pas de difficultés à organiser leurs données limitées, les entreprises du Fortune 500 ou du Global Forbes 2000 ont besoin d'outils de gestion des connaissances d'entreprise pour de nombreux cas d'utilisation. L'IA générative peut leur être utile. Exemples d'applications :

  1. Extraction d'informations par l'étiquetage de données non structurées telles que des documents.
  2. Synthèse des données non structurées.
  3. La recherche d'entreprise va plus loin que la recherche par mots-clés en prenant en compte les relations entre les mots.

La recherche en entreprise comprend notamment la réponse aux questions des employés concernant :

  1. Pratiques de l'entreprise (par exemple, politiques RH)
  2. données internes de l'entreprise telles que les prévisions de ventes
  3. Une combinaison de données internes et externes. Par exemple : quel serait l’impact de futures sanctions potentielles ciblant les ventes de systèmes MLOps sur notre troisième marché géographique le plus important sur nos performances d’entreprise ?

Les grandes organisations servent des clients internationaux et les capacités de traduction automatique des LLM sont précieuses dans des cas d'utilisation tels que :

  1. Localisation de site web
  2. Création de documentation, comme des manuels techniques, à grande échelle pour toutes les régions géographiques
  3. Service client multilingue
  4. Écoute des médias sociaux ciblant un public mondial
  5. Analyse des sentiments multilingue

applications spécifiques à l'industrie

La plus grande part de la valeur ajoutée pour les entreprises proviendra probablement de l'utilisation des technologies d'IA générative pour innover dans leurs secteurs d'activité spécifiques : cela peut se traduire par de nouveaux produits et services ou de nouvelles méthodes de travail (par exemple, l'amélioration des processus grâce à l'IA générative). Les listes d'applications d'IA générative ci-dessous peuvent servir de point de départ :

Comment les entreprises peuvent-elles tirer parti de l'IA générative ?

Nous avons défini une stratégie détaillée permettant aux entreprises d'exploiter l'IA générative. Si la plupart des entreprises n'auront peut-être pas besoin de développer leurs propres modèles, la plupart des grandes entreprises (par exemple, celles du classement Forbes Global 2000) devraient développer ou optimiser un ou plusieurs modèles d'IA générative adaptés à leurs besoins spécifiques dans les prochaines années. Un paramétrage précis permettra aux entreprises d'atteindre les objectifs suivants :

  • Obtenez une précision accrue en personnalisant en détail les résultats du modèle pour votre propre domaine.
  • Réduisez vos coûts . Il a été démontré que les modèles personnalisables, assortis de licences autorisant une utilisation commerciale, sont presque aussi précis que les modèles propriétaires, pour un coût nettement inférieur. 2
  • Réduire la surface d'attaque de leurs données confidentielles

Des entreprises comme Bloomberg obtiennent des performances de classe mondiale en développant leurs propres outils d'IA générative à partir de données internes. 3

Quelles sont les lignes directrices pour les modèles d'IA d'entreprise ?

Un modèle d'IA générative d'entreprise devrait au minimum être :

Fiable

Cohérent

La plupart des modèles linéaires actuels peuvent fournir des résultats différents pour une même entrée. Cela limite la reproductibilité des tests, ce qui peut conduire à la diffusion de modèles insuffisamment testés.

Contrôlé

Les entreprises devraient héberger ou intégrer l'IA générative dans des environnements leur permettant de gérer la sécurité et la conformité de manière granulaire (par exemple, sur site ou dans des instances cloud dédiées). L'alternative consiste à utiliser des interfaces de chat en ligne ou des API telles que les API LLM de OpenAI.

L'inconvénient de l'utilisation des API réside dans le fait que l'utilisateur peut être amené à divulguer des données confidentielles au propriétaire de l'API. Cela accroît le risque de vol de données. Des leaders mondiaux comme Amazon et Samsung ont subi des fuites de documents internes et de code source précieux lorsque leurs employés utilisaient ChatGPT. 4 5

Depuis, les offres destinées aux entreprises ont considérablement mûri :

  • OpenAI Enterprise (2023) et, plus tard, l'équipe ChatGPT (2024) ont introduit la conservation zéro des données, la conformité SOC 2, l'intégration SSO/SAML et les contrôles d'administration. 6
  • Les principaux fournisseurs (par exemple, Anthropic, Microsoft, Google, Cohere) annoncent désormais les options de désactivation des données client, ce qui signifie que les invites et les résultats des utilisateurs ne sont pas utilisés pour l'entraînement du modèle.
  • Les fournisseurs ont également commencé à s'aligner sur les exigences de la loi européenne sur l'IA (2024), qui met l'accent sur les principes d'IA responsable tels que la transparence, l'auditabilité et la gestion des risques dans les systèmes d'IA à haut risque.

Malgré ces progrès, des risques résiduels subsistent lorsqu'on recourt à des systèmes cloud tiers :

  • Des employés malveillants ou des fournisseurs compromis pourraient toujours accéder aux données de l'entreprise.
  • Des erreurs de configuration d'API peuvent exposer des flux de données sensibles.
  • Le manque d'explicabilité des LLM continue de poser des problèmes aux équipes de conformité.

Pour les secteurs fortement réglementés, l'auto-hébergement ou le déploiement privé de modèles de base (via des modèles à poids ouvert comme LLaMA-4, Mistral ou Granite) reste l'approche la plus sûre, bien qu'à un coût opérationnel plus élevé.

Explicable

Malheureusement, la plupart des modèles d'IA générative sont incapables d'expliquer leurs résultats. Cela limite leur utilisation, car les entreprises souhaitant fonder leurs décisions importantes sur des assistants IA ont besoin de connaître les données ayant influencé ces décisions. L'IA explicable pour les masters en droit (LLM) reste un domaine de recherche.

Fiable

L'hallucination (c'est-à-dire la production de mensonges) est une caractéristique des LLM et il est peu probable qu'elle soit complètement éradiquée. Les systèmes d'IA générale d'entreprise nécessitent les processus et les garde-fous nécessaires pour minimiser, détecter ou identifier par l'humain les hallucinations nuisibles avant qu'elles ne puissent perturber les opérations de l'entreprise.

Les entreprises s'appuient de plus en plus sur les pipelines de génération augmentée par la récupération (RAG) pour réduire les erreurs de modélisation en s'appuyant sur des données fiables. Cependant, des défis persistent en matière d'infrastructure, de stockage et de sécurité, faisant de la RAG non seulement une solution, mais aussi une nécessité à long terme pour les entreprises. 7

Sécurisé

Les modèles d'entreprise peuvent comporter des interfaces pour les utilisateurs externes. Des acteurs malveillants peuvent utiliser des techniques telles que l'injection de requêtes pour amener le modèle à exécuter des actions non prévues ou à divulguer des données confidentielles.

Éthique

Formation éthique

Le modèle doit être entraîné sur des données provenant de sources éthiques où la propriété intellectuelle (PI) appartient à l'entreprise ou à son fournisseur et où les données personnelles sont utilisées avec consentement.

  1. Les problèmes de propriété intellectuelle liés à l'IA générative, tels que les données d'entraînement contenant du contenu protégé par le droit d'auteur dont ce droit n'appartient pas au propriétaire du modèle, peuvent conduire à des modèles inutilisables et à des procédures juridiques.
  2. L'utilisation de données personnelles dans les modèles d'entraînement peut engendrer des problèmes de conformité. Par exemple, ChatGPT (nom de l'entreprise : OpenAI) a dû divulguer ses politiques de collecte de données et permettre aux utilisateurs de supprimer leurs données suite aux préoccupations exprimées par l'Autorité italienne de protection des données (Garante). 8

Consultez la section sur les problèmes de droits d'auteur liés à l'IA générative et les solutions pour en savoir plus.

Équitable

Pour les entreprises, les modèles inéquitables peuvent engendrer plusieurs risques :

  • Risque réglementaire : les systèmes d’IA utilisés dans le recrutement, les prêts, l’assurance ou les soins de santé peuvent enfreindre les lois antidiscrimination s’ils produisent des résultats biaisés .
  • Risque opérationnel : des résultats biaisés peuvent dégrader la qualité des décisions, par exemple en recommandant des candidats inadaptés ou en classant incorrectement les segments de clientèle.
  • Risque d’atteinte à la réputation : la divulgation publique de comportements biaisés de l’IA peut nuire à la confiance envers la marque et aux relations avec les clients.
  • Limitations du marché : les modèles entraînés principalement sur une seule zone géographique, langue ou groupe démographique peuvent avoir de mauvaises performances sur les marchés mondiaux.

Comment les entreprises abordent la question de l'équité

Les entreprises abordent la question de l'équité dans l'IA grâce à une combinaison de pratiques de gouvernance et de mesures de protection techniques :

  • Ils sélectionnent des ensembles de données d'entraînement diversifiés et représentatifs et suppriment les attributs sensibles ou les variables de substitution susceptibles d'introduire un biais.
  • Les modèles sont évalués à l'aide de mesures d'équité (par exemple, la parité démographique ou l'égalité des chances) et testés sur des cas limites afin d'identifier les disparités potentielles.
  • Les organisations intègrent également une supervision humaine, comme la validation par l'humain pour les décisions à fort impact et les comités d'éthique en matière d'IA.
  • Les entreprises surveillent en permanence les résultats des modèles en production afin de détecter les schémas biaisés et de réentraîner les modèles à mesure que de nouvelles données ou des données plus équilibrées deviennent disponibles.

Autorisé

L'entreprise doit posséder une licence commerciale pour utiliser le modèle. Par exemple, des modèles comme LLaMa de Meta sont soumis à des licences non commerciales, ce qui empêche leur utilisation légale dans la plupart des cas au sein d'une entreprise à but lucratif. Les modèles dotés de licences permissives, tels que Vicuna, construit sur la base de LLaMa, sont également soumis à des licences non commerciales puisqu'ils exploitent le modèle LLaMa. 9 10

Durable

L'entraînement de modèles d'IA générative à partir de zéro est coûteux et énergivore , contribuant ainsi aux émissions de carbone. Les dirigeants d'entreprise doivent prendre conscience du coût total de cette technologie et identifier des moyens de minimiser ses impacts écologiques et financiers.

Les entreprises peuvent s'efforcer de respecter la plupart de ces lignes directrices, qui s'inscrivent dans un continuum, à l'exception des questions de licences, des préoccupations éthiques et du contrôle.

  • Il est clair comment obtenir les licences appropriées et éviter les problèmes éthiques, mais ce sont des objectifs difficiles à atteindre.
  • Pour parvenir à ce contrôle, les entreprises doivent construire leurs propres modèles de base ; or, la plupart des entreprises ne savent pas clairement comment y parvenir.

Comment les entreprises peuvent-elles construire des modèles de base ?

Il existe deux approches pour construire l'infrastructure LLM de votre entreprise dans un environnement contrôlé.

1- Construisez votre propre modèle (BYOM)

Cette approche permet d'obtenir des performances de classe mondiale pour un coût de quelques millions de dollars, incluant les coûts de calcul (1,3 million d'heures GPU sur des GPU A100 de 40 Go dans le cas de BloombergGPT) et les coûts de l'équipe de science des données. 11

Le BYOM est principalement adopté par les entreprises des secteurs fortement réglementés (finance, santé, défense, etc.) où la sensibilité des données et les exigences de conformité sont plus importantes que les coûts. Certaines entreprises privilégient une approche hybride en entraînant des modèles spécifiques à un domaine tout en exploitant des modèles de base externes pour le raisonnement général.

2- Améliorer un modèle existant

La plupart des entreprises adoptent cette approche en raison de son rapport coût-efficacité et de sa flexibilité. Plusieurs méthodes sont disponibles :

2.1- Réglage fin

Il s'agit d'une technique d'apprentissage automatique moins coûteuse pour améliorer les performances des grands modèles de langage pré-entraînés (LLM) à l'aide d'ensembles de données sélectionnés.

L’ajustement fin des instructions était auparavant réalisé avec de grands ensembles de données, mais il peut désormais être réalisé avec un petit ensemble de données (par exemple 1 000 invites et réponses sélectionnées dans le cas de LIMA). 12 L’importance d’une approche de collecte de données robuste optimisant la qualité et la quantité des données est mise en évidence dans les premières expériences commerciales de mise au point fine des LLM. 13

Les coûts de calcul pour les articles de recherche ont été aussi bas que 100 dollars, tout en atteignant des performances proches du niveau mondial. 14

Le réglage fin des modèles est un domaine émergent avec de nouvelles approches comme l'Inference-Time Intervention (ITI), une approche visant à réduire les hallucinations des modèles, publiées chaque semaine. 15

2.2- Apprentissage par renforcement à partir de retours humains (RLHF)

Un modèle finement réglé peut être encore amélioré grâce à une évaluation humaine intégrée. 16 17

2.3- Génération augmentée par récupération (RAG)

RAG permet aux entreprises de transmettre des informations cruciales aux modèles lors de leur génération. Ces modèles peuvent ensuite utiliser ces informations pour produire des réponses plus précises.

Les frameworks modernes tels que LangChain et LlamaIndex facilitent l'intégration sécurisée des données d'entreprise structurées et non structurées. Les méthodes RAG avancées incluent désormais la récupération multi-sauts et l'intégration de la recherche en temps réel, ce qui améliore encore la fiabilité et l'exactitude des données.

Les entreprises se tournent vers l'auto-mise à jour, où les modèles se connectent automatiquement aux sources de données en temps réel pour garantir l'actualité des résultats. Les fournisseurs de cloud comme Azure présentent désormais RAG comme l'architecture centrale des copilotes, des systèmes de connaissances et des applications client, en privilégiant l'évolutivité et la sécurité. 18

Compte tenu des coûts élevés liés au BYOM (Bring Your Own Model), nous recommandons aux entreprises d'utiliser dans un premier temps des versions optimisées de leurs modèles existants. L'optimisation des modèles de langage est un domaine émergent, avec de nouvelles approches développées chaque semaine. Par conséquent, les entreprises doivent être ouvertes à l'expérimentation et prêtes à adapter leur approche.

Modèles de fondation les plus rentables pour les entreprises

Les plateformes d'apprentissage automatique ont publié des modèles de base sous licence commerciale, s'appuyant principalement sur du texte disponible sur Internet comme source de données principale. Ces modèles peuvent servir de base à la construction de modèles de langage à grande échelle pour les entreprises.

OpenAI GPT-5

GPT-5.4 est le tout dernier modèle de pointe de OpenAI, conçu pour les tâches professionnelles complexes et exigeantes. Ses fonctionnalités incluent :

  • Raisonnement avancé et travail intellectuel : Produit des résultats de haute qualité pour des tâches telles que des rapports, des feuilles de calcul, des présentations et des analyses dans de nombreux domaines professionnels.
  • Capacité de codage : Intègre les atouts de codage de GPT-5.3-Codex, permettant la génération de code de qualité production et les modifications logicielles multi-fichiers.
  • Flux de travail et utilisation des outils automatisés : possibilité de rechercher et de sélectionner des outils, d’automatiser des flux de travail en plusieurs étapes et d’exécuter des tâches longues de manière plus fiable.
  • Capacité d'utilisation native de l'ordinateur : les agents peuvent interagir avec les logiciels à l'aide de captures d'écran, d'actions de la souris/du clavier ou de code d'automatisation pour effectuer des tâches sur différentes applications et sites web.
  • Fenêtre de contexte étendue : Prend en charge jusqu’à 1 million de jetons, permettant l’analyse de vastes bases de code, de longs documents ou de flux de travail étendus dans une seule invite.

La version GPT-5.4 affiche des améliorations significatives sur plusieurs benchmarks. Elle atteint 83 % de victoires/égalités sur GDPval pour les tâches intellectuelles (contre 70,9 % pour la version GPT-5.2). En génie logiciel, elle obtient un score de 57,7 % sur SWE-Bench Pro, témoignant d'excellentes performances de codage. Pour les tâches d'utilisation d'ordinateur, elle atteint 75 % sur OSWorld-Verified, dépassant ainsi le niveau de référence humain de 72,4 %.

Il obtient également de bons résultats en matière de recherche web, avec un score de 82,7 % sur BrowseComp.

De plus, les réponses de GPT-5.4 ont 33 % moins de chances d'être fausses et 18 % moins de chances de contenir des erreurs par rapport à celles de GPT-5.2. 19

GPT-5.3-Codex est le modèle de codage agentique de OpenAI, combinant les capacités avancées d'ingénierie logicielle de GPT-5.2-Codex avec le raisonnement plus large et les connaissances professionnelles de GPT-5.2.

Le modèle gère des flux de travail de développement complexes, tels que la recherche, l'utilisation d'outils en plusieurs étapes et les tâches de codage de longue durée, sur de vastes bases de code.

Figure 1 : Un exemple de génération d'invite à diapositive utilisant GPT-5.3-Codex. 20

DeepSeek

DeepSeek-V3 par DeepSeek est un modèle MoE (~671B, sous licence MIT) avec de fortes performances de raisonnement et de codage et est open-source depuis mars 2025. 21

DeepSeek-V3.1 par DeepSeek (août 2025) étend les capacités de contexte long avec un tokenizer mis à jour et des poids ouverts. 22

Google DeepMind

Gemini 3.1 Pro (Google DeepMind) est un modèle de langage de pointe conçu pour le raisonnement complexe, le codage et les tâches multimodales, capable de traiter des informations à travers du texte , des images , de l'audio , de la vidéo , du code et des documents .

Sur plusieurs tests de performance, Gemini Pro affiche d'excellentes aptitudes en raisonnement, en programmation et pour les tâches multimodales. Il atteint 77,1 % au test ARC-AGI-2 pour le raisonnement abstrait et 94,3 % au test GPQA Diamond pour les questions scientifiques de niveau universitaire. Au test Humanity's Last Exam, qui évalue le raisonnement académique, il obtient un score de 44,4 % sans outils.

Pour la programmation et le génie logiciel, le modèle atteint 68,5 % sur Terminal-Bench 2.0 et 80,6 % sur SWE-Bench Verified. Il obtient également de bons résultats aux tests de connaissances et aux tests multimodaux, avec un score de 92,6 % sur MMMLU (connaissances multilingues) et d'environ 80,5 % sur MMMU-Pro (raisonnement multimodal). 23

Meta LLaMA

LaMA 4 par Meta est disponible sous les noms LLaMA 4 Maverick , Scout et en avant-première pour Behemoth. Ces modèles sont nativement multimodaux (texte et image), prennent en charge des fenêtres de contexte jusqu'à 10 millions de jetons et restent optimisés pour une efficacité maximale. 24

Llama 3 par Meta était l'ancien modèle avec une licence d'utilisation commerciale comportant certaines limitations pour les très grandes entreprises. 25

Mistral AI

Mistral 8x22B est le dernier modèle à poids ouverts développé par la startup européenne Mistral, spécialisée en intelligence artificielle générative. Grâce à sa licence permissive (Apache 2.0) qui autorise son utilisation commerciale sans restrictions spécifiques pour les grandes entreprises, il peut s'avérer intéressant pour toutes les entreprises. 26 Mistral propose également des modèles comme Mistral Large mais ce modèle a une licence plus restrictive. 27

Récemment, Mistral a élargi sa gamme pour inclure des modèles tels que Mistral Large 3 ; des modèles plus petits comme Mistral Small et Medium ; des modèles de codage spécialisés tels que Codestral et Devstral ; et des modèles audio comme Voxtral Transcribe 2, qui offre des capacités de transcription vocale par lots et en temps réel. 28

IBM

Les modèles Granite de IBM sont très performants selon les benchmarks de génération de code et sont disponibles avec la licence permissive Apache 2.0. 29

L'écosystème Granite s'est également étendu pour inclure des modèles vocaux, tels que Granite-4.0-1B-Speech, qui prennent en charge la reconnaissance et la traduction vocales multilingues. 30

Databricks

DBRX est un modèle à pondération ouverte développé par la plateforme de données Databricks. Il est fourni avec une licence commerciale assortie de limitations similaires à celles des modèles de Meta. Ces limitations s'appliquent aux entreprises comptant plus de 700 millions d'utilisateurs actifs. 31

Grok

Grok-4 de xAI a été lancé en juillet 2025 avec une utilisation native des outils, une intégration de la recherche en temps réel et une variante « Heavy » pour un raisonnement avancé. Grok 4.1 a été déployé en novembre 2025, améliorant le raisonnement, la cohérence, la nuance de personnalité et émotionnelle, et réduisant les hallucinations par rapport à Grok 4. 32

xAI a récemment lancé Grok 4.20 Beta, qui intègre des fonctionnalités multi-agents permettant l'exécution coordonnée de tâches entre plusieurs agents spécialisés. Parallèlement, Grok 5 serait en cours d'entraînement, ce qui laisse présager de nouvelles avancées en matière de raisonnement et de capacités multi-agents. 33

Découvrez les données de référence et les détails tarifaires actualisés des modèles de base pour les applications d'IA d'entreprise :

Quelle est la pile technologique appropriée pour construire de grands modèles de langage ?

L'IA générative est une technologie d'intelligence artificielle, et les grandes entreprises développent des solutions d'IA depuis une dizaine d'années. L'expérience a démontré que l'utilisation de plateformes d'opérations d'apprentissage automatique (MLOps) accélère considérablement le développement des modèles.

En plus de leurs plateformes MLOps, les entreprises peuvent s'appuyer sur une liste croissante d'outils et de frameworks d'opérations sur les grands modèles de langage (LLMOps) tels que Langchain, Semantic Kernel ou watsonx.ai pour personnaliser et construire leurs modèles, ainsi que sur des outils de gestion des risques liés à l'IA comme Nemo Guardrails.

Au début du développement de nouvelles technologies, nous recommandons aux dirigeants de privilégier les plateformes ouvertes afin de bâtir des systèmes pérennes. Dans le contexte des technologies émergentes, la dépendance vis-à-vis d'un fournisseur représente un risque majeur. Les entreprises peuvent se retrouver piégées avec des systèmes obsolètes face à l'évolution rapide et profonde des technologies.

Enfin, l'infrastructure de données d'une entreprise figure parmi les technologies sous-jacentes les plus importantes pour l'IA générative :

  1. De vastes quantités de données internes doivent être organisées et formatées.

  2. Les efforts déployés en matière de qualité et d'observabilité des données doivent garantir que les entreprises aient accès à des ensembles de données de haute qualité, uniques et faciles à utiliser, assortis de métadonnées claires.

  3. Des capacités de traitementde données synthétiques peuvent être nécessaires pour l'apprentissage du modèle.

Comment évaluer les performances des grands modèles ?

Sans mesure de leur efficacité, la valeur des efforts déployés en IA générative ne peut être quantifiée. Or, l'évaluation des modèles de langage (LLM) est complexe en raison de problèmes liés aux jeux de données de référence, à l'influence de ces références sur les données d'entraînement, à l'incohérence des évaluations humaines et à d'autres facteurs. 34 35 .

Nous recommandons une approche itérative qui augmente l'investissement dans l'évaluation à mesure que les modèles se rapprochent de leur utilisation en production :

  • Utilisez les résultats des tests de référence pour établir des listes restreintes. Ces résultats sont disponibles publiquement pour un grand nombre de modèles open source. 36 37
  • Utilisez les scores Elo, utilisés pour classer les joueurs dans les jeux à somme nulle comme les échecs, et comparez les modèles à sélectionner. Si des modèles plus performants ne sont pas disponibles (par exemple, pour des raisons de licence ou de sécurité des données), vous pouvez les utiliser pour comparer les résultats des différents modèles. 38

Figure 2 : Amélioration de l'apprentissage avec peu d'exemples à partir de OpenAI.

Cela peut également inclure l'incitation au raisonnement par étapes. L'incitation au raisonnement par étapes est une technique d'ingénierie des incitations qui guide un modèle de langage dans la résolution d'un problème étape par étape avant de produire une réponse finale. En générant des étapes de raisonnement intermédiaires, le modèle peut mieux gérer des tâches complexes telles que les mathématiques, la logique ou la prise de décision en plusieurs étapes.

Cette approche améliore souvent la précision et la transparence car le modèle décompose le problème en parties logiques plus petites au lieu de répondre immédiatement par une seule réponse.

Figure 3 : Exemple montrant comment fonctionne l'incitation par chaîne de pensée. 39

La génération augmentée par récupération (RAG) peut également être utilisée avec des modèles commerciaux si l'entreprise est satisfaite des politiques de sécurité des données du fournisseur du modèle de base.

Un réglage fin est également disponible pour améliorer encore les performances des modèles commerciaux proposés via des API. 40

Étapes du modèle pré-fondation pour les entreprises

L'élaboration de votre modèle d'entreprise peut prendre des mois, car les étapes ci-dessous doivent être réalisées. Chacune de ces étapes peut prendre de plusieurs semaines à plusieurs mois, et elles ne peuvent pas être entièrement parallélisées :

  • La collecte de données peut prendre des semaines, voire des mois. Les services de collecte de données pour l'IA peuvent accélérer ce processus en aidant les entreprises à générer des ensembles de données d'instructions équilibrés et de haute qualité, ainsi que d'autres données nécessaires à la création ou à l'optimisation de modèles. Il est également possible de faire appel à des plateformes de crowdsourcing de données pour obtenir des ensembles de données plus diversifiés.
  • Le recrutement de data scientists possédant une expertise en LLM ou de consultants peut prendre des semaines, voire des mois.
  • Formation et déploiement
  • Intégration des modèles aux processus et systèmes d'entreprise

Nous recommandons aux dirigeants d'entreprise d'encourager l'expérimentation de l'IA générale. Cela exige un changement de paradigme : nous devons considérer les machines non plus comme des robots dénués de sens, mais comme des co-créateurs. Les organisations devraient commencer à utiliser l'IA générale pour favoriser ce changement de mentalité, en sensibilisant leurs employés à son potentiel et en leur donnant les moyens de transformer leurs méthodes de travail. Comme le disent souvent les consultants, la clé de toute transformation, y compris la transformation par l'IA , réside dans l'humain.

Figure 4 : Cadre du BCG pour l’aspect humain de l’adoption de l’IA générale en entreprise 41

Les équipes peuvent tirer parti des API existantes pour automatiser les processus dans les domaines où la valeur des données confidentielles est moindre et l'intégration système plus simple. Voici quelques exemples de domaines où les équipes peuvent utiliser l'IA générative pour améliorer leur productivité et se familiariser avec cette technologie sans avoir à développer leurs propres modèles :

  • Création de contenu et optimisation du contenu généré pour les campagnes marketing
  • Génération de code pour les logiciels front-end
  • IA conversationnelle pour l'engagement et le support client

Durabilité et coûts

L'IA générative exige d'importantes ressources informatiques et engendre donc des coûts financiers et environnementaux. Les entreprises doivent évaluer soigneusement ces compromis lorsqu'elles décident de développer ou d'optimiser des modèles.

Les principaux points à prendre en compte sont les suivants :

  • Modélisation du cycle de vie : Les recherches montrent que l’empreinte carbone des modèles linéaires à long terme (LLM) englobe l’entraînement, l’inférence et même le matériel lui-même. Des outils comme LLMCarbon fournissent des cadres d’estimation de ces coûts de bout en bout. 42
  • Contrôles de durabilité du cloud : Les fournisseurs de cloud (par exemple, Google, Microsoft, AWS) publient désormais des données sur l'intensité carbone de leurs centres de données. 43
    • Choisir des régions plus vertes ou des installations à faible PUE (efficacité énergétique) peut réduire considérablement les émissions. 44
  • Rapports sectoriels : Des rapports indépendants (par exemple, Stanford AI Index, MIT Tech Review) soulignent que les émissions des centres de données augmentent, même si leur efficacité s’améliore. 45 Cela souligne la nécessité de dimensionner correctement les modèles et d’optimiser l’inférence plutôt que de toujours rechercher le plus grand modèle disponible. 46

tactiques pratiques de réduction des coûts

Les entreprises adoptent des méthodes telles que :

  • Utiliser des modèles plus petits et spécialisés (affinés sur des données internes) plutôt que de les entraîner à partir de zéro.
  • Appliquer des techniques d'efficacité comme la quantification (compression des modèles) ou la mise en cache des requêtes.
  • Utilisation de RAG pour que les modèles ne se génèrent qu'en cas de besoin, au lieu d'être réentraînés à chaque nouvel ensemble de données.
  • Suivi non seulement des coûts financiers, mais aussi des émissions de CO₂ et de la consommation d'eau au niveau du cas d'utilisation, pour plus de transparence.

Recommandation : Les dirigeants d’entreprise devraient considérer le développement durable comme une stratégie de maîtrise des coûts et une priorité en matière de conformité. En alignant le déploiement de l’IA sur les objectifs ESG de l’entreprise, celle-ci peut réduire ses dépenses et limiter les risques d’atteinte à sa réputation.

Quel est le niveau d'intérêt pour l'IA générative en entreprise ?

Bien que de nombreux signes indiquent que l'IA générative en entreprise est en plein essor (par exemple, les revenus des consultants liés à l'IA générative), cela ne se reflète pas encore dans les requêtes des moteurs de recherche. Cependant, l'intérêt croissant pour l'IA en entreprise a probablement été déclenché par le lancement de ChatGPT.

Niveau d'adoption

Depuis l'année dernière, les principaux cabinets de conseil ont mis à jour leurs feuilles de route d'adoption de l'IA générale en entreprise pour mettre l'accent sur le changement de modèle opérationnel, la gouvernance et la création de valeur plutôt que sur les seuls outils :

  • 78 % des organisations déclarent utiliser l'IA dans au moins une fonction ; les entreprises réorganisent leurs flux de travail, nomment des responsables de la gouvernance de l'IA et formalisent les processus de gestion des risques liés aux modèles. 47
  • GenAI dépasse la phase de « pic d'engouement », sa feuille de route s'orientant désormais vers des cas d'utilisation gouvernés et commercialisés, ainsi que vers une approche plateforme. 48

Lacune de commercialisation de l'IA

Bien que les performances des modèles s'améliorent régulièrement, les produits destinés aux entreprises restent souvent à la traîne. De nombreuses solutions se contentent d'intégrer l'IA aux flux de travail existants (par exemple, les widgets de chat, les outils de remplissage de formulaires) au lieu de concevoir des expériences centrées sur l'IA dès le départ.

La véritable opportunité réside dans la refonte des produits afin que l'IA devienne le modèle d'interaction central, et non un simple complément. 49

FAQ

L'IA générative comprend les sorties textuelles, visuelles et audio des modèles d'intelligence artificielle, également appelés grands modèles de langage (LLM), modèles de langage, modèles de base ou modèles d'IA générative.

Lilli AI de McKinsey exploite les données exclusives de McKinsey pour répondre aux questions des consultants et cite ses sources. McKinsey a adopté une approche indépendante du LLM et utilise plusieurs LLM (références Cohere et OpenAI) dans Lilli.
Walmart a développé My Assistant, un assistant d'intelligence artificielle générative, pour ses 50 000 employés hors magasin.

Si vous avez d'autres questions ou besoin d'aide pour trouver des fournisseurs, nous pouvons vous aider :

Trouvez les bons fournisseurs

Liens de référence

1.
Survey Report: Large Language Models in Production
Rubrik
2.
Unpopular opinion: Current AI is mostly engineering without science and can be a net negative for society for years. This is painful to say. I have been fascinated by AI for the last 20 years and… | Cem Dilmegani
3.
Introducing BloombergGPT, Bloomberg’s 50-billion parameter large language model, purpose-built from scratch for finance | Press | Bloomberg LP
4.
Amazon Warns Staff Not to Share Confidential Information With ChatGPT - Business Insider
Business Insider
5.
Samsung Bans ChatGPT, Google Bard, Other Generative AI Use by Staff After Leak - Bloomberg
Bloomberg
6.
Introducing ChatGPT Enterprise | OpenAI
7.
https://www.infinidat.com/en/resource-pdfs/role-storage-ai-applications-and-workloads.pdf
8.
OpenAI: ChatGPT back in Italy after meeting watchdog demands | AP News
AP News
9.
Introducing LLaMA: A foundational, 65-billion-parameter language model
10.
Large Language Models for Commercial Use | TrueFoundry
11.
https://arxiv.org/pdf/2303.17564
12.
[2305.11206] LIMA: Less Is More for Alignment
13.
Flowrite is now a part of MailMaestro
14.
[2305.14314] QLoRA: Efficient Finetuning of Quantized LLMs
15.
[2306.03341] Inference-Time Intervention: Eliciting Truthful Answers from a Language Model
16.
Entraînement de modèles de langage à suivre des instructions avec retour d'information humain
17.
RLHF: Reinforcement Learning from Human Feedback
18.
How RAG and auto-grounding transform enterprise applications with Azure | Sphesihle Mhlongo posted on the topic | LinkedIn
19.
Introducing GPT-5.4 | OpenAI
20.
Introducing GPT-5.3-Codex | OpenAI
21.
DeepSeek-V3-0324 Release | DeepSeek API Docs
22.
DeepSeek-V3.1 Release | DeepSeek API Docs
23.
Gemini 3.1 Pro — Google DeepMind
24.
Unmatched Performance and Efficiency | Llama 4
25.
Meta Llama 3 License
26.
Cheaper, Better, Faster, Stronger | Mistral AI
27.
Au Large | Mistral AI
28.
Voxtral transcribes at the speed of sound. | Mistral AI
29.
IBM’s Granite code model family is going open source - IBM Research
IBM
30.
Granite 4.0 1B Speech: Compact, Multilingual, and Built for the Edge
Hugging Face
31.
Introducing DBRX: A New State-of-the-Art Open LLM | Databricks Blog
32.
Grok 4 | xAI
xAI
33.
Release Notes | xAI Docs
xAI
34.
https://datasets-benchmarks-proceedings.neurips.cc/paper/2021/file/757b505cfd34c64c85ca5b5690ee5293-Paper-round2.pdf
35.
[2305.14314] QLoRA: Efficient Finetuning of Quantized LLMs
36.
Open LLM Leaderboard - a Hugging Face Space by open-llm-leaderboard
Open LLM Leaderboard
37.
Chatbot Arena: Benchmarking LLMs in the Wild with Elo Ratings - LMSYS Blog | LMSYS Org
38.
[2305.14314] QLoRA: Efficient Finetuning of Quantized LLMs
39.
https://arxiv.org/pdf/2201.11903
40.
OpenAI Platform
41.
The CEO’s Guide to the Generative AI Revolution | BCG
BCG Global
42.
https://proceedings.iclr.cc/paper_files/paper/2024/file/6b4ac044095525631df38e20919b45d2-Paper-Conference.pdf
43.
Operating sustainably – Google Data Centers
Google Data Centers
44.
Carbon free energy for Google Cloud regions
45.
https://hai.stanford.edu/ai-index/2025-ai-index-report
46.
Explained: Generative AI’s environmental impact | MIT News | Massachusetts Institute of Technology
47.
https://www.mckinsey.com/~/media/mckinsey/business%20functions/quantumblack/our%20insights/the%20state%20of%20ai/2025/the-state-of-ai-how-organizations-are-rewiring-to-capture-value_final.pdf
48.
The Latest Hype Cycle for Artificial Intelligence Goes Beyond GenAI
Gartner
49.
AI product innovation lags behind model advancements | Madhu Gurumurthy posted on the topic | LinkedIn
Cem Dilmegani
Cem Dilmegani
Analyste principal
Cem est analyste principal chez AIMultiple depuis 2017. AIMultiple informe chaque mois des centaines de milliers d'entreprises (selon similarWeb), dont 55 % des entreprises du classement Fortune 500. Les travaux de Cem ont été cités par des publications internationales de premier plan telles que Business Insider, Forbes et le Washington Post, ainsi que par des entreprises mondiales comme Deloitte et HPE, des ONG comme le Forum économique mondial et des organisations supranationales comme la Commission européenne. Vous trouverez d'autres entreprises et ressources réputées ayant fait référence à AIMultiple. Tout au long de sa carrière, Cem a exercé les fonctions de consultant, d'acheteur et d'entrepreneur dans le secteur des technologies. Il a conseillé des entreprises sur leurs décisions technologiques chez McKinsey & Company et Altman Solon pendant plus de dix ans. Il a également publié un rapport McKinsey sur la numérisation. Il a dirigé la stratégie technologique et les achats d'un opérateur télécom, sous la responsabilité directe du PDG. Il a également piloté la croissance commerciale de la société de deep tech Hypatos, qui a atteint un chiffre d'affaires annuel récurrent à sept chiffres et une valorisation à neuf chiffres en seulement deux ans. Les travaux de Cem chez Hypatos ont été présentés dans des publications technologiques de référence telles que TechCrunch et Business Insider. Cem intervient régulièrement lors de conférences internationales sur les technologies. Diplômé en génie informatique de l'université de Bogazici, il est également titulaire d'un MBA de la Columbia Business School.
Voir le profil complet

Soyez le premier à commenter

Votre adresse courriel ne sera pas publiée. Tous les champs sont obligatoires.

0/450