Contactez-nous
Aucun résultat trouvé.

Guide de perfectionnement LLM pour les entreprises

Cem Dilmegani
Cem Dilmegani
mis à jour le Fév 17, 2026
Consultez notre normes éthiques

Suivez les liens pour trouver des solutions spécifiques à vos difficultés liées à la production de votre LLM. Si votre LLM :

  • N'ayant pas accès aux informations nécessaires à votre domaine, vous pouvez soit entraîner un nouveau modèle linéaire , soit passer à un modèle spécifique à votre domaine, soit utiliser RAG pour récupérer les informations.
  • Si la question comporte des faits pertinents mais nécessite une réponse dans un style et un ton différents, le respect de certains formats de sortie ou l'utilisation de certains outils, alors :

L'adoption généralisée des grands modèles de langage (LLM) a amélioré notre capacité à traiter le langage humain . Cependant, leur apprentissage générique aboutit souvent à des performances sous-optimales pour des tâches spécifiques.

Pour surmonter cette limitation, des méthodes de réglage fin sont employées pour adapter les LLM aux exigences uniques des différents domaines d'application.

Qu'est-ce que le réglage fin LLM ?

L'ajustement fin d'un modèle de langage complexe consiste à adapter un modèle pré-entraîné à des tâches spécifiques ou à un domaine particulier. Ce processus implique un entraînement supplémentaire du modèle sur un ensemble de données plus restreint et ciblé, pertinent pour la tâche ou le sujet visé.

Le modèle de langage initial, de grande taille, est pré-entraîné sur de vastes quantités de données textuelles diversifiées, ce qui lui permet d'acquérir une compréhension générale du langage, de la grammaire et du contexte. L'ajustement fin exploite ces connaissances générales et affine le modèle afin d'obtenir de meilleures performances et une meilleure compréhension dans un domaine spécifique.

Figure 2 : Capacités d'un LLM après réglage fin. 1

Par exemple, un modèle de langage de grande taille pourrait être affiné pour des tâches telles que l'analyse des sentiments dans les avis sur les produits, la prédiction des cours boursiers à partir des actualités financières ou l'identification des symptômes de maladies dans les textes médicaux.

Ce processus personnalise le comportement du modèle, lui permettant de générer des résultats plus précis et contextuellement pertinents pour des tâches telles que :

Comment optimiser les LLM

1. Préparation de l'ensemble de données

Les modèles linéaires (LLM) étant pré-entraînés sur un ensemble de données fixe, ils ne tiennent pas compte des événements en temps réel. Pour maintenir ces modèles à jour et améliorer leurs performances sur des sujets spécifiques et évolutifs, les entreprises utilisent des données web en temps réel. Ces données sont essentielles pour deux raisons principales : elles facilitent l’alignement sur le domaine et réduisent les erreurs d’interprétation.

1.1. Alignement et pertinence du domaine :

    L'utilisation de données issues du web permet aux entreprises d'optimiser leurs programmes de maîtrise en droit (LLM) en fonction des informations les plus récentes et pertinentes pour leur secteur. Par exemple, une entreprise spécialisée dans les technologies juridiques pourrait utiliser des robots d'exploration web pour collecter les décisions de justice récentes et les blogs juridiques.

    Ces données spécifiques au domaine garantissent que le modèle affiné comprenne la terminologie et le contexte sectoriel à jour, souvent absents des ensembles de données statiques et publics. Ce processus est essentiel pour faire d'un modèle pré-entraîné généraliste un expert dans un domaine spécifique.

    1.2. Réduction des hallucinations :

    Les hallucinations surviennent lorsqu'un modèle linéaire de données (MLD) génère des informations plausibles mais factuellement erronées. En affinant un MLD avec des données réelles et de haute qualité issues du web, vous lui fournissez une source de vérité fiable.

    Cela réduit la probabilité que le modèle invente des informations lors de l'inférence et lui permet de générer des réponses plus précises et fiables. Ce processus garantit que les résultats du modèle reposent sur des données réelles et non sur des contenus fabriqués.

    Les entreprises utilisent soit des outils internes d'extraction de données web , soit des prestataires tiers pour collecter des données sur les sites web. Ces données d'entraînement collectées sont ensuite préparées et utilisées pour optimiser le modèle LLM.

    En intégrant en permanence des données web actualisées, les entreprises peuvent s'assurer que leurs modèles optimisés restent pertinents et précis, ce qui leur confère un avantage concurrentiel significatif.

    Vidéo expliquant l'annotation des données linguistiques dans le cadre du traitement automatique du langage naturel, à destination des développeurs.

    OpenAI indique que chaque doublement de la taille de l'ensemble de données conduit à une augmentation linéaire de la qualité du modèle. 2

    2. Choix d'un modèle de base et d'une méthode de réglage fin

    Le choix du modèle de base et de la méthode d'ajustement dépend de la tâche et des données disponibles. Plusieurs fournisseurs de logiciels de modélisation de l'apprentissage (LLM) sont disponibles, notamment Alphabet et [référence manquante], chacun présentant ses propres avantages et inconvénients. La méthode d'ajustement peut également varier selon la tâche et les données : apprentissage par transfert, ajustement séquentiel ou ajustement spécifique à la tâche, par exemple.

    Lors du choix du modèle de base, vous devez tenir compte des éléments suivants :

    • L'infrastructure technique est-elle adaptée à la puissance de calcul requise pour le réglage fin ?
    • Que le modèle corresponde à votre tâche spécifique
    • Taille des entrées et des sorties du modèle
    • Taille de votre ensemble de données

    3. Mise au point

    Le réglage fin adapte les LLM pré-entraînés à des tâches spécifiques ou aux besoins organisationnels, que ce soit par le biais de services gérés proposés par les fournisseurs de modèles ou en modifiant directement les modèles open source à l'aide de données spécifiques à la tâche et d'outils MLOps.

    Optimisation en tant que service pour les modèles à code source fermé

    La plupart des LLM (par exemple OpenAI's GPT-5 , Google Gemini) offrent des services de mise au point. 3 Anthropic s'est associé à Amazon Bedrock pour la mise au point. 4

    Par exemple, Vertex AI prend en charge plusieurs approches de réglage des modèles, offrant aux développeurs une grande flexibilité dans la personnalisation du comportement des modèles au-delà du simple réglage fin :

    • Réglage fin supervisé : Entraîner un modèle avec des exemples étiquetés afin qu’il apprenne à produire les résultats souhaités pour des tâches spécifiques.
    • Réglage des préférences : une approche de réglage distincte qui s’appuie sur un réglage fin supervisé utilisant des données de préférences humaines pour apprendre aux modèles à générer des sorties plus préférées sur la base de retours d’information par paires plutôt que d’étiquettes explicites.
    • Points de contrôle et réglage continu : outils permettant de sauvegarder la progression ou d’étendre un modèle réglé existant avec davantage de données ou de passes d’entraînement. 5

    Le prix du réglage fin dépend du modèle et des jetons utilisés. Il est généralement de quelques dollars par million de jetons pour le niveau de réglage fin par défaut (soit 4 époques). 6

    Optimisation des modèles open source

    Étant donné que les pondérations du modèle sont disponibles dans les modèles open source, les entreprises peuvent affiner les modèles open source sur site sans exposer leurs ensembles de données aux fournisseurs de modèles LLM.

    Les étapes permettant d'affiner les modèles open source comprennent :

    • Chargement du modèle pré-entraîné : une fois que le LLM et la méthode de réglage fin ont été sélectionnés, le modèle pré-entraîné doit être chargé en mémoire.
      • Cette étape initialise les poids du modèle en fonction des valeurs pré-entraînées, ce qui accélère le processus de réglage fin et garantit que le modèle a déjà appris la compréhension générale du langage.
    • Le réglage fin consiste à entraîner le modèle linéaire pré-entraîné sur l'ensemble de données spécifique à la tâche. Ce processus d'entraînement implique l'optimisation des poids et des paramètres du modèle afin de minimiser la fonction de perte et d'améliorer ses performances.

    Le processus de mise au point fine implique généralement des cycles d'entraînement itératifs. Pour optimiser les performances, les développeurs doivent ajuster des paramètres tels que le taux d'apprentissage ou la taille des lots. Des outils comme Weights & Biases (Sweeps) automatisent cette recherche d'hyperparamètres, en visualisant l'impact des différentes variables sur la convergence du modèle. Les équipes peuvent ainsi sélectionner la meilleure configuration sans tâtonnement manuel.

    Par exemple, les modèles de lamas peuvent être ajustés de manière économique grâce aux approches d'ajustement fin efficace des paramètres (PEFT). 7

    Les entreprises peuvent tirer parti de leurs plateformes MLOps ou LLMOps pour affiner leurs modèles.

    Par exemple, l'utilisation d'une plateforme faisant office de système d'enregistrement (comme Weights & Biases) permet aux entreprises de suivre chaque exécution d'entraînement, d'enregistrer les métriques système (utilisation du GPU) et de versionner les points de contrôle du modèle résultant dans un registre centralisé. Ceci garantit que, même lors de l'entraînement de modèles open source sur site, le flux de travail reste reproductible et collaboratif.

    Modèles de poids ouverts à réglage fin

    Les modèles Open-weight sont accessibles au public et peuvent être téléchargés et exécutés localement (ou sur leur infrastructure cloud) sans avoir besoin d'une API.

    Ces modèles diffèrent des modèles open source, car l'open source implique généralement que l'intégralité du code d'entraînement, les détails des données et les conditions de licence autorisent la modification et la redistribution. Les modèles à poids ouverts peuvent diffuser les poids, mais restreignent l'accès à certaines parties du pipeline d'entraînement, à l'ensemble de données ou aux droits d'utilisation.

    Comme les poids sont accessibles, les modèles à poids ouverts peuvent être ajustés directement en poursuivant l'entraînement sur des ensembles de données personnalisés (par exemple, l'ajustement supervisé, les méthodes LoRA/PEFT), permettant aux organisations de personnaliser le comportement tout en gardant les données et le déploiement entièrement sous leur contrôle.

    Par exemple, la famille LFM2.5 d'IA (991259_1726) constitue un ensemble de modèles de base à poids ouvert. Ces modèles sont destinés aux déploiements d'IA embarqués et en périphérie, avec des points de contrôle disponibles sur Hugging Face et la plateforme LEAP d'IA (991259_1726).

    La série comprend des variantes telles que LFM2.5-1.2B-Base (un modèle de base pré-entraîné) et LFM2.5-1.2B-Instruct , qui a déjà bénéficié d'un ajustement fin supervisé et d'un apprentissage par renforcement dans son pipeline post-entraînement.

    Comme les poids sont accessibles au public, les développeurs peuvent prendre le point de départ et effectuer leurs propres ajustements : entraîner le modèle sur des ensembles de données propriétaires, l’adapter à des tâches spécifiques à une langue ou à un domaine, ou expérimenter d’autres méthodes d’entraînement (telles que l’ajustement supervisé avec des adaptateurs ou l’alignement des préférences).

    LFM2.5 est parfaitement adapté à la personnalisation spécifique à une tâche sur du matériel local ou des périphériques de périphérie, où le contrôle du flux de travail d'entraînement et d'inférence est important. 8

    Un autre exemple est Tinker de Thinking Machines Lab, une API conçue pour rendre le réglage fin des modèles de langage à poids ouvert plus accessible aux chercheurs et aux développeurs.

    Tinker permet aux utilisateurs d'adapter une large gamme de modèles à poids ouverts, allant des architectures plus petites aux grands modèles de mélange d'experts comme Qwen-235B-A22B. Les utilisateurs peuvent appliquer un ajustement fin basé sur LoRA ou d'autres méthodes de post-entraînement pour adapter les modèles à des tâches spécifiques, que ce soit par le biais d'un apprentissage supervisé ou d'approches de type renforcement.

    Après la mise au point, les développeurs peuvent télécharger les points de contrôle obtenus et les utiliser indépendamment, ce qui leur permet de contrôler à la fois le modèle et le comportement personnalisé. 9

    4. Évaluation des modèles affinés

    Une fois le réglage fin terminé, il est nécessaire d'évaluer les performances du modèle sur l'ensemble de test. Cette étape permet de vérifier que le modèle généralise bien à de nouvelles données et qu'il est performant pour la tâche spécifique. Les métriques couramment utilisées pour l'évaluation comprennent l'exactitude, la précision, le rappel et le score F1.

    Cependant, pour les tâches génératives, les métriques traditionnelles sont souvent insuffisantes. L'évaluation moderne exige de retracer le raisonnement du modèle et de vérifier la qualité du texte généré. Des outils comme W&B Weave facilitent cela en permettant aux développeurs de suivre les entrées et les sorties, de déboguer les invites et d'effectuer des évaluations systématiques (en utilisant un modèle de langage comme juge) afin d'évaluer le modèle affiné sur des nuances telles que le ton, la fidélité et la sécurité.

    5. Déploiement

    Une fois le modèle optimisé et évalué, il peut être déployé en production. Le processus de déploiement peut impliquer l'intégration du modèle dans un système plus vaste, la mise en place de l'infrastructure nécessaire et le suivi des performances du modèle en conditions réelles.

    Quelles sont les méthodes utilisées dans le processus de mise au point des LLM ?

    Méthodes de réglage fin

    Le fine-tuning est un processus qui consiste à adapter un modèle pré-entraîné à une tâche ou un domaine spécifique en l'entraînant davantage sur un ensemble de données plus petit et spécifique à cette tâche. Plusieurs méthodes de fine-tuning peuvent être utilisées pour ajuster les poids et les paramètres d'un modèle pré-entraîné afin d'améliorer ses performances sur la tâche cible.

    • L'apprentissage par transfert consiste à réutiliser les poids et l'architecture d'un modèle pré-entraîné pour une nouvelle tâche ou un nouveau domaine. Ce modèle pré-entraîné est généralement entraîné sur un vaste ensemble de données général, et l'approche d'apprentissage par transfert permet une adaptation efficace à des tâches ou des domaines spécifiques.
    • Ajustement fin séquentiel : Le modèle pré-entraîné est affiné successivement sur plusieurs tâches ou domaines connexes. Cela lui permet d’apprendre des structures linguistiques plus nuancées et complexes à travers différentes tâches, ce qui améliore la généralisation et les performances.
    • Optimisation spécifique à la tâche : Le modèle pré-entraîné est optimisé pour une tâche ou un domaine spécifique à l’aide d’un jeu de données dédié. Cette méthode exige plus de données et de temps que l’apprentissage par transfert, mais peut permettre d’obtenir de meilleures performances pour la tâche en question.
    • Apprentissage multitâche : Le modèle pré-entraîné est affiné simultanément sur plusieurs tâches. Cette approche lui permet d’apprendre et d’exploiter les représentations partagées entre les différentes tâches, ce qui améliore la généralisation et les performances.
    • L'entraînement des adaptateurs consiste à entraîner des modules légers qui sont intégrés au modèle pré-entraîné, permettant un réglage fin sur une tâche spécifique sans affecter les performances du modèle original sur d'autres tâches.

    Réglage fin du renforcement (RFT)

    Le réglage fin par renforcement (RFT) est une technique de personnalisation de modèle qui adapte un modèle de langage pré-entraîné en utilisant un retour d'information basé sur la récompense plutôt que des exemples d'entraînement étiquetés traditionnels.

    Au lieu de s'entraîner sur des sorties fixes/correctes, RFT utilise un signal de récompense ou une fonction de notation pour évaluer les réponses du modèle et optimiser itérativement le modèle afin de maximiser ces récompenses.

    Cette approche repose sur les principes de l'apprentissage par renforcement , où le modèle se comporte comme un agent qui apprend quels types de sorties génèrent des scores de récompense plus élevés et ajuste ses paramètres en conséquence. Contrairement au réglage fin supervisé, la RFT excelle dans les scénarios où il est difficile de définir précisément les sorties correctes, mais où la qualité peut être évaluée.

    Par exemple, la fonctionnalité de réglage fin du renforcement d'Amazon Bedrock automatise ce processus pour permettre aux développeurs de personnaliser les modèles en fonction des signaux de rétroaction (fonctions de récompense).

    Dans Bedrock, les utilisateurs définissent ce qui rend une réponse précise grâce à des fonctions de récompense basées sur des règles ou sur l'IA, et le modèle est entraîné à maximiser ces récompenses. 10

    Un autre exemple est RFT de OpenAI. Il permet aux développeurs d'adapter les modèles de raisonnement en définissant un correcteur programmable qui évalue les réponses candidates. Pendant l'entraînement, le modèle est mis à jour afin que les résultats les plus performants soient plus probables dans les générations suivantes.

    Cela rend la RFT particulièrement utile pour les tâches où la qualité du résultat est subjective ou mieux jugée par une notation plutôt que par des réponses de référence exactes. 11

    Méthode d'apprentissage avec peu d'exemples

    L'apprentissage avec peu d'exemples (FSL) consiste à améliorer les performances d'un modèle sans modifier ses poids. Dans cette approche, le modèle reçoit un nombre limité d'exemples (c'est-à-dire « peu d'exemples ») de la nouvelle tâche, et il utilise ces informations pour s'adapter et obtenir de meilleurs résultats. On peut le considérer comme un

    • Alternative moins coûteuse au réglage fin. Le seul coût est celui des jetons d'entrée pour quelques exemples.
    • Meta-problème d'apprentissage où le modèle apprend à apprendre à résoudre le problème donné.

    Figure 3 : Scénario d'apprentissage avec peu d'exemples où le modèle apprend à classer un ensemble d'images à partir des tâches sur lesquelles il a été entraîné. 12

    Ceci est particulièrement utile lorsque les données disponibles sont insuffisantes pour l'apprentissage supervisé traditionnel. Dans le contexte des modèles linéaires à longue portée (LLM), l'ajustement fin à l'aide d'un petit ensemble de données pertinent pour la nouvelle tâche est un exemple d'apprentissage avec peu d'exemples.

    Différences entre l'apprentissage avec peu d'exemples et le réglage fin

    La principale différence réside dans la quantité de données spécifiques à la tâche requise pour que le modèle s'adapte à une nouvelle tâche ou à un nouveau domaine. Les méthodes d'ajustement fin nécessitent une quantité modérée de données spécifiques à la tâche pour optimiser les performances du modèle, tandis que les méthodes d'apprentissage avec peu d'exemples peuvent adapter les modèles à de nouvelles tâches ou à de nouveaux domaines avec seulement quelques exemples étiquetés.

    Exemples de réglage fin

    Le réglage fin a permis d'obtenir des gains de performance significatifs en finance.

    Bloomberg a développé BloombergGPT, un modèle de langage à grande échelle conçu spécifiquement pour le secteur financier. Ce modèle se concentre sur les tâches de traitement automatique du langage naturel appliquées à la finance, telles que l'analyse des sentiments , la reconnaissance d'entités nommées et la classification des actualités.

    Le BloombergGPT a été créé à partir d'une combinaison de données financières et de données à usage général, et a obtenu des scores élevés dans les tests de référence (Figure 4).

    Figure 4 : Image montrant comment BloombergGPT fonctionne dans deux grandes catégories de tâches NLP : spécifiques à la finance et à usage général. 13

    Pourquoi et quand votre entreprise a-t-elle besoin d'un LLM parfaitement adapté ?

    Les entreprises peuvent avoir besoin de modèles de langage complexes et précis pour plusieurs raisons, en fonction de leurs besoins spécifiques, de leur secteur d'activité et de leurs objectifs. Voici quelques raisons courantes :

    1. Personnalisation

    Les entreprises ont souvent des besoins et des objectifs spécifiques auxquels un modèle de langage générique ne peut répondre. Un paramétrage précis leur permet d'adapter le comportement du modèle à leurs objectifs particuliers, comme la génération de contenu marketing personnalisé ou la compréhension du contenu généré par les utilisateurs sur leur plateforme.

    Découvrez comment le réglage précis des LLM permet la création de produits et de stratégies marketing personnalisés, améliorant ainsi l'expérience de l'IA générative dans le commerce de détail , le marketing et l'assurance .

    2. Sensibilité et conformité des données

    Les entreprises qui traitent des données sensibles ou qui opèrent dans des environnements réglementaires stricts pourraient devoir affiner le modèle pour s'assurer qu'il respecte les exigences en matière de confidentialité, qu'il adhère aux directives relatives au contenu et qu'il génère des réponses appropriées conformes aux réglementations du secteur.

    3. Langage spécifique au domaine

    De nombreux secteurs utilisent un jargon, des termes techniques et un vocabulaire spécialisé qui peuvent être sous-représentés dans les données d'entraînement générales d'un modèle de langage de grande taille. L'ajustement du modèle sur des données spécifiques au domaine lui permet de comprendre et de générer des réponses précises dans le contexte du secteur d'activité de l'entreprise.

    4. Performances améliorées

    Le réglage fin améliore les performances du modèle sur des tâches ou applications spécifiques pertinentes pour l'entreprise, telles que :

    Cela peut conduire à une meilleure prise de décision, à une efficacité accrue et à de meilleurs résultats.

    5. Activation des capacités d'IA agentielle

    Le réglage fin est essentiel au développement de systèmes d'IA agents , conçus pour agir de manière autonome, prendre des décisions et interagir avec des outils ou des environnements externes afin d'atteindre des objectifs spécifiques.

    En affinant un LLM, les entreprises peuvent améliorer leur capacité à effectuer des appels de fonctions, permettant ainsi au modèle de sélectionner et d'exécuter les outils appropriés (par exemple, les API, les bases de données) avec des paramètres précis.

    Par exemple, un LLM optimisé peut alimenter une IA agentielle qui gère de manière autonome les demandes clients en s'intégrant à un système CRM ou en récupérant des données en temps réel via des API web. Cette personnalisation garantit que le modèle comprend les contextes spécifiques au domaine et les interactions avec les outils, ce qui rend l'IA agentielle plus efficace et fiable dans les applications d'entreprise.

    6. Expérience utilisateur améliorée

    Un modèle finement paramétré peut offrir une meilleure expérience utilisateur en générant des réponses plus précises, pertinentes et contextuelles, ce qui conduit à une satisfaction client accrue, dans des applications telles que :

    Qu'est-ce qu'un modèle de langage étendu (LLM) ?

    Un modèle de langage étendu est un système d'intelligence artificielle ( IA ) avancé, plus précisément un modèle d'IA générative d'entreprise , conçu pour traiter, comprendre et générer des textes d'une fluidité naturelle à partir de volumes massifs de données. Ces modèles sont généralement construits à l'aide de techniques d'apprentissage profond , telles que les réseaux de neurones. Ils sont entraînés sur de vastes ensembles de données comprenant des textes issus de sources variées, comme des livres et des sites web, pour le traitement automatique du langage naturel.

    L'un des aspects clés d'un modèle de langage de grande taille est sa capacité à comprendre le contexte et à générer des réponses cohérentes et pertinentes à partir des données d'entrée. La taille du modèle, en termes de nombre de paramètres et de couches, lui permet de saisir les relations et les structures complexes du texte. Cela lui permet d'effectuer diverses tâches , telles que :

    • Répondre aux questions
    • génération de texte
    • Résumé de texte
    • Traduction
    • Écriture créative

    Parmi les exemples notables de grands modèles de langage, on peut citer la série GPT (Generative Pre-trained Transformer) de OpenAI, dont les dernières itérations sont GPT-3 et GPT-4 .

    Les modèles de base, tels que les grands modèles de langage, sont un élément essentiel de la recherche et des applications en IA. Ils servent de fondement à la construction de modèles plus spécialisés et adaptés à des tâches ou des domaines spécifiques.

    Figure 5 : Exemples de modèles de fondation. 14

    Pour en savoir plus

    • Bien que le réglage fin améliore l'efficacité des grands modèles de langage, il est essentiel de s'attaquer aux risques de l'IA générative .
    • Le réglage fin des grands modèles de langage soulève des questions juridiques. Explorez le cadre juridique relatif à ces systèmes d'IA avancés, notamment en matière de droit d'auteur et d'IA générative.
    Cem Dilmegani
    Cem Dilmegani
    Analyste principal
    Cem est analyste principal chez AIMultiple depuis 2017. AIMultiple informe chaque mois des centaines de milliers d'entreprises (selon similarWeb), dont 55 % des entreprises du classement Fortune 500. Les travaux de Cem ont été cités par des publications internationales de premier plan telles que Business Insider, Forbes et le Washington Post, ainsi que par des entreprises mondiales comme Deloitte et HPE, des ONG comme le Forum économique mondial et des organisations supranationales comme la Commission européenne. Vous trouverez d'autres entreprises et ressources réputées ayant fait référence à AIMultiple. Tout au long de sa carrière, Cem a exercé les fonctions de consultant, d'acheteur et d'entrepreneur dans le secteur des technologies. Il a conseillé des entreprises sur leurs décisions technologiques chez McKinsey & Company et Altman Solon pendant plus de dix ans. Il a également publié un rapport McKinsey sur la numérisation. Il a dirigé la stratégie technologique et les achats d'un opérateur télécom, sous la responsabilité directe du PDG. Il a également piloté la croissance commerciale de la société de deep tech Hypatos, qui a atteint un chiffre d'affaires annuel récurrent à sept chiffres et une valorisation à neuf chiffres en seulement deux ans. Les travaux de Cem chez Hypatos ont été présentés dans des publications technologiques de référence telles que TechCrunch et Business Insider. Cem intervient régulièrement lors de conférences internationales sur les technologies. Diplômé en génie informatique de l'université de Bogazici, il est également titulaire d'un MBA de la Columbia Business School.
    Voir le profil complet

    Soyez le premier à commenter

    Votre adresse courriel ne sera pas publiée. Tous les champs sont obligatoires.

    0/450