Services
Contactez-nous
Aucun résultat trouvé.

Environnements RL : L'infrastructure sous-jacente à l'IA agentique

Cem Dilmegani
Cem Dilmegani
mis à jour le Mar 13, 2026
Consultez notre normes éthiques

Les environnements d'apprentissage par renforcement sont des environnements contrôlés où les agents d'IA agissent, observent les résultats et reçoivent un retour d'information. Leur utilité s'accroît à mesure que les modèles évoluent des réponses ponctuelles vers des tâches complexes en plusieurs étapes, notamment dans le développement, l'utilisation des navigateurs web, le support client et les logiciels d'entreprise.

entreprises environnementales RL

Certaines entreprises proposent des environnements personnalisés pour le développement, la finance, les processus métier ou les tâches informatiques courantes. D'autres fournissent les frameworks open source et la pile d'exécution nécessaires pour créer et exécuter soi-même ces environnements. Les tableaux ci-dessous distinguent ces deux catégories : les fournisseurs commerciaux qui conçoivent et vendent des environnements, et les frameworks open source qui fournissent l'infrastructure permettant de créer son propre environnement.

fournisseurs d'environnements RL

Entreprise
Produit
Catégorie
Modèle de service
Source libre
Élément différenciateur clé
Données et environnements d'entraînement RL sélectionnés
Code ; Finance
Entreprise gérée
Non
Combine l'apprentissage par renforcement basé sur des grilles d'évaluation, les environnements MCP/API et les données de formation à l'utilisation de l'ordinateur
Environnements d'apprentissage par renforcement spécifiques au domaine avec évaluation par des experts
Entreprise; Long Horizon
Entreprise gérée
Non
Formation des agents validée par des experts sur des outils d'entreprise réels (Slack ; Notion ; Linear)
Génération programmatique d'environnements, de tâches et de vérificateurs d'apprentissage par renforcement
Vision à long terme ; post-formation ; évaluation
Bêta gérée/privée
Non
Génération automatisée d'environnements à partir de données réelles ; « données réelles en entrée, environnements fiables en sortie »
SkillsBench (84 tâches d'expert), PokémonGym
Multi-domaines (code, sciences, finance, santé, sécurité, mathématiques) ; infrastructure de référence
Plateforme / ouverte
Oui (GitHub)
Plateforme d'exécution de référence et hub pour l'exécution d'évaluations d'agents à haut signal dans différents domaines
Centre d'environnement Dojo RL
Utilisation de l'ordinateur ; Utilisation des outils
Plateforme (application + SDK + documentation)
Partiel (SDK + primes)
L'un des centres d'utilisation libre-service d'ordinateurs les plus clairs de la catégorie
Simulations d'utilisateurs, d'outils et de flux de travail réels
Entreprise; Long Horizon
Entreprise gérée
Non
Simule des milliers d'utilisateurs et de flux de travail réels ; inclut des exercices de simulation d'attaques (red teaming).
Environnements d'apprentissage par renforcement pour l'évaluation de code à l'échelle du dépôt ; Plateforme livrée
Code
Entreprise gérée
Non
Environnements d'évaluation de code à l'échelle du dépôt, associés à une plateforme d'ingénierie de type primes.
Salles de sport d'entraînement imitant les logiciels d'entreprise (Slack ; Salesforce ; etc.)
Entreprise ; Utilisation de l'ordinateur
Géré / orienté vers les laboratoires de pointe
Non
Des centaines de salles de sport qui simulent des logiciels d'entreprise populaires
Environnements RL pour les services financiers (flux de travail IB ; PE)
Finance ; Utilisation de l'ordinateur
Entreprise gérée
Partiel (Westworld sur GitHub)
Environnements axés sur la finance pour des flux de travail réalistes d'utilisation d'outils en plusieurs étapes
Environnements d'apprentissage par renforcement pour la programmation et l'utilisation de l'ordinateur avec des récompenses vérifiables
Code ; Utilisation de l'ordinateur
Géré / commercial
Non
Automatisation de la création d'environnements d'apprentissage par renforcement ; accent mis sur les récompenses vérifiables

*Les fournisseurs sont classés par ordre alphabétique. Leur présence sur la liste n'implique aucune recommandation ni aucun classement.

Ces fournisseurs répondent à des besoins différents : AfterQuery, AIChamp, Andromede, Collinear, Deeptune, Halluminate et Refresh se concentrent davantage sur les environnements gérés, tandis que BenchFlow est plutôt une infrastructure d’évaluation et Chakra Labs plutôt un hub/une plateforme. 1

Cadres et infrastructures open source

Les frameworks open source résolvent un problème différent. Ils ne vendent pas d'environnements finis ; ils fournissent l'infrastructure que les équipes utilisent pour les construire, les exécuter et les évaluer.

*Les fournisseurs sont classés par ordre alphabétique. Leur présence sur la liste n'implique aucune recommandation ni aucun classement.

Les frameworks tels que `verifiers`, OpenEnv et Atropos sont importants car ils réduisent le coût de la construction d'environnements à partir de zéro et facilitent la réutilisation des définitions de tâches, des vérificateurs et de l'infrastructure de déploiement pour la formation et l'évaluation. 2 3 4 Gymnasium fournit toujours l'interface de base sur laquelle s'appuient de nombreux outils RL, même s'il n'a pas été conçu pour les agents LLM.

Pour la plupart des équipes, le choix pratique ne consiste pas à opter pour toutes ces solutions simultanément. Il s'agit plutôt d'acheter des environnements spécifiques à un domaine, d'adapter un framework existant ou de combiner les deux.

Qu'est-ce qu'un environnement RL ?

Ce que signifie concrètement un environnement RL

Un environnement d'apprentissage par renforcement est un système contrôlé où un agent agit, le monde réagit et le résultat peut être mesuré. Cet environnement peut être simple, comme CartPole. 5 Il peut s'agir d'un environnement simple ou complexe, comme un bac à sable de programmation, un flux de travail de navigateur ou une pile d'outils d'entreprise simulée. L'interface n'a pas besoin de ressembler à un jeu. Elle doit permettre à l'agent d'agir, de produire une réponse du monde extérieur et de rendre le succès ou l'échec mesurable.

C’est pourquoi les environnements d’apprentissage par renforcement sont essentiels pour les agents modernes. Les invites statiques permettent de tester des réponses ponctuelles, mais elles sont insuffisantes pour évaluer l’utilisation d’outils, la gestion des erreurs et l’exécution de processus en plusieurs étapes. Les environnements rendent ces comportements observables et mesurables. Par exemple, un agent navigateur peut sembler compétent lors d’un test basé uniquement sur des invites, en décrivant les étapes appropriées. Dans un environnement, il doit réellement naviguer sur les pages, utiliser les outils, se remettre d’actions ayant échoué et mener à bien le processus.

Dans les interfaces RL standard, l'environnement renvoie l'observation suivante, une récompense et des signaux indiquant la fin de l'épisode. Concrètement, cela signifie qu'un environnement nécessite des actions autorisées, une dynamique du monde et un système de notation. De nombreux environnements requièrent également une fonction de réinitialisation pour permettre la réexécution de la même tâche à des fins de débogage, d'évaluation et de comparaison. Dans certains frameworks RL LLM modernes, ces éléments sont intégrés à la logique de génération de déploiement et de vérification plutôt que d'être exposés directement via une API `step()`.

Environnements de formation vs environnements d'évaluation

Un même environnement peut être utilisé de différentes manières. Lors de l'entraînement, l'agent exploite les retours de l'environnement pour s'améliorer progressivement. Lors de l'évaluation, l'environnement sert à mesurer les performances, et non à mettre à jour le modèle. Ce sont trois usages courants des environnements et des tâches dans l'apprentissage par renforcement des modèles de langage modernes : l'apprentissage par renforcement, l'évaluation comparative et l'ajustement supervisé des trajectoires réussies. 6

C’est important car les environnements d’entraînement et d’évaluation sont conçus pour des objectifs différents. Les environnements d’entraînement nécessitent un système de récompense qui encourage l’amélioration de l’agent sans être facilement manipulable. Les environnements d’évaluation requièrent un système de notation stable, reproductible et des critères de réussite/échec ou de notation clairs. Une même configuration peut convenir aux deux, mais les équipes doivent clairement indiquer le mode utilisé.

Dans ce contexte, l'environnement correspond au monde interactif, le vérificateur à la logique de notation et l'évaluation à l'exécution de la mesure au sein de ce monde. Un banc d'essai est l'ensemble standardisé de tâches et de règles de notation qui en découlent.

Toutes les boucles d'agents ne constituent pas un environnement d'apprentissage par renforcement standard. Certains référentiels s'apparentent davantage à des cadres d'orchestration ou à des boucles de recherche autonomes. Ils peuvent inclure des tâches, des outils et des retours d'information, mais n'offrent pas toujours un environnement réutilisable avec des transitions, des limites d'épisodes et une logique de notation clairement définies.

Qu'est-ce qui rend les environnements RL importants ?

Comment les environnements d'apprentissage par renforcement peuvent améliorer les performances de l'IA agentielle

Les environnements d'apprentissage par renforcement (RL) permettent de rendre les tests d'IA plus réalistes, car ils évaluent les systèmes dans une boucle interactive, et non par le biais de requêtes ponctuelles. Ceci est particulièrement utile pour les agents qui naviguent sur Internet, utilisent des outils, écrivent du code ou exécutent des flux de travail complexes. Des plateformes comme WebArena et WorkArena reposent sur ce principe : l'agent doit évoluer dans un environnement contrôlé, et ses performances sont mesurées par la réalisation des tâches plutôt que par la simple correspondance des réponses. 7

Cela permet aux benchmarks de capturer des comportements que les tests basés uniquement sur des invites ne détectent souvent pas. Un environnement interactif peut mesurer si l'agent a choisi les bons outils, s'est remis des erreurs, a respecté les règles du flux de travail et a terminé la tâche dans un nombre d'étapes limité. Des benchmarks utilisant des outils tels que PaperArena 8 Pousser dans la même direction en évaluant comment les agents gèrent des tâches complexes avec des outils externes et des flux de travail itératifs.

Pourquoi la qualité du vérificateur est aussi importante que le réalisme de l'environnement

Un environnement réaliste ne suffit pas si la logique de notation est faible. En apprentissage par renforcement et en évaluation d'agents, le vérificateur détermine si la tâche a été effectivement résolue. Si le vérificateur est trop permissif, l'agent peut être validé sans avoir accompli la tâche prévue. S'il est trop strict, des solutions correctes peuvent être considérées comme erronées. Vérifié par SWE-bench Le sous-ensemble 9 a été créé dans ce but. Il s'agit d'un sous-ensemble validé par des humains, conçu pour améliorer la fiabilité de l'évaluation.

Dès lors que les agents peuvent multiplier les actions et les stratégies, les moindres erreurs d'évaluation deviennent beaucoup plus préjudiciables. La manipulation des récompenses représente l'un des risques les plus évidents dans ce contexte. 10 En pratique, cela signifie que la conception du vérificateur n'est pas un détail d'implémentation mineur. Elle fait partie intégrante du banc d'essai.

Pourquoi les flux de travail d'entreprise deviennent un secteur de croissance majeur

Les agents de navigateur, les flux de travail de productivité, les systèmes de codage, les opérations clients et les tâches logicielles internes sont plus faciles à relier à la valeur commerciale que les démonstrations de raisonnement abstrait. WorkArena Le 11 illustre bien cette évolution. Il évalue les agents sur des tâches logicielles d'entreprise de type ServiceNow plutôt que sur une navigation générique.

C’est là que les défaillances des agents deviennent coûteuses et visibles. Un modèle qui répond mal à une question de référence peut perdre un point. Un modèle qui gère mal une feuille de calcul, le flux de travail d’un client ou un système interne peut perturber un processus. Cela souligne l’importance des environnements capables de modéliser des outils réels, des contraintes réalistes et des résultats vérifiables. Les outils d’agent récemment développés par OpenAI vont dans ce sens, avec une prise en charge intégrée de la recherche Web, de la recherche de fichiers et de l’utilisation de l’ordinateur, conçue pour les tâches en plusieurs étapes et l’automatisation des flux de travail.

Pourquoi les environnements d'apprentissage par renforcement sont importants pour les laboratoires de pointe

Les environnements d'apprentissage par renforcement sont essentiels pour les laboratoires de pointe, car ils élargissent le champ des possibles en matière d'entraînement et de mesure. Si une tâche peut être intégrée à un environnement offrant un retour d'information clair, elle peut faire partie du processus de post-entraînement. À mesure que les laboratoires orientent leurs modèles vers la programmation, la navigation web, l'utilisation d'outils et d'autres tâches complexes, les environnements deviennent un élément de plus en plus important du processus d'entraînement.

Ils facilitent également le suivi des progrès en matière de capacités. Les laboratoires de pointe ne se contentent pas d'améliorer la réactivité des modèles ; ils cherchent à optimiser leurs performances dans divers domaines tels que la programmation, la navigation web, l'utilisation d'outils et les tâches à long terme. Ces environnements offrent des paramètres contrôlés permettant d'exécuter ces tâches de manière répétée, de comparer les résultats et d'intégrer les trajectoires réussies à l'entraînement.

À quoi ressemble un environnement de haute qualité

Un monde réaliste et des outils utilisables

Un environnement d'apprentissage par renforcement robuste nécessite un monde interne cohérent. Les actions doivent modifier l'environnement de manière à refléter la tâche testée. Si l'agent clique sur un bouton, soumet un formulaire, modifie du code ou appelle un outil, l'environnement doit réagir de façon à reproduire fidèlement le flux de travail réel pour que le résultat soit pertinent. Univers de OpenAI 12 a concrétisé cette idée en proposant des jeux, des sites web et des applications où les agents interagissaient par le biais de pixels, du clavier et de la souris plutôt que par des raccourcis simplifiés.

Cela détermine à la fois ce que les agents peuvent apprendre et ce que les indicateurs de performance peuvent mesurer. Un environnement de programmation sans tests réels, sans état des fichiers et sans retour d'information pertinent ne vous apprendra pas grand-chose sur les compétences en programmation. Un environnement de navigation avec des interactions factices et des contraintes faibles ne vous en dira pas long sur l'utilisation de l'ordinateur. Un environnement de qualité n'a pas besoin de simuler le monde entier. Il doit en revanche modéliser les aspects du monde qui déterminent réellement la réussite des tâches.

Prévention du piratage des récompenses

Un environnement de qualité doit empêcher un agent d'obtenir des points sans avoir accompli la tâche prévue. C'est le problème de la fiabilité. Si le signal de récompense ou le correcteur peuvent être exploités, l'agent risque d'apprendre à maximiser son score plutôt qu'à résoudre la tâche. La manipulation des récompenses est un mode de défaillance connu en apprentissage par renforcement, et son importance croît à mesure que les modèles deviennent plus performants pour détecter les failles dans les tâches et les règles de notation. 13

La qualité de l'environnement ne se limite pas au réalisme. La logique d'évaluation doit également être alignée sur l'objectif réel. Si le système de vérification est défaillant, le critère de référence peut récompenser des comportements inappropriés. Dans certains cas, les équipes ont également besoin de vérifications cachées ou partiellement cachées afin que l'agent ne puisse pas optimiser directement en fonction des conditions d'acceptation visibles. Un environnement de qualité établit un lien étroit entre la validation de la tâche et la réalisation effective de l'objectif sous-jacent.

Reproductibilité, relecture et observabilité

Un environnement de haute qualité doit permettre la réexécution, le débogage et l'inspection. Les équipes doivent pouvoir réinitialiser une même tâche, réexécuter le même épisode dans des conditions contrôlées et comparer les résultats entre différents modèles ou versions. Dans les systèmes d'apprentissage par renforcement (RL) classiques, les wrappers et les journaux permettent de capturer les statistiques des épisodes et les données d'exécution. Dans les environnements d'agents modernes, ce principe s'étend : les équipes ont besoin de traces des appels d'outils, des changements d'état, du temps d'exécution, des sorties des vérificateurs et des résultats finaux. L'écosystème Gymnasium illustre en partie ce besoin grâce aux statistiques des épisodes, aux limites de temps et aux wrappers d'enregistrement qui facilitent l'inspection ultérieure des exécutions. 14

Les défaillances sont souvent invisibles à la simple lecture du résultat final. Il est essentiel de connaître les outils utilisés par l'agent, l'endroit où il s'est bloqué, s'il a emprunté un raccourci et la durée de l'incident. L'observabilité transforme un environnement opaque en un système permettant d'évaluer, de déboguer et d'améliorer ses performances. C'est également une question d'intégrité opérationnelle : un environnement de qualité ne doit pas confondre une faiblesse du modèle avec une authentification défaillante, un état obsolète, des bogues dans les wrappers ou une dérive du sandbox.

Pourquoi le nombre de tâches à lui seul est un signal de qualité faible

Un grand nombre de tâches ne garantit pas automatiquement un environnement de haute qualité. Ce qui importe davantage, c'est que ces tâches soient bien définies, réalistes et évaluées de manière fiable. PaperBench Le chiffre 15 illustre bien cette distinction. Sa valeur ne réside pas uniquement dans le nombre de tâches. Elle découle de la décomposition des tâches en composantes évaluables à l'aide de grilles d'évaluation explicites, et de l'analyse du système d'évaluation lui-même.

Le nombre de tâches est facile à mettre en avant, mais il masque une question plus complexe : ces tâches mesurent-elles réellement quelque chose, et la notation est-elle fiable ? Un environnement plus restreint, avec des tâches mieux conçues, une meilleure évaluation et une meilleure observabilité, peut s’avérer plus utile qu’un environnement beaucoup plus vaste rempli de tâches fragiles ou répétitives.

Comment commencer à construire des environnements RL

Commencez par l'évaluation, pas par la formation.

Une approche pratique consiste non pas à entraîner un modèle, mais à créer un environnement capable de l'évaluer de manière fiable. Cela réduit les coûts, raccourcit le temps d'itération et oblige les équipes à définir clairement la tâche avant d'y ajouter l'apprentissage par renforcement. (Vérificateurs de Prime Intellect) 16 documents définissent les environnements de manière générale : ils peuvent être utilisés pour l'évaluation, la génération de données synthétiques, les harnais d'agents ou l'entraînement RL, plutôt que uniquement pour des exécutions d'entraînement complètes.

Il s'agit du point d'entrée le plus pratique pour la plupart des équipes. Si une équipe ne peut pas définir clairement l'épisode, le vérificateur et les artefacts de relecture, il est trop tôt pour commencer l'entraînement. En pratique, l'évaluation dans un environnement consiste à exécuter la même tâche sur un ou plusieurs modèles, à enregistrer leurs actions et à évaluer le résultat avec un vérificateur. Les premiers indicateurs sont généralement la réussite de la tâche, le nombre d'étapes, les erreurs d'outils, le temps d'exécution et la cohérence entre les exécutions répétées.

Choisissez un flux de travail et définissez la boucle de tâches

Ne commencez pas par une plateforme trop vaste. Commencez par un seul flux de travail. Il peut s'agir d'une tâche de navigation, de programmation, d'un processus de support client ou d'une opération financière. L'objectif est de définir une boucle reproductible : ce que l'agent voit, ce qu'il est autorisé à faire, comment l'environnement évolue et ce qui constitue un succès. La documentation de Gymnasium sur la création d'environnements formalise ce processus dans le cadre de l'apprentissage par renforcement classique, à travers les observations, les actions, les transitions et les limites des épisodes.

Concrètement, cela signifie choisir une seule famille de tâches bien définie et décrire la structure complète de l'épisode avant toute autre construction. Un bon environnement initial est généralement plus petit qu'on ne l'imagine. Il suffit de modéliser les parties du flux de travail qui déterminent la réussite de la tâche.

Créez le vérificateur avant de mettre à l'échelle l'ensemble des tâches.

Le vérificateur détermine si l'agent a bien résolu la tâche. Si sa logique est défaillante, augmenter le nombre de tâches ne sera pas très utile ; cela ne fera qu'accroître la part de bruit dans les résultats. La documentation de Prime Intellect définit les environnements autour de trois éléments principaux : les entrées des tâches, le harnais et la fonction ou grille de récompense.

C'est une erreur fréquente au début : les équipes ajoutent souvent des tâches avant même d'avoir un système de notation fiable. La meilleure approche consiste à privilégier un premier correcteur compétent, puis à étendre progressivement le champ d'application. Un ensemble de tâches plus restreint, mais avec une notation rigoureuse, est généralement plus utile qu'un ensemble plus important avec une notation moins fiable.

Ajoutez la réinitialisation, la relecture et la journalisation des artefacts dès le premier jour.

Un environnement utilisable nécessite plus qu'une tâche et un score. Il doit également permettre de réexécuter le même épisode, d'analyser son déroulement et de comparer les exécutions entre différents modèles ou versions. Dans les configurations RL standard, cela se traduit par une logique de réinitialisation, des métadonnées d'épisode et des utilitaires d'enregistrement. Dans les environnements d'agents, cela doit également inclure les traces d'exécution, les changements d'état, le temps d'exécution, les sorties brutes et les résultats du vérificateur. Les outils d'environnement de Gymnasium couvrent certains aspects de ces fonctionnalités grâce à la logique de réinitialisation, les wrappers et les données d'épisode structurées, même si les traces d'agents modernes requièrent généralement plus de détails.

C'est important car de nombreuses défaillances sont invisibles dans la seule réponse finale. Sans relecture ni artefacts, le débogage se résume à des conjectures. La journalisation permet également de distinguer les défaillances des agents de celles de l'infrastructure, ce qui est crucial lorsque l'environnement dépend d'interfaces d'outils, de bacs à sable, d'identifiants ou de services externes.

Quand utiliser un environnement existant plutôt que de créer le vôtre

Il n'est pas toujours nécessaire de partir de zéro. Si votre objectif est d'évaluer des modèles sur une famille de tâches existante, il est souvent plus rapide d'installer ou d'adapter un environnement existant que d'en créer un nouveau. Les outils d'environnement de Prime Intellect sont conçus pour ce flux de travail, notamment l'installation d'environnements et l'exécution d'évaluations avec des modèles API avant de passer à l'apprentissage par renforcement à plus grande échelle.

Créer son propre environnement est plus judicieux lorsque le flux de travail est spécifique à un domaine, que la logique de vérification est inhabituelle ou que les environnements existants ne modélisent pas les contraintes adéquates. La réutilisation est optimale lorsque la classe de tâches correspond déjà à vos besoins. Le développement sur mesure est préférable lorsque la logique métier sert de référence.

Quand vous avez réellement besoin de GPU

Il n'est pas nécessaire d'utiliser des GPU pour commencer à créer ou à évaluer un environnement. Les vérificateurs prennent en charge le développement et l'évaluation d'environnements basés sur le CPU avec des modèles API, tandis que l'entraînement RL à plus grande échelle peut être ajouté ultérieurement via prime-rl ou d'autres outils d'entraînement.

Les GPU deviennent indispensables lors du passage de l'évaluation à l'entraînement d'un modèle à pondération ouverte, notamment à grande échelle. Cette décision intervient plus tard. Pour la plupart des équipes, la première étape n'est pas la location de GPU, mais la validation de la boucle de tâches, du vérificateur et des traces d'environnement afin de justifier l'entraînement.

Des points de repère aux terrains d'entraînement

Les environnements d'apprentissage par renforcement (RL) deviennent de plus en plus utiles à mesure que les modèles sont confrontés à des tâches plus longues, plus complexes et plus réalistes. La difficulté ne réside pas seulement dans la création d'une tâche interactive, mais aussi dans sa conception avec des flux de travail réalistes, un système de notation fiable, une forte observabilité et une distinction claire entre les défaillances du modèle et celles de l'environnement.

Pour les équipes qui investissent ce domaine, les opportunités dépassent largement la simple évaluation des modèles. Les environnements d'apprentissage par renforcement peuvent servir de bancs d'essai, de terrains d'entraînement, ou les deux. Les systèmes les plus pertinents seront ceux qui seront suffisamment réalistes pour refléter le travail réel, suffisamment fiables pour inspirer confiance et suffisamment structurés pour s'améliorer au fil du temps.

Cem Dilmegani
Cem Dilmegani
Analyste principal
Cem est analyste principal chez AIMultiple depuis 2017. AIMultiple informe chaque mois des centaines de milliers d'entreprises (selon similarWeb), dont 55 % des entreprises du classement Fortune 500. Les travaux de Cem ont été cités par des publications internationales de premier plan telles que Business Insider, Forbes et le Washington Post, ainsi que par des entreprises mondiales comme Deloitte et HPE, des ONG comme le Forum économique mondial et des organisations supranationales comme la Commission européenne. Vous trouverez d'autres entreprises et ressources réputées ayant fait référence à AIMultiple. Tout au long de sa carrière, Cem a exercé les fonctions de consultant, d'acheteur et d'entrepreneur dans le secteur des technologies. Il a conseillé des entreprises sur leurs décisions technologiques chez McKinsey & Company et Altman Solon pendant plus de dix ans. Il a également publié un rapport McKinsey sur la numérisation. Il a dirigé la stratégie technologique et les achats d'un opérateur télécom, sous la responsabilité directe du PDG. Il a également piloté la croissance commerciale de la société de deep tech Hypatos, qui a atteint un chiffre d'affaires annuel récurrent à sept chiffres et une valorisation à neuf chiffres en seulement deux ans. Les travaux de Cem chez Hypatos ont été présentés dans des publications technologiques de référence telles que TechCrunch et Business Insider. Cem intervient régulièrement lors de conférences internationales sur les technologies. Diplômé en génie informatique de l'université de Bogazici, il est également titulaire d'un MBA de la Columbia Business School.
Voir le profil complet
Recherche effectuée par
Berk Kalelioğlu
Berk Kalelioğlu
Chercheur en IA

Soyez le premier à commenter

Votre adresse courriel ne sera pas publiée. Tous les champs sont obligatoires.

0/450