Cem Dilmegani
Expérience professionnelle et réalisations
Tout au long de sa carrière, Cem a occupé les postes de consultant, d'acheteur et d'entrepreneur dans le secteur des technologies. Pendant plus de dix ans, il a conseillé des entreprises sur leurs décisions technologiques chez McKinsey & Company et Altman Solon. Il a également publié un rapport McKinsey sur la numérisation. Il a dirigé la stratégie technologique et les achats d'un opérateur télécom, sous la responsabilité directe du PDG. Il a également piloté la croissance commerciale de la société de deep tech Hypatos, qui a atteint un chiffre d'affaires annuel récurrent à sept chiffres et une valorisation à neuf chiffres en seulement deux ans. Son travail chez Hypatos a été couvert par des publications technologiques de référence telles que TechCrunch et Business Insider. [6], [7]Intérêts de recherche
Les travaux de Cem portent sur la manière dont les entreprises peuvent tirer parti des nouvelles technologies en matière d'IA, d'IA agentielle, de cybersécurité (notamment la sécurité des réseaux et des applications) et de données, y compris les données web. Son expérience pratique des logiciels d'entreprise enrichit ses recherches. D'autres analystes du secteur et l'équipe technique d'AIMultiple épaulent Cem dans la conception, la mise en œuvre et l'évaluation des benchmarks.Éducation
Il a obtenu son diplôme d'ingénieur en informatique à l'Université de Bogazici en 2007. Durant ses études, il s'est spécialisé en apprentissage automatique, alors souvent appelé « exploration de données », et les réseaux de neurones ne comportaient généralement que quelques couches cachées. Il est titulaire d'un MBA de la Columbia Business School (promotion 2012). Cem parle couramment anglais et turc. Il possède un niveau avancé en allemand et des notions de français.Publications externes
- Cem Dilmegani, « Le secteur bancaire post-IA : des millions d’emplois menacés par l’automatisation des fonctions essentielles des banques » , International Banker.
- Cem Dilmegani, Bengi Korkmaz et Martin Lundqvist (1er décembre 2014). Numérisation du secteur public : le défi à mille milliards de dollars , McKinsey & Company.
Présentations aux médias, conférences et autres événements
- Réponses aux questions de Korea24 sur les pertes d'emplois dues à l'IA, Korea24
- Immobilier et technologie , présenté par le Wilbur F. Breslin Center for Real Estate Studies et la Frank G. Zarb School of Business de l'Université Hofstra en 2023 et 2024.
- Session Radar AI (22 juin 2023) : « Accroître l'impact de la science des données avec ChatGPT ».
- Rencontre d'Atlanta sur l'IA générative : L'IA générative au service des technologies d'entreprise .
Sources
- Pourquoi Microsoft, IBM et Google intensifient leurs efforts en matière d'éthique de l'IA , Business Insider.
- Microsoft investit 1 milliard de dollars dans OpenAI pour développer une intelligence artificielle plus performante que l'humanité , Washington Post.
- Développer le leadership en IA : Boîte à outils IA pour les dirigeants , Forum économique mondial.
- Performances scientifiques, de recherche et d'innovation de l'UE , Commission européenne.
- L'investissement de 200 milliards d'euros de l'UE dans l'IA injecte des fonds dans les centres de données, mais le marché des puces reste un défi , IT Brew.
- Hypatos lève 11,8 millions de dollars pour une approche d'apprentissage profond appliquée au traitement de documents , TechCrunch.
- Business Insider nous a permis de découvrir en exclusivité le pitch deck utilisé par la startup d'IA Hypatos pour lever 11 millions de dollars .
Derniers articles de Cem
Environnements RL : L'infrastructure sous-jacente à l'IA agentique
Les environnements d'apprentissage par renforcement sont des environnements contrôlés où les agents d'IA agissent, observent les résultats et reçoivent un retour d'information. Leur utilité s'accroît à mesure que les modèles évoluent des réponses ponctuelles vers des tâches complexes en plusieurs étapes, notamment dans le développement, l'utilisation du navigateur, le support client et les logiciels d'entreprise. Certaines entreprises proposent des environnements personnalisés pour le développement, la finance, les flux de travail d'entreprise ou les tâches informatiques courantes.
Comparaison des 6 meilleurs services de GPU cloud gratuits
Les progrès de l'IA et de l'apprentissage automatique ont accru la demande en GPU pour le calcul haute performance. La mise en place d'une infrastructure GPU dédiée représente un investissement initial important, tandis que les services cloud offrent un accès plus abordable. Les plateformes GPU gratuites sont utiles aux chercheurs, aux développeurs et aux organisations disposant de budgets limités.
Extraction de données financières sans code : outils et conseils de conformité
Bien que les fournisseurs officiels de données financières proposent des API, celles-ci sont souvent limitées en termes de portée, d'accès ou de flexibilité pour répondre aux besoins en données en temps réel ou spécifiques.
Web Scraping pour les recruteurs : Meilleurs outils et techniques
Le collecteur de données Bright Data extrait automatiquement les données publiques disponibles sur LinkedIn pour les recruteurs.
Analyse comparative des LLM d'Agentic : Comparaison des 13 meilleurs LLM
Nous avons évalué les performances de 13 LLM sur 10 tâches de développement logiciel à l'aide de l'outil CLI Agentic. Nous avons exécuté environ 300 étapes de validation automatisées par modèle afin de mesurer les performances des couches API et UI. Résultats de l'évaluation des LLM Agentic : comparaison des taux de réussite. Claude (4,5), Sonnet et GPT-5.2 ont obtenu les scores globaux les plus élevés, avec les résultats les plus constants.
Moteurs d'inférence LLM : vLLM vs LMDeploy vs SGLang
Nous avons comparé les performances de trois moteurs d'inférence LLM de pointe sur H100 (NVIDIA) : vLLM, LMDeploy et SGLang. Chaque moteur a traité une charge de travail identique : 1 000 requêtes ShareGPT avec Llama 3.1 8B-Instruct afin d'isoler l'impact réel de leurs choix architecturaux et stratégies d'optimisation sur les performances.
Les 5 meilleurs outils de surveillance de bases de données open source
Les outils commerciaux de surveillance de bases de données promettent souvent des interfaces soignées et un support dédié aux entreprises. Les solutions open source sont de plus en plus plébiscitées pour leur transparence, leur rapport coût-efficacité, leur développement collaboratif et leur flexibilité. Nous avons étudié cinq plateformes open source de surveillance de bases de données, en vérifiant leurs fonctionnalités annoncées à l'aide de la documentation officielle et des notes de version, en testant leur configuration et en analysant les requêtes sur des charges de travail MySQL et MongoDB, et en recoupant ces informations avec celles recueillies auprès de la communauté.
Meilleurs outils de surveillance des performances des bases de données : Comparatif des 5 meilleures plateformes
Les problèmes de base de données entraînent des défaillances d'applications : un pic de mémoire provoque le plantage du serveur, et une requête lente entraîne l'expiration des requêtes utilisateur. Nous avons analysé six plateformes de surveillance de bases de données et en avons testé trois de manière approfondie sur MySQL et MongoDB en les installant de zéro, en exécutant des charges de travail identiques et en documentant chaque étape de la configuration et de la surveillance.
LCM : De la tokenisation LLM à la représentation au niveau conceptuel
Les modèles de concepts étendus (LCM), introduits par Meta dans leur article intitulé « Large Concept Models », représentent un changement fondamental, passant d'une prédiction basée sur les tokens à une représentation au niveau conceptuel.
Comparaison des modèles de langage visuel avec la reconnaissance d'images
Les modèles de vision et de langage (VLM) avancés peuvent-ils remplacer les modèles de reconnaissance d'images traditionnels ? Pour le savoir, nous avons comparé les performances de 16 modèles de pointe répartis en trois paradigmes : les CNN traditionnels (ResNet, EfficientNet), les VLM (tels que GPT-4.1, Gemini 2.5) et les API cloud (AWS, Google, Azure). La précision moyenne (mAP) a constitué notre principal indicateur de précision, complétée par la latence, le coût et les performances spécifiques à chaque classe.
Newsletter AIMultiple
Un e-mail gratuit par semaine contenant les dernières actualités technologiques B2B et des analyses d'experts pour accélérer la croissance de votre entreprise.