Contactez-nous
Aucun résultat trouvé.
Cem Dilmegani

Cem Dilmegani

Analyste principal
346 Articles
Restez informé des dernières technologies B2B
Cem est analyste principal chez AIMultiple depuis près de dix ans. Ses travaux chez AIMultiple ont été cités par des publications internationales de premier plan telles que Business Insider, Forbes, Morning Brew et le Washington Post, ainsi que par des entreprises internationales comme HPE, des ONG comme le Forum économique mondial et des organisations supranationales comme la Commission européenne. [1], [2], [3], [4], [5]

Expérience professionnelle et réalisations

Tout au long de sa carrière, Cem a occupé les postes de consultant, d'acheteur et d'entrepreneur dans le secteur des technologies. Pendant plus de dix ans, il a conseillé des entreprises sur leurs décisions technologiques chez McKinsey & Company et Altman Solon. Il a également publié un rapport McKinsey sur la numérisation. Il a dirigé la stratégie technologique et les achats d'un opérateur télécom, sous la responsabilité directe du PDG. Il a également piloté la croissance commerciale de la société de deep tech Hypatos, qui a atteint un chiffre d'affaires annuel récurrent à sept chiffres et une valorisation à neuf chiffres en seulement deux ans. Son travail chez Hypatos a été couvert par des publications technologiques de référence telles que TechCrunch et Business Insider. [6], [7]

Intérêts de recherche

Les travaux de Cem portent sur la manière dont les entreprises peuvent tirer parti des nouvelles technologies en matière d'IA, d'IA agentielle, de cybersécurité (notamment la sécurité des réseaux et des applications) et de données, y compris les données web. Son expérience pratique des logiciels d'entreprise enrichit ses recherches. D'autres analystes du secteur et l'équipe technique d'AIMultiple épaulent Cem dans la conception, la mise en œuvre et l'évaluation des benchmarks.

Éducation

Il a obtenu son diplôme d'ingénieur en informatique à l'Université de Bogazici en 2007. Durant ses études, il s'est spécialisé en apprentissage automatique, alors souvent appelé « exploration de données », et les réseaux de neurones ne comportaient généralement que quelques couches cachées. Il est titulaire d'un MBA de la Columbia Business School (promotion 2012). Cem parle couramment anglais et turc. Il possède un niveau avancé en allemand et des notions de français.

Publications externes

Présentations aux médias, conférences et autres événements

Sources

  1. Pourquoi Microsoft, IBM et Google intensifient leurs efforts en matière d'éthique de l'IA , Business Insider.
  2. Microsoft investit 1 milliard de dollars dans OpenAI pour développer une intelligence artificielle plus performante que l'humanité , Washington Post.
  3. Développer le leadership en IA : Boîte à outils IA pour les dirigeants , Forum économique mondial.
  4. Performances scientifiques, de recherche et d'innovation de l'UE , Commission européenne.
  5. L'investissement de 200 milliards d'euros de l'UE dans l'IA injecte des fonds dans les centres de données, mais le marché des puces reste un défi , IT Brew.
  6. Hypatos lève 11,8 millions de dollars pour une approche d'apprentissage profond appliquée au traitement de documents , TechCrunch.
  7. Business Insider nous a permis de découvrir en exclusivité le pitch deck utilisé par la startup d'IA Hypatos pour lever 11 millions de dollars .

Derniers articles de Cem

IAFév 18

15 cas d'utilisation et exemples clés de l'IA dans la logistique

Les inefficacités persistantes, la hausse des coûts opérationnels et les perturbations continues des chaînes d'approvisionnement continuent de mettre à rude épreuve les fonctions logistiques à l'échelle mondiale. Ces pressions fragilisent les systèmes traditionnels, réduisent la fiabilité des services et limitent la capacité des organisations à se développer. Face à cette situation, les entreprises se tournent de plus en plus vers l'intelligence artificielle pour améliorer la visibilité de bout en bout, renforcer leur résilience et optimiser leurs fonctions essentielles.

IAFév 18

Master en droit en ligne vs Master en droit local : exemples et avantages

Les LLM cloud, basés sur des modèles avancés comme GPT-5.2, Gemini 3 Pro et Claude Opus 4.6, offrent évolutivité et accessibilité. À l'inverse, les LLM locaux, reposant sur des modèles open source tels que Qwen 3, Llama 4 et DeepSeek R1, garantissent une confidentialité et une personnalisation renforcées.

IAFév 18

25 études de cas et témoignages de réussite sur les chatbots

Le marché mondial des chatbots est estimé à environ 15,6 milliards de dollars en 2026 et devrait atteindre 46,6 milliards de dollars d'ici 2029. La plupart des déploiements échouent. Les bots qui perdurent sont conçus pour une tâche spécifique et l'exécutent mieux, plus rapidement ou à moindre coût qu'un agent humain à grande échelle.

IAFév 17

Guide de perfectionnement LLM pour les entreprises

Suivez les liens pour trouver des solutions spécifiques à vos problèmes de sortie LLM. Si votre LLM : L’adoption généralisée des grands modèles de langage (LLM) a amélioré notre capacité à traiter le langage humain. Cependant, leur entraînement générique aboutit souvent à des performances sous-optimales pour des tâches spécifiques.

cybersécuritéFév 17

Les 5 principaux composants open source de ZTNA

ZTNA remplace les VPN dans de nombreuses organisations, s'inscrivant dans une tendance plus large vers la sécurité « zéro confiance ». Les outils open source ZTNA offrent une solution économique pour autoriser l'accès à chaque niveau, sécurisant ainsi l'accès distant aux ressources. Découvrez les 5 meilleures solutions open source ZTNA : Pour les entreprises.

DonnéesFév 16

Les 20 meilleures applications de web scraping en 2026

Le web scraping a évolué, passant de simples scripts manuels à des systèmes avancés qui aident l'IA à collecter des informations. Le scraping agentique permet aux agents d'IA de naviguer sur les sites web, de gérer le contenu dynamique et de s'adapter aux nouvelles mises en page. Pour contourner la détection avancée des bots par l'IA, les entreprises utilisent l'automatisation de navigateur gérée. Cette approche utilise de véritables navigateurs dans le cloud qui se comportent comme de véritables utilisateurs.

DonnéesFév 16

Les défis les plus courants du web scraping en 2026

Le web scraping, processus d'extraction de données à partir de sources web, est un outil essentiel ; cependant, c'est une technique semée d'embûches. Découvrez ci-dessous les difficultés les plus courantes liées au web scraping et des solutions pratiques pour les surmonter. Nous abordons tous les aspects, de l'éthique du web scraping à la résolution des obstacles techniques tels que le contenu dynamique et les systèmes anti-scraping.

IAFév 16

Chatbots bancaires : 8 outils, 5 cas d'utilisation et 5 bonnes pratiques

Les secteurs où le service client est une priorité absolue sont confrontés à des coûts croissants dus à la demande d'un service client d'excellence. Les chatbots bancaires permettent aux clients d'effectuer des transactions par la voix ou par écrit, réduisant ainsi les coûts opérationnels et améliorant la satisfaction client. En 2026, l'assistant virtuel Erica de Bank of America traitait 2 millions d'interactions clients par jour, permettant à la banque de réaliser des économies substantielles.

Logiciel d'entrepriseFév 16

Cas d'utilisation et exemples des technologies de commerce électronique

Le secteur du commerce électronique continue de croître d'environ 10 % par an, car de plus en plus de consommateurs effectuent leurs achats en ligne et recherchent des expériences numériques plus rapides et plus pratiques. Cette croissance s'accompagne également d'une concurrence accrue, ce qui rend essentiel pour les entreprises de comprendre comment la technologie façonne les attentes des clients.

DonnéesFév 16

Feuille de route du web scraping en 2026 : enseignements tirés de 30 millions de requêtes

Nous avons exploré plus de 30 millions de pages web à l'aide de plus de 50 produits proposés par 6 fournisseurs leaders d'infrastructures de données web. Notre objectif était de déterminer quelles solutions gèrent réellement la complexité du web scraping à l'échelle de l'entreprise.