Ekrem Sarı
Ekrem est chercheur en IA chez AIMultiple, spécialisé dans l'automatisation intelligente, les GPU, les agents IA et le LLMOps pour les frameworks RAG.
Expérience professionnelle
Durant son poste d'évaluateur chez Yandex, il a analysé les résultats de recherche à l'aide de frameworks propriétaires et de protocoles automatisés. Il a mis en œuvre des tests d'assurance qualité par l'annotation de données, l'attribution de scores de pertinence et la cartographie de l'intention de l'utilisateur sur plus de 10 000 requêtes mensuelles, tout en réalisant des évaluations techniques, notamment le suivi des performances et la détection de spam grâce à des boucles de rétroaction d'apprentissage automatique.Intérêts de recherche
Chez AIMultiple, ses recherches portent sur le cycle de vie MLOps et l'évaluation des performances des systèmes d'IA de bout en bout. Il contribue à de nombreux projets, notamment l'optimisation de la génération augmentée par la recherche (RAG), l'évaluation comparative de modèles de langage étendus (LLM) et la conception de frameworks d'IA agentiques. Ekrem est spécialisé dans le développement de méthodologies basées sur les données pour mesurer et améliorer les performances des technologies d'IA selon des indicateurs opérationnels critiques tels que la précision, l'efficacité, le coût des API et la scalabilité. Son analyse couvre l'ensemble de la pile technologique, des composants fondamentaux comme les modèles embarqués et les bases de données vectorielles jusqu'à l'infrastructure GPU et cloud haute performance nécessaire au déploiement des agents d'IA.Éducation
Ekrem est titulaire d'un baccalauréat de l'université Hacettepe et d'une maîtrise de l'université Başkent.Derniers articles de Ekrem
Recherche d'agents en 2026 : 8 API de recherche de référence pour les agents
La recherche agentique joue un rôle crucial pour combler le fossé entre les moteurs de recherche traditionnels et les capacités de recherche de l'IA. Ces systèmes permettent aux agents d'IA de trouver, d'extraire et de structurer de manière autonome les informations pertinentes, alimentant ainsi des applications allant de l'aide à la recherche à la surveillance en temps réel et au raisonnement multi-étapes. Les API de recherche constituent la première couche d'un outil de recherche agentique, où les performances sont directement impactées.
Analyse comparative de 6 produits DLP
Fort de mes vingt ans d'expérience en cybersécurité, j'ai sélectionné les meilleurs logiciels DLP pour la protection des informations sensibles et la conformité aux normes réglementaires. J'ai testé six solutions DLP pendant un mois, en me concentrant sur des fonctionnalités clés telles que la couverture des canaux, la facilité de déploiement et la précision de la classification.
Modèles d'intégration : OpenAI vs Gemini vs Cohere
L'efficacité de tout système de génération augmentée par la recherche (RAG) dépend de la précision de son modèle de recherche. Nous avons évalué 11 modèles d'intégration de texte de pointe, notamment ceux de OpenAI, Gemini, Cohere, Snowflake, AWS, Mistral et Voyage AI, à l'aide d'environ 500 000 avis Amazon. Nous avons évalué la capacité de chaque modèle à retrouver et à classer la bonne réponse en premier.
Comparaison des 16 meilleurs modèles d'embeddings open source pour RAG
La plupart des tests d'intégration de modèles mesurent la similarité sémantique. Nous avons mesuré l'exactitude. Nous avons testé 16 modèles open source, allant de 23 millions à 8 milliards de paramètres, sur 490 000 avis produits Amazon. Chaque modèle a été évalué selon sa capacité à retrouver l'avis produit pertinent par correspondance exacte d'ASIN, et non par simple similarité thématique.
Comparatif de bases de données graphiques : Neo4j vs FalkorDB vs Memgraph
Nous avons comparé les performances de Neo4j, FalkorDB et Memgraph sur un graphe synthétique dérivé de 120 000 avis de produits Amazon (381 000 nœuds, 804 000 arêtes). Nous avons exécuté 12 modèles de requêtes avec 1 000 mesures chacun, testé l’ingestion avec 6 tailles de lots différentes, maintenu une charge concurrente pendant 60 secondes avec jusqu’à 32 threads, et mesuré la mémoire, le temps de démarrage à froid, la charge de travail mixte et l’indexation.
Moteurs d'inférence LLM : vLLM vs LMDeploy vs SGLang
Nous avons comparé les performances de trois moteurs d'inférence LLM de pointe sur H100 (NVIDIA) : vLLM, LMDeploy et SGLang. Chaque moteur a traité une charge de travail identique : 1 000 requêtes ShareGPT avec Llama 3.1 8B-Instruct afin d'isoler l'impact réel de leurs choix architecturaux et stratégies d'optimisation sur les performances.
Meilleure base de données vectorielles pour RAG : Qdrant vs Weaviate vs Pinecone
Les bases de données vectorielles alimentent la couche de recherche des flux de travail RAG en stockant les représentations vectorielles des documents et des requêtes sous forme de vecteurs de grande dimension. Elles permettent des recherches de similarité rapides basées sur les distances vectorielles. Nous avons comparé six fournisseurs de bases de données vectorielles, en nous concentrant sur leurs structures tarifaires et leurs performances : Comparaison des bases de données vectorielles : Tarification et performances.
Comparatif de 38 LLM en finance : Claude Opus 4.6, Gemini 3.1 Pro et plus
Nous avons évalué 38 masters en droit (LLM) en finance sur 238 questions difficiles issues du benchmark FinanceReasoning afin d'identifier les modèles qui excellent dans les tâches complexes de raisonnement financier telles que l'analyse d'états financiers, les prévisions et les calculs de ratios. Aperçu du benchmark FinanceReasoning : Nous avons évalué les LLM sur 238 questions difficiles issues du benchmark FinanceReasoning (Tang et al.).
Les 20 meilleurs frameworks RAG d'agentic
Agentic RAG améliore le RAG traditionnel en optimisant les performances LLM et en permettant une plus grande spécialisation. Nous avons réalisé un test de performance pour évaluer ses performances en matière de routage entre plusieurs bases de données et de génération de requêtes. Découvrez les frameworks et bibliothèques Agentic RAG, leurs principales différences avec le RAG standard, leurs avantages et les défis à relever pour exploiter pleinement leur potentiel.
Text-to-SQL : Comparaison de la précision LLM
J'utilise SQL pour l'analyse de données depuis 18 ans, et ce, depuis mes débuts comme consultant. La traduction des requêtes en langage naturel en SQL rend les données plus accessibles, permettant à tous, même sans compétences techniques, de travailler directement avec les bases de données.
Newsletter AIMultiple
Un e-mail gratuit par semaine contenant les dernières actualités technologiques B2B et des analyses d'experts pour accélérer la croissance de votre entreprise.