Kontaktieren Sie uns
Keine Ergebnisse gefunden.
Ekrem Sarı

Ekrem Sarı

KI-Forscher
26 Artikel
Bleiben Sie über B2B-Technologie auf dem Laufenden

Ekrem ist KI-Forscher bei AIMultiple und konzentriert sich auf intelligente Automatisierung, GPUs, KI-Agenten und LLMOps für RAG-Frameworks.

Berufserfahrung

Während seiner Tätigkeit als Assessor bei Yandex bewertete er Suchergebnisse mithilfe firmeneigener Frameworks und automatisierter Protokolle. Er implementierte Qualitätssicherungstests durch Datenannotation, Relevanzbewertung und Nutzerintention-Mapping für monatlich über 10.000 Suchanfragen und führte gleichzeitig technische Bewertungen durch, darunter Leistungsüberwachung und Spam-Erkennung mithilfe von ML-Feedbackschleifen.

Forschungsinteresse

Bei AIMultiple konzentriert sich seine Forschung auf den MLOps-Lebenszyklus sowie die Leistungsfähigkeit und das Benchmarking von End-to-End-KI-Systemen. Er wirkt an einer Vielzahl von Projekten mit, darunter die Optimierung von Retrieval-Augmented Generation (RAG), umfassende Benchmarking-Studien für große Sprachmodelle (LLM) und die Entwicklung agentenbasierter KI-Frameworks. Ekrem ist spezialisiert auf die Entwicklung datengetriebener Methoden zur Messung und Verbesserung der Leistungsfähigkeit von KI-Technologien anhand kritischer Kennzahlen wie Genauigkeit, Effizienz, API-Kosten und Skalierbarkeit. Seine Analysen umfassen den gesamten Technologie-Stack, von grundlegenden Komponenten wie Einbettungsmodellen und Vektordatenbanken bis hin zur leistungsstarken GPU- und Cloud-Infrastruktur, die für den Einsatz von KI-Agenten erforderlich ist.

Ausbildung

Ekrem hat einen Bachelor-Abschluss der Hacettepe Üniversitesi und einen Master-Abschluss der Başkent Üniversitesi.

Neueste Artikel von Ekrem

KI-AgentMai 6

Agentensuche im Jahr 2026: Benchmark 8 Such-APIs für Agenten

Agentenbasierte Suche spielt eine entscheidende Rolle bei der Überbrückung der Lücke zwischen traditionellen Suchmaschinen und KI-gestützten Suchfunktionen. Diese Systeme ermöglichen es KI-Agenten, relevante Informationen selbstständig zu finden, abzurufen und zu strukturieren und unterstützen so Anwendungen von der Forschungsunterstützung bis hin zu Echtzeitüberwachung und mehrstufigem Schließen.

CybersicherheitMai 6

DLP-Test: Vergleichstests von 6 DLP-Produkten

Aufbauend auf meiner zwanzigjährigen Erfahrung als Cybersicherheitsexperte habe ich die beste DLP-Software für den Schutz sensibler Daten und die Einhaltung regulatorischer Standards ausgewählt. Ich testete sechs DLP-Lösungen über einen Monat hinweg und konzentrierte mich dabei auf Schlüsselfunktionen wie Kanalabdeckung, einfache Implementierung und Klassifizierungsgenauigkeit.

KIMai 1

Einbettungsmodelle: OpenAI vs Gemini vs Cohere

Die Effektivität eines Retrieval-Augmented Generation (RAG)-Systems hängt von der Präzision seines Retrievers ab. Wir haben elf führende Text-Embedding-Modelle, darunter Modelle von OpenAI, Gemini, Cohere, Snowflake, AWS, Mistral und Voyage AI, anhand von ca. 500.000 Amazon-Rezensionen verglichen. Wir bewerteten die Fähigkeit jedes Modells, die richtige Antwort zuerst abzurufen und zu priorisieren.

KIApr 26

Benchmark der 16 besten Open-Source-Einbettungsmodelle für RAG

Die meisten Benchmarks für Embeddings messen semantische Ähnlichkeit. Wir haben die Korrektheit gemessen. Wir testeten 16 Open-Source-Modelle mit Embeddings von 23 Millionen bis 8 Milliarden Parametern anhand von 490.000 Amazon-Produktrezensionen. Jedes Modell wurde danach bewertet, ob es die richtige Produktrezension durch exakten ASIN-Abgleich und nicht nur durch thematisch ähnliche Dokumente fand.

DatenApr 24

Benchmark für Graphdatenbanken: Neo4j vs. FalkorDB vs. Memgraph

Wir haben Neo4j, FalkorDB und Memgraph anhand eines synthetischen Graphen, der aus 120.000 Amazon-Produktrezensionen (381.000 Knoten, 804.000 Kanten) erstellt wurde, getestet. Wir führten zwölf Abfragevorlagen mit jeweils 1.000 Messungen durch, testeten die Datenaufnahme mit sechs verschiedenen Batchgrößen, die gleichzeitige Last über 60 Sekunden mit bis zu 32 Threads und maßen Speicherverbrauch, Kaltstartverhalten, gemischte Arbeitslast und Indexnutzung.

KIApr 24

LLM-Inferenzmaschinen: vLLM vs. LMDeploy vs. SGLang

Wir haben drei führende LLM-Inferenz-Engines auf dem H100-System (NVIDIA) getestet: vLLM, LMDeploy und SGLang. Jede Engine verarbeitete identische Workloads: 1.000 ShareGPT-Prompts mit Llama 3.1 8B-Instruct, um die tatsächlichen Auswirkungen ihrer Architektur und Optimierungsstrategien auf die Performance zu ermitteln. Benchmark-Ergebnisse der Inferenz-Engines: Wir haben den Offline-Batch-Durchsatz über insgesamt 10.000 Inferenzoperationen (1.000 Prompts ) gemessen.

KIApr 24

Top-Vektordatenbank für RAG: Qdrant vs Weaviate vs Pinecone

Vektordatenbanken bilden die Grundlage für die Abfrageschicht in RAG-Workflows, indem sie Dokument- und Abfrageeinbettungen als hochdimensionale Vektoren speichern. Sie ermöglichen schnelle Ähnlichkeitssuchen basierend auf Vektordistanzen. Wir haben sechs Anbieter von Vektordatenbanken hinsichtlich ihrer Preisstrukturen und Leistung verglichen: Vergleich von Vektordatenbanken: Preise & Leistung.

KIApr 22

Benchmark von 38 LLM-Studiengängen im Bereich Finanzen: Claude Opus 4.6, Gemini 3.1 Pro & mehr

Wir evaluierten 38 LLM-Studiengänge im Bereich Finanzen anhand von 238 anspruchsvollen Fragen des FinanceReasoning-Benchmarks, um diejenigen Modelle zu identifizieren, die sich bei komplexen Aufgaben des finanziellen Denkens wie Bilanzanalyse, Prognosen und Kennzahlenberechnungen besonders gut eignen. Überblick über den LLM-Benchmark im Bereich Finanzen: Wir evaluierten LLM-Studiengänge anhand von 238 anspruchsvollen Fragen des FinanceReasoning-Benchmarks (Tang et al.).

KIApr 20

Top 20+ Agentic RAG Frameworks

Agentic RAG erweitert das traditionelle RAG durch eine verbesserte LLM-Performance und ermöglicht eine stärkere Spezialisierung. Wir haben einen Benchmark durchgeführt, um die Performance beim Routing zwischen mehreren Datenbanken und der Generierung von Abfragen zu bewerten. Erfahren Sie mehr über Agentic-RAG-Frameworks und -Bibliotheken, die wichtigsten Unterschiede zum Standard-RAG sowie die Vorteile und Herausforderungen, um deren volles Potenzial auszuschöpfen.

KIApr 20

Text-zu-SQL: Vergleich der LLM-Genauigkeit

Ich nutze SQL seit 18 Jahren für die Datenanalyse, angefangen in meiner Zeit als Berater. Die Übersetzung von natürlichsprachlichen Anfragen in SQL macht Daten zugänglicher und ermöglicht es jedem, auch ohne technische Vorkenntnisse, direkt mit Datenbanken zu arbeiten.