Contattaci
Nessun risultato trovato.
Ekrem Sarı

Ekrem Sarı

Ricercatore di intelligenza artificiale
26 Articoli
Rimani aggiornato sulle novità tecnologiche B2B.

Ekrem è un ricercatore di intelligenza artificiale presso AIMultiple, specializzato in automazione intelligente, GPU, agenti di IA e LLMOps per framework RAG.

Esperienza professionale

Durante il suo incarico come valutatore presso Yandex, ha analizzato i risultati di ricerca utilizzando framework proprietari e protocolli automatizzati. Ha implementato test di controllo qualità tramite annotazione dei dati, punteggio di pertinenza e mappatura dell'intento dell'utente su oltre 10.000 query al mese, conducendo al contempo valutazioni tecniche, tra cui il monitoraggio delle prestazioni e il rilevamento dello spam tramite cicli di feedback basati sull'apprendimento automatico.

Capacità di ricerca

Presso AIMultiple, la sua ricerca si concentra sul ciclo di vita MLOps e sulle prestazioni e il benchmarking di sistemi di intelligenza artificiale end-to-end. Contribuisce a una vasta gamma di progetti, tra cui l'ottimizzazione del Retrieval-Augmented Generation (RAG), un ampio benchmarking di Large Language Model (LLM) e la progettazione di framework di intelligenza artificiale agentica. Ekrem è specializzato nello sviluppo di metodologie basate sui dati per misurare e migliorare le prestazioni della tecnologia IA in base a metriche operative critiche come accuratezza, efficienza, costo delle API e scalabilità. La sua analisi copre l'intero stack tecnologico, dai componenti fondamentali come i modelli di embedding e i database vettoriali fino alle GPU ad alte prestazioni e all'infrastruttura cloud necessarie per implementare agenti IA.

Preparazione

Ekrem ha conseguito una laurea presso la Hacettepe Üniversitesi e un master presso la Başkent Üniversitesi.

Ultimi articoli di Ekrem

Agente IAMag 6

Agentic Search nel 2026: benchmark 8 API di ricerca per agenti

La ricerca agentiva svolge un ruolo cruciale nel colmare il divario tra i motori di ricerca tradizionali e le capacità di ricerca dell'IA. Questi sistemi consentono agli agenti IA di trovare, recuperare e strutturare autonomamente informazioni pertinenti, alimentando applicazioni che vanno dall'assistenza alla ricerca al monitoraggio in tempo reale e al ragionamento a più fasi.

Sicurezza informaticaMag 6

Recensione DLP: Test comparativi di 6 prodotti DLP

Sfruttando la mia esperienza ventennale come professionista della sicurezza informatica, ho selezionato il miglior software DLP per proteggere le informazioni sensibili e rispettare gli standard normativi. Ho testato 6 soluzioni DLP per un mese, concentrandomi su funzionalità chiave come la copertura dei canali, la facilità di implementazione e l'accuratezza della classificazione.

IAMag 1

Modelli di embedding: OpenAI vs Gemini vs Cohere

L'efficacia di qualsiasi sistema di generazione aumentata tramite recupero (RAG) dipende dalla precisione del suo recuperatore. Abbiamo confrontato 11 modelli di embedding di testo leader, inclusi quelli di OpenAI, Gemini, Cohere, Snowflake, AWS, Mistral e Voyage AI, utilizzando circa 500.000 recensioni di Amazon. Abbiamo valutato la capacità di ciascun modello di recuperare e classificare prima la risposta corretta.

IAApr 26

Analisi comparativa dei 16 migliori modelli di embedding open source per RAG

La maggior parte dei benchmark di embedding misura la similarità semantica. Noi abbiamo misurato la correttezza. Abbiamo testato 16 modelli open source, da embedding con 23 milioni di parametri a embedding con 8 miliardi di parametri, su 490.000 recensioni di prodotti Amazon, assegnando un punteggio a ciascuno in base alla capacità di recuperare la recensione del prodotto corretta tramite una corrispondenza ASIN esatta, e non solo documenti tematicamente simili.

DatiApr 24

Confronto tra database a grafo: Neo4j vs FalkorDB vs Memgraph

Abbiamo eseguito un benchmark di Neo4j, FalkorDB e Memgraph su un grafo sintetico derivato da 120.000 recensioni di prodotti Amazon (381.000 nodi, 804.000 archi). Abbiamo eseguito 12 modelli di query con 1.

IAApr 24

Motori di inferenza LLM: vLLM vs LMDeploy vs SGLang

Abbiamo eseguito il benchmark di 3 motori di inferenza LLM leader su NVIDIA H100: vLLM, LMDeploy e SGLang. Ogni motore ha elaborato carichi di lavoro identici: 1.000 prompt ShareGPT utilizzando Llama 3.1 8B-Instruct per isolare il vero impatto sulle prestazioni delle loro scelte architetturali e strategie di ottimizzazione. Risultati del benchmark dei motori di inferenza Abbiamo misurato il throughput batch offline su 10.000 operazioni di inferenza totali (1.

IAApr 24

Principale database vettoriale per RAG: Qdrant vs Weaviate vs Pinecone

I database vettoriali alimentano il livello di recupero nei flussi di lavoro RAG memorizzando gli embedding di documenti e query come vettori ad alta dimensionalità. Consentono ricerche di similarità veloci basate su distanze vettoriali.

IAApr 22

Valutazione comparativa di 38 LLM in Finanza: Claude Opus 4.6, Gemini 3.1 Pro e altri

Abbiamo valutato 38 LLM in ambito finanziario su 238 domande complesse del benchmark FinanceReasoning per identificare quali modelli eccellono in compiti di ragionamento finanziario complessi come l'analisi dei bilanci, le previsioni e il calcolo dei rapporti. Panoramica del benchmark LLM in finanza Abbiamo valutato gli LLM su 238 domande complesse del benchmark FinanceReasoning (Tang et al.).

IAApr 20

Oltre 20 framework RAG per agenti

Agentic RAG migliora il RAG tradizionale potenziando le prestazioni di LLM e consentendo una maggiore specializzazione. Abbiamo condotto un benchmark per valutarne le prestazioni nel routing tra più database e nella generazione di query. Scopri i framework e le librerie di agentic RAG, le principali differenze rispetto al RAG standard, i vantaggi e le sfide per sbloccarne il pieno potenziale.

IAApr 20

Da testo a SQL: confronto dell'accuratezza di LLM

Utilizzo SQL per l'analisi dei dati da 18 anni, fin dai tempi in cui lavoravo come consulente. Tradurre le domande in linguaggio naturale in SQL rende i dati più accessibili, consentendo a chiunque, anche a chi non possiede competenze tecniche, di lavorare direttamente con i database.