Contattaci
Nessun risultato trovato.
Ekrem Sarı

Ekrem Sarı

Ricercatore di intelligenza artificiale
26 Articoli
Rimani aggiornato sulle novità tecnologiche B2B.

Ekrem è un ricercatore di intelligenza artificiale presso AIMultiple, specializzato in automazione intelligente, GPU, agenti di IA e LLMOps per framework RAG.

Esperienza professionale

Durante il suo incarico come valutatore presso Yandex, ha analizzato i risultati di ricerca utilizzando framework proprietari e protocolli automatizzati. Ha implementato test di controllo qualità tramite annotazione dei dati, punteggio di pertinenza e mappatura dell'intento dell'utente su oltre 10.000 query al mese, conducendo al contempo valutazioni tecniche, tra cui il monitoraggio delle prestazioni e il rilevamento dello spam tramite cicli di feedback basati sull'apprendimento automatico.

Capacità di ricerca

Presso AIMultiple, la sua ricerca si concentra sul ciclo di vita MLOps e sulle prestazioni e il benchmarking di sistemi di intelligenza artificiale end-to-end. Contribuisce a una vasta gamma di progetti, tra cui l'ottimizzazione del Retrieval-Augmented Generation (RAG), un ampio benchmarking di Large Language Model (LLM) e la progettazione di framework di intelligenza artificiale agentica. Ekrem è specializzato nello sviluppo di metodologie basate sui dati per misurare e migliorare le prestazioni della tecnologia IA in base a metriche operative critiche come accuratezza, efficienza, costo delle API e scalabilità. La sua analisi copre l'intero stack tecnologico, dai componenti fondamentali come i modelli di embedding e i database vettoriali fino alle GPU ad alte prestazioni e all'infrastruttura cloud necessarie per implementare agenti IA.

Preparazione

Ekrem ha conseguito una laurea presso la Hacettepe Üniversitesi e un master presso la Başkent Üniversitesi.

Ultimi articoli di Ekrem

IAMar 23

Strumenti di valutazione RAG: pesi e pregiudizi vs Ragas vs DeepEval

Quando una pipeline RAG recupera il contesto sbagliato, l'LLM genera con sicurezza la risposta errata. I punteggi di rilevanza del contesto sono la principale difesa. Abbiamo confrontato cinque strumenti su 1.460 domande e oltre 14.600 contesti valutati in condizioni identiche: stesso modello di valutazione (GPT-4o), configurazioni predefinite e nessun prompt personalizzato.

IAMar 5

Affinamento supervisionato vs. apprendimento per rinforzo

I modelli linguistici di grandi dimensioni possono interiorizzare regole decisionali che non vengono mai esplicitamente dichiarate? Per esaminare questo aspetto, abbiamo progettato un esperimento in cui un modello a 14 parametri è stato addestrato su una regola nascosta di "override VIP" all'interno di un compito di decisione del credito, senza alcuna descrizione a livello di prompt della regola stessa.

IAFeb 4

I migliori strumenti, framework e librerie RAG

RAG (Retrieval-Augmented Generation) migliora le risposte LLM aggiungendo fonti di dati esterne. Abbiamo confrontato diversi modelli di embedding e testato separatamente varie dimensioni dei chunk per determinare quali combinazioni funzionano meglio per i sistemi RAG. Esplora i principali framework e strumenti RAG, scopri cos'è RAG, come funziona, i suoi vantaggi e il suo ruolo nel panorama LLM odierno.

DatiGen 30

Browser remoti: confronto tra infrastrutture web per agenti di intelligenza artificiale

Gli agenti di intelligenza artificiale si affidano ai browser remoti per automatizzare le attività web senza essere bloccati dalle misure anti-scraping. Le prestazioni di questa infrastruttura browser sono fondamentali per il successo di un agente. Abbiamo confrontato 8 fornitori in termini di tasso di successo, velocità e funzionalità.

IAGen 29

Framework RAG: LangChain vs LangGraph vs LlamaIndex

Abbiamo eseguito un benchmark su 5 framework RAG: LangChain, LangGraph, LlamaIndex, Haystack e DSPy, costruendo lo stesso flusso di lavoro RAG agentico con componenti standardizzati: modelli identici (GPT-4.1-mini), embedding (BGE-small), retriever (Qdrant) e strumenti (ricerca web Tavily). Questo isola il vero overhead e l'efficienza dei token di ciascun framework.

Software aziendaleGen 21

Le migliori funzioni serverless: Vercel vs Azure vs AWS

Le funzioni serverless consentono agli sviluppatori di eseguire codice senza dover gestire un server. Questo permette loro di concentrarsi sulla scrittura e la distribuzione delle applicazioni, mentre il dimensionamento e la manutenzione dell'infrastruttura vengono gestiti automaticamente in background. In questo benchmark, abbiamo valutato 7 popolari provider di servizi cloud seguendo la nostra metodologia per testare le prestazioni delle loro funzioni serverless.