Contate-nos
Nenhum resultado encontrado.
Ekrem Sarı

Ekrem Sarı

Pesquisador de IA
26 Artigos
Mantenha-se atualizado sobre tecnologia B2B.

Ekrem é pesquisador de IA na AIMultiple, com foco em automação inteligente, GPUs, agentes de IA e LLMOps para frameworks RAG.

Experiência profissional

Durante sua atuação como Avaliador na Yandex, ele avaliou resultados de busca utilizando frameworks proprietários e protocolos automatizados. Implementou testes de controle de qualidade por meio de anotação de dados, pontuação de relevância e mapeamento da intenção do usuário em mais de 10.000 consultas mensais, além de conduzir avaliações técnicas, incluindo monitoramento de desempenho e detecção de spam utilizando ciclos de feedback de aprendizado de máquina.

Interesse de pesquisa

Na AIMultiple, sua pesquisa se concentra no ciclo de vida de MLOps e no desempenho e benchmarking de sistemas de IA de ponta a ponta. Ele contribui para uma ampla gama de projetos, incluindo otimização de Geração Aumentada por Recuperação (RAG), benchmarking extensivo de Modelos de Linguagem Amplos (LLM) e o design de frameworks de IA para agentes. Ekrem se especializa no desenvolvimento de metodologias orientadas a dados para medir e aprimorar o desempenho da tecnologia de IA em métricas operacionais críticas, como precisão, eficiência, custo de API e escalabilidade. Sua análise abrange toda a pilha de tecnologia, desde componentes fundamentais, como modelos de incorporação e bancos de dados vetoriais, até a infraestrutura de nuvem e GPU de alto desempenho necessária para a implantação de agentes de IA.

Educação

Ekrem é bacharel pela Hacettepe Üniversitesi e mestre pela Başkent Üniversitesi.

Últimos artigos de Ekrem

Agente de IAMai 6

Busca Agenética em 2026: Análise Comparativa de 8 APIs de Busca para Agentes

A busca por agentes desempenha um papel crucial na redução da lacuna entre os mecanismos de busca tradicionais e as capacidades de busca da IA. Esses sistemas permitem que agentes de IA encontrem, recuperem e estruturem informações relevantes de forma autônoma, impulsionando aplicações que vão desde o auxílio à pesquisa até o monitoramento em tempo real e o raciocínio em múltiplas etapas.

Segurança cibernéticaMai 6

Análise de DLP: Testes comparativos de 6 produtos de DLP

Aproveitando minhas duas décadas de experiência como profissional de cibersegurança, selecionei o melhor software DLP para proteger informações confidenciais e atender aos padrões regulatórios. Testei 6 soluções DLP ao longo de um mês, com foco em recursos essenciais como cobertura de canais, facilidade de implantação e precisão de classificação.

IAMai 1

Modelos de incorporação: OpenAI vs Gemini vs Cohere

A eficácia de qualquer sistema de Geração Aumentada por Recuperação (RAG) depende da precisão de seu recuperador. Avaliamos 11 modelos líderes de incorporação de texto, incluindo os de OpenAI, Gemini, Cohere, Snowflake, AWS, Mistral e Voyage AI, usando aproximadamente 500.000 avaliações da Amazon. Avaliamos a capacidade de cada modelo de recuperar e classificar a resposta correta em primeiro lugar.

IAAbr 26

Análise comparativa dos 16 melhores modelos de incorporação de código aberto para RAG

A maioria dos benchmarks de embeddings mede a similaridade semântica. Nós medimos a precisão. Testamos 16 modelos de código aberto, com embeddings de 23 milhões a 8 bilhões de parâmetros, em 490.000 avaliações de produtos da Amazon, classificando cada um de acordo com a capacidade de recuperar a avaliação correta do produto por meio da correspondência exata do ASIN, e não apenas documentos tematicamente semelhantes. Visão geral dos benchmarks de modelos de embeddings de código aberto.

DadosAbr 24

Comparativo de bancos de dados de grafos: Neo4j vs FalkorDB vs Memgraph

Realizamos testes comparativos com Neo4j, FalkorDB e Memgraph em um grafo sintético derivado de 120.000 avaliações de produtos da Amazon (381 mil nós, 804 mil arestas). Executamos 12 modelos de consulta com 1.000 medições cada, testamos a ingestão em 6 tamanhos de lote, suportamos carga concorrente por 60 segundos com até 32 threads e medimos o consumo de memória, inicialização a frio, carga de trabalho mista e índices.

IAAbr 24

Mecanismos de inferência LLM: vLLM vs LMDeploy vs SGLang

Realizamos benchmarks de 3 mecanismos de inferência LLM líderes no H100: vLLM, LMDeploy e SGLang. Cada mecanismo processou cargas de trabalho idênticas: 1.000 solicitações ShareGPT usando Llama 3.1 8B-Instruct para isolar o verdadeiro impacto de desempenho de suas escolhas arquitetônicas e estratégias de otimização. Resultados do benchmark dos mecanismos de inferência: Medimos a taxa de transferência em lote offline em um total de 10.000 operações de inferência (1.

IAAbr 24

Principais bases de dados vetoriais para RAG: Qdrant vs Weaviate vs Pinecone

Bancos de dados vetoriais impulsionam a camada de recuperação em fluxos de trabalho RAG, armazenando embeddings de documentos e consultas como vetores de alta dimensão. Eles permitem buscas rápidas por similaridade com base em distâncias vetoriais. Realizamos um benchmark de seis fornecedores de bancos de dados vetoriais, com foco em suas estruturas de preços e desempenho: Comparação de bancos de dados vetoriais: Preços e desempenho.

IAAbr 22

Análise comparativa de 38 mestrados em Direito (LLM) em Finanças: Claude Opus 4.6, Gemini 3.1 Pro e outros.

Avaliamos 38 LLMs em finanças com base em 238 questões complexas do benchmark FinanceReasoning para identificar quais modelos se destacam em tarefas complexas de raciocínio financeiro, como análise de demonstrações financeiras, projeções e cálculos de índices. Visão geral do benchmark de finanças para LLMs: Avaliamos os LLMs com base em 238 questões complexas do benchmark FinanceReasoning (Tang et al.).

IAAbr 20

Mais de 20 frameworks RAG agenic

O RAG agente aprimora o RAG tradicional, aumentando o desempenho do LLM e permitindo maior especialização. Realizamos um teste comparativo para avaliar seu desempenho no roteamento entre múltiplos bancos de dados e na geração de consultas. Explore frameworks e bibliotecas de RAG agente, as principais diferenças em relação ao RAG padrão, os benefícios e os desafios para desbloquear todo o seu potencial.

IAAbr 20

Texto para SQL: Comparação da precisão do LLM

Utilizo SQL para análise de dados há 18 anos, desde a minha época como consultor. Traduzir perguntas em linguagem natural para SQL torna os dados mais acessíveis, permitindo que qualquer pessoa, mesmo sem conhecimentos técnicos, trabalhe diretamente com bancos de dados.