Servicios
Contáctanos
No se encontraron resultados.

Comparativa RAG gráfica frente a RAG vectorial

Ekrem Sarı
Ekrem Sarı
actualizado el Mar 20, 2026
Vea nuestra normas éticas

Vector RAG recupera documentos por similitud semántica. Graph RAG añade un grafo de conocimiento, extrae entidades y relaciones de los documentos, las almacena en una base de datos de grafos y utiliza el recorrido del grafo junto con la búsqueda vectorial en el momento de la consulta.

Realizamos pruebas comparativas para determinar si esta capa adicional mejora la recuperación y la precisión de las respuestas en 3904 reseñas de productos electrónicos de Amazon con casi 900 consultas.

Resultados de precisión de recuperación por tipo de consulta

Loading Chart

Ejemplos de preguntas:

  • Búsqueda específica: "Encuéntrame una reseña sobre problemas de batería en estos auriculares Bluetooth".
  • Agregación de entidades: "¿Cuáles son las quejas más comunes sobre los productos de Sony?"
  • Razonamiento comparativo entre documentos: "¿Cuál es la queja más común en todos los dispositivos electrónicos?"

Vector RAG encuentra mejor los documentos específicos (54% frente a 35%). Graph RAG recupera resultados relevantes para consultas de agregación 3 veces más a menudo (23% frente a 8%) y para razonamiento entre documentos 4 veces más a menudo (33% frente a 8%).

La diferencia radica en cómo cada canal de pago gestiona la consulta: "¿Qué marcas tienen la mayor cantidad de quejas sobre cobros?".

  • Vector RAG codifica la pregunta como una incrustación y encuentra las 10 reseñas más similares. Los resultados están semánticamente relacionados con "carga", pero provienen de marcas aleatorias.
  • Graph RAG extrae “cobro” y “queja” de la pregunta, recorre la ruta Marca → Producto → Reseña → Característica negativa en el grafo de conocimiento y devuelve reseñas agrupadas por marca. Una consulta, <1 ms.

¿Qué es un gráfico RAG?

Graph RAG añade un grafo de conocimiento sobre la búsqueda vectorial. La búsqueda vectorial sigue funcionando. El grafo añade computación estructurada que la búsqueda vectorial no puede realizar.

En el momento de la indexación, cada documento sigue dos rutas. Un modelo de lógica descriptiva (LLM) extrae entidades (marcas, características, sentimiento) y las almacena como nodos y aristas en una base de datos gráfica. Los mismos documentos se integran y almacenan en un índice vectorial.

En el momento de la consulta, el sistema recupera información de ambas rutas: similitud de incrustación y recorrido del grafo. Los resultados se combinan en una única lista clasificada. Para las consultas de agregación, el grafo también precalcula recuentos y agrupaciones a partir del conjunto de datos completo. Esta agregación precalculada es lo que diferencia a Graph RAG de Vector RAG.

Cómo se construye el grafo de conocimiento

Un modelo LLM lee cada reseña y extrae entidades y relaciones. Por ejemplo, de una sola reseña:

“Los Sony WH-1000XM4 tienen una cancelación de ruido increíble, pero la batería solo dura 20 horas, no 30 como se anuncia.”

Extractos del LLM:

  • Marca: Sony
  • Producto: WH-1000XM4
  • Característica positiva: cancelación de ruido
  • Característica negativa: duración de la batería

3904 reseñas producen 16 120 nodos y 23 940 aristas. El esquema determina qué preguntas pueden ser respondidas mediante un único recorrido del grafo.

Separar HAS_POSITIVE y HAS_NEGATIVE convierte las "principales quejas sobre Sony" en un único recorrido. Sin aristas etiquetadas según el sentimiento, el LLM leería y clasificaría todas las reseñas en el momento de la consulta.

Si no se extrae “Sony”, ningún recorrido del grafo lo encuentra. Si “baterías” y “duración de la batería” no se resuelven en el mismo nodo, los recuentos son incorrectos. Los distintos dominios requieren esquemas diferentes. Un esquema incorrecto implica que el grafo añade complejidad sin aportar funcionalidad.

Cómo Graph RAG recupera y genera respuestas

Ejemplo: "¿Cuáles son las quejas más comunes sobre los productos de Sony?"

  1. Extracción de entidades: Gemini Flash extrae marcas: [“sony”], sentimiento: negativo (~$0.001, en caché)
  2. Búsqueda vectorial: similitud coseno e5_base, 30 resultados principales (sin extracción de entidades, coincidencia de incrustación pura)
  3. Búsqueda en grafos: recorrido Cypher utilizando entidades extraídas, 30 resultados principales
  4. Fusión RRF: 1/(k + rank_vector) + 1/(k + rank_graph) con k=60, se devuelven los 10 mejores.
  5. Agregación Cypher: recuentos precalculados del grafo completo, pasados al LLM junto con las revisiones recuperadas.

La agregación Cypher del paso 5 recorre Marca → Producto → Reseña → Característica negativa para “sony”, cuenta cada característica y devuelve “compatibilidad: 7, durabilidad: 4, precio: 3” en menos de 1 ms. Esta respuesta precalculada es la que recibe el LLM junto con las reseñas recuperadas.

  • Vector RAG codifica la pregunta como una incrustación y encuentra documentos semánticamente similares. No realiza extracción de entidades.
  • Graph RAG extrae además entidades de la pregunta mediante LLM, las introduce en recorridos Cypher, fusiona los resultados del grafo con los resultados del vector mediante RRF y calcula agregaciones para LLM.

Costo de extracción según el tamaño del conjunto de datos.

El coste adicional de Graph RAG con respecto a Vector RAG es la extracción de entidades en el momento de la indexación:

El recorrido del grafo durante la consulta es gratuito (autoalojado, <1 ms). La extracción de entidades de la pregunta cuesta aproximadamente 0,001 $ por consulta (se puede almacenar en caché). Los nuevos documentos se añaden de forma incremental.

La diferencia de precisión se debe al cálculo.

Medimos la precisión de generación en 238 consultas de agregación con y sin la agregación Cypher del grafo:

Predeterminado: Graph RAG obtiene la agregación Cypher calculada a partir del grafo de conocimiento completo (3904 reseñas). Vector RAG obtiene el texto de la reseña sin procesar.

Sin contexto gráfico: Ambos procesos reciben únicamente el texto sin procesar de las reseñas. Sin agregación.

Sin la agregación de Cypher, Graph RAG baja del 73,5 % al 23,1 %, cerca de Vector RAG, que se sitúa en el 18,5 %. La diferencia de 50 pp no se debió a la recuperación, sino al cálculo: el grafo recorre, agrupa y cuenta en todo el conjunto de datos antes de que el LLM genere una respuesta.

Todas las diferencias generacionales son significativas a p < 0.

Metodología de referencia de Graph Rag

Conjunto de datos: 3904 reseñas de productos electrónicos en inglés procedentes de Amazon Reviews Multi (Kaggle), con un mínimo de 100 caracteres.

Modelo de incrustación: multilingual-e5-base (768-dim). Incrustaciones densas en Qdrant (en memoria).

Grafo de conocimiento: 16 120 nodos, 23 940 aristas. Extracción de entidades mediante Gemini 2.0 Flash (google/gemini-2.0-flash-001 en OpenRouter, $2,29 en total). Neo4j como base de datos de grafos.

Conjuntos de consultas (905 en total):

  • Estructurado en grafos (503): Generado a partir de patrones de grafos. Prueba el recorrido de grafos.
  • Independiente de grafos (150): LLM generado a partir de texto de revisión. Prueba consultas en lenguaje natural.
  • Externas (252): Generadas por LLM independientemente del grafo. Cinco tipos: búsqueda de documentos (65), agregación de marcas (24), agregación de características (50), comparación de marcas (50), agregación global (60), más 3 consultas de calificación por estrellas. Valida que las ventajas del grafo no son un artefacto de las preguntas derivadas del grafo.

Tuberías:

Generación: Las 10 mejores reseñas se envían a Flash (Gemini). Graph RAG también pasa la agregación Cypher. Coincidencia de contención difusa (umbral 0,80). El modo estricto (0,90) conserva el orden: Graph RAG 68,9 %, Vector RAG 13,5 %.

Validación estadística: prueba de McNemar, p < 0,001, corregida con Bonferroni. IC del 95 % de Bootstrap para la precisión de generación de Graph RAG: 68,1 %-79,0 %.

Limitación

Dominio único, conjunto de datos pequeño : 3904 reseñas de productos electrónicos. Dominio diferente, esquema diferente, resultados diferentes.

Conclusión

Graph RAG funciona mejor cuando la pregunta requiere cálculos en varios documentos: agregación, conteo, agrupación y comparación. Para estas consultas, genera respuestas correctas el 73,5 % de las veces, frente al 18,5 % de Vector RAG. Sin los cálculos del grafo, esa diferencia desaparece (23,1 % frente a 18,5 %).

Para la búsqueda de documentos específicos, Vector RAG es mejor (54% frente a 35%). Graph RAG no reemplaza la búsqueda vectorial; es una capa de cálculo que se superpone a ella.

Las dos decisiones de ingeniería que determinan el rendimiento de Graph RAG son el diseño del esquema y la calidad de la extracción de entidades. El esquema define qué preguntas pueden responderse con un solo recorrido del grafo. La extracción de entidades define qué entidades conoce el grafo. $2.29 en LLM requiere 3904 documentos.

Lecturas adicionales

Explore otros puntos de referencia RAG, como:

Ekrem Sarı
Ekrem Sarı
Investigador de IA
Ekrem es investigador de IA en AIMultiple, donde se centra en la automatización inteligente, las GPU, los agentes de IA y los marcos de trabajo RAG.
Ver perfil completo

Sé el primero en comentar

Tu dirección de correo electrónico no será publicada. Todos los campos son obligatorios.

0/450