Los modelos de IA pueden generar respuestas que parecen plausibles pero que son incorrectas o engañosas, lo que se conoce como alucinaciones de IA. El 77% de las empresas están preocupadas por las alucinaciones de IA. 1
Comparamos 37 modelos de aprendizaje por voz diferentes con 60 preguntas para medir sus tasas de alucinaciones:
Resultados de referencia de alucinaciones de IA
Nuestro análisis comparativo reveló que incluso los modelos más recientes presentan tasas de alucinaciones superiores al 15 % al analizar afirmaciones. Lea la metodología del análisis comparativo para saber cómo medimos estas tasas.
Análisis de la tasa de alucinaciones: costo versus contexto
Para garantizar una comparación de costos justa entre los modelos, normalizamos los precios utilizando una métrica unificada que refleja los patrones de uso del mundo real. Dado que la mayoría de los tokens en las cargas de trabajo prácticas provienen de entradas en lugar de salidas, calculamos el costo del modelo como 0,75 × precio del token de entrada + 0,25 × precio del token de salida .
Esto evita que los modelos con resultados artificialmente baratos o insumos desproporcionadamente caros parezcan engañosamente eficientes, lo que permite evaluar cada modelo en una escala consistente y comparable.
Tamaño del contexto frente a tendencias de alucinaciones
El gráfico revela patrones distintivos al comparar las tasas de alucinaciones con el tamaño de la ventana de contexto. En consonancia con datos previos sobre el costo, existe poca o ninguna correlación lineal entre la capacidad del contexto y la precisión.
Un contexto amplio no garantiza la precisión.
Contrariamente a la suposición de que mayores cantidades de datos conducen a un mejor razonamiento, se observa una relación mixta. Los modelos diseñados para ventanas de contexto masivas (más de un millón de tokens) no logran consistentemente tasas de alucinaciones más bajas que sus contrapartes más pequeñas. Como se muestra en los datos, se encuentran modelos altamente confiables tanto en contextos cortos como largos, así como modelos de menor rendimiento.
Esto sugiere que una ventana de contexto extensa no garantiza automáticamente una mayor coherencia fáctica. En definitiva, las especificaciones técnicas, como el tamaño del contexto, no son indicadores definitivos de fiabilidad; el rendimiento depende más de la arquitectura específica del modelo y de la calidad del entrenamiento que de la capacidad por sí sola.
¿Qué son las alucinaciones provocadas por la IA?
Las alucinaciones ocurren cuando un LLM produce información que parece real, pero que es completamente inventada o inexacta. A diferencia de los errores simples, las alucinaciones son especialmente problemáticas, ya que se presentan con la misma seguridad que la información precisa, lo que dificulta que los usuarios las reconozcan sin confirmación externa.
Los impactos de las alucinaciones en LLM
Las alucinaciones de la IA afectan a muchos sectores porque las organizaciones dependen de herramientas de IA generativa para producir texto , analizar datos y respaldar la toma de decisiones. Los posibles resultados varían, pero varios riesgos aparecen de forma constante:
Daño a la reputación
Si un modelo produce información inexacta, narrativas falsas o resultados engañosos, los usuarios pueden perder la confianza en el sistema y en la organización que lo implementa. Recuperar la confianza después de que la información incorrecta llegue a los clientes, los equipos internos o el público puede resultar complicado.
Por ejemplo , un análisis reciente de GPTZero 2 reveló que decenas de artículos aceptados en NeurIPS 2025 incluían citas generadas por IA que no fueron detectadas durante la revisión por pares. Tras analizar más de 4000 artículos aceptados, la empresa encontró cientos de referencias defectuosas en al menos 50 artículos, desde citas completamente falsas hasta versiones alteradas de citas reales.
Algunos errores consistían en autores, títulos, revistas o enlaces inventados, mientras que otros alteraban sutilmente las citas reales modificando los nombres de los autores o los títulos de los artículos. GPTZero afirma que todas las citas señaladas fueron verificadas posteriormente por expertos humanos.
NeurIPS reconoció el creciente uso de modelos lingüísticos complejos en la redacción de artículos de investigación y afirmó estar monitoreando el tema, señalando que las referencias incorrectas no invalidan automáticamente las conclusiones de un artículo. Sin embargo, GPTZero calificó los resultados de alarmantes, dado que los artículos fueron aceptados y publicados formalmente en una conferencia altamente selectiva.
Los resultados ponen de manifiesto cómo el aumento vertiginoso de las solicitudes, más de 21.000 en 2025, dificulta una revisión exhaustiva y suscita preocupación por la integridad de la investigación, la reproducibilidad y los riesgos de depender de las citas generadas por IA en la publicación académica. 3
Exposición legal
En sectores regulados como la sanidad , las finanzas y el derecho , el contenido generado por IA que incluye errores fácticos puede dar lugar a infracciones normativas. Cuando se utiliza contenido generado sin verificación, las interpretaciones incorrectas de datos o políticas pueden acarrear sanciones, perjuicios para los clientes o litigios.
Por ejemplo, las citas falsas generadas por IA se han convertido en un problema grave y creciente para los tribunales. Solo en 2025, jueces de todo el mundo emitieron cientos de decisiones que abordaban las falsedades de la IA en documentos legales, lo que representa aproximadamente el 90 % de todos los casos conocidos de este problema hasta la fecha.
Los jueces afirman que estos errores malgastan tiempo y recursos escasos, obligando a los tribunales a investigar casos inexistentes en lugar de centrarse en el fondo de las disputas. Tanto abogados como jueces han sido sorprendidos confiando en resultados erróneos de la IA, lo que ha dado lugar a advertencias, órdenes permanentes y sanciones cada vez más severas.
A medida que aumenta la conciencia sobre las limitaciones de la IA, los tribunales se muestran menos tolerantes con las excusas, considerando las citas ficticias como una falta grave en lugar de un simple desconocimiento. Si bien los investigadores que siguen de cerca el tema informan de un rápido aumento de estos casos, muchos consideran que la IA es, en general, beneficiosa para el trabajo jurídico, siempre que su uso sea transparente, se supervise cuidadosamente y se trate como una herramienta de borrador, no como una fuente de verdad absoluta. 4
Ineficiencia operativa
Cuando los usuarios no pueden confiar en el texto o los resultados generados por la IA, deben verificarlos manualmente. Esto consume tiempo y reduce el valor de la inteligencia artificial generativa. En lugar de facilitar los flujos de trabajo, las alucinaciones pueden crear cuellos de botella que requieren la revisión humana para identificar información falsa.
Por ejemplo, durante una prueba de informes policiales generados por IA en Utah, el audio de fondo de una película de Disney provocó que el sistema indicara erróneamente que un agente de policía se había transformado en una rana. El incidente ocurrió durante un programa piloto en diciembre de herramientas de IA como Draft One de Axon, que convierten el audio de las cámaras corporales en informes escritos para ahorrar tiempo a los agentes.
Si bien los funcionarios afirman que estas herramientas pueden ahorrar varias horas semanales en trámites administrativos, el incidente puso de manifiesto preocupaciones más profundas sobre la precisión y la supervisión. Incluso los informes de pruebas rutinarias requerían correcciones, y los críticos advierten que la IA puede malinterpretar sonidos, suavizar la incertidumbre o introducir errores sutiles que posteriormente se incorporan al registro oficial. 5
Causas de las alucinaciones inducidas por IA
Comprender por qué se producen las alucinaciones es fundamental para diseñar técnicas que las mitiguen y para decidir cuándo confiar en el contenido generado por la IA.
Limitaciones de los datos de entrenamiento
Los modelos de lenguaje complejos se entrenan con enormes cantidades de datos de internet, documentos y otros textos. Las limitaciones de estos datos de entrenamiento pueden provocar alucinaciones:
- La falta de datos de entrenamiento en áreas especializadas puede generar lagunas de conocimiento. Cuando se le pide al modelo que genere texto en dichos dominios, puede completar la información faltante con datos inventados en lugar de admitir la incertidumbre.
- Las páginas web de baja calidad, las noticias falsas o el contenido engañoso en el conjunto de entrenamiento pueden sesgar el modelo hacia narrativas falsas y errores de hecho.
- Los datos fácticos desactualizados pueden provocar que el modelo genere información incorrecta sobre temas que han cambiado después del período de entrenamiento.
- Los sesgos en los datos de entrenamiento pueden distorsionar la forma en que los modelos de IA describen a las personas, los eventos o los posibles resultados.
Estos problemas no son exclusivos de la generación de texto. Problemas similares ocurren enmodelos de visión artificial entrenados con conjuntos de datos sesgados o incompletos, aunque las alucinaciones adoptan diferentes formas, como clasificaciones erróneas .
Limitación del conocimiento y actualizaciones continuas
Las primeras generaciones de modelos de IA tenían una fecha límite precisa para el conocimiento y no tenían acceso a datos externos en tiempo real. Cuando los usuarios preguntaban sobre eventos recientes, el modelo a menudo generaba resultados de todos modos, lo que aumentaba el riesgo de alucinaciones.
Los sistemas de IA modernos combinan cada vez más datos de entrenamiento estáticos con la recuperación de información de una base de conocimiento en tiempo real u otras fuentes externas. Como resultado:
- El límite de conocimiento sigue siendo importante para algunos modelos, principalmente para implementaciones fuera de línea.
- En muchos entornos empresariales, la generación aumentada mediante recuperación reduce el impacto de los cortes al extraer datos fácticos recientes de fuentes de datos internas o externas.
- Las alucinaciones relacionadas con la actualidad a menudo reflejan una recuperación incompleta o incorrecta, y no solo la antigüedad de los parámetros del modelo.
Exceso de confianza y predicción de la siguiente palabra
Un modelo de lenguaje genera texto token por token, prediciendo la siguiente palabra a partir del contexto de entrada y los tokens anteriores. El modelo está optimizado para producir continuaciones fluidas y probables, pero no garantiza respuestas correctas. Esto provoca varios efectos:
- El modelo puede priorizar una explicación fluida sobre admitir que no conoce la respuesta correcta.
- Puede seleccionar un patrón de información plausible pero falso si ese patrón aparece con frecuencia en los datos de entrenamiento.
- El modelo puede generalizar en exceso a partir de patrones en los datos y generar contenido que parece específico pero que no se basa en fuentes fácticas.
Desde la perspectiva del usuario, el estilo del texto generado por la IA dificulta percibir que la respuesta pueda ser incorrecta.
Interpretación errónea de las indicaciones y indicaciones vagas.
Las alucinaciones también pueden surgir de la forma en que se formulan las indicaciones de entrada:
- Las indicaciones vagas otorgan demasiada libertad al modelo, lo que puede dar lugar a resultados inesperados o respuestas que no coinciden con la intención del usuario.
- Las preguntas demasiado generales incitan al modelo a generar resultados que van más allá del conocimiento presente en sus parámetros o en los documentos recuperados.
- Una redacción ambigua puede llevar al modelo a elegir una interpretación y, basándose en ella, producir con seguridad información inexacta.
Las instrucciones más precisas y las restricciones explícitas suelen reducir estos efectos, pero no los eliminan.
Estrategias para reducir las alucinaciones provocadas por la IA
Las técnicas para mitigar las alucinaciones suelen combinar opciones arquitectónicas, enfoques de entrenamiento y diseño a nivel de sistema, en lugar de una única solución.
Herramientas de detección de alucinaciones basadas en IA
Las herramientas de detección de alucinaciones basadas en IA evalúan si el contexto o los datos de referencia proporcionados respaldan los resultados generados por la IA. Estas herramientas suelen utilizar métodos de LLM como evaluador, junto con técnicas como el análisis de consistencia, la puntuación de confianza y la verificación basada en la implicación.
Analizamos 100 casos de prueba con preguntas y respuestas objetivas para comparar las herramientas de detección de alucinaciones mediante IA. W&B Weave y Arize Phoenix mostraron un rendimiento general similar, con un 91 % y un 90 % de precisión, respectivamente, mientras que Comet Opik alcanzó un 72 % de precisión gracias a una estrategia de detección más conservadora. Lea el artículo sobre herramientas de detección de alucinaciones mediante IA para obtener más información sobre los resultados.
Generación aumentada por recuperación
La generación aumentada por recuperación conecta los modelos de IA generativa con una base de conocimiento externa. Cuando un usuario envía una consulta:
- El sistema recupera documentos o datos relevantes de fuentes seleccionadas, como bases de datos internas, literatura especializada o páginas web elegidas.
- Estos fragmentos recuperados se pasan al modelo de lenguaje como contexto adicional.
- El modelo genera resultados que se espera que se mantengan más cerca de los datos fácticos recuperados en lugar de depender únicamente de susparámetros aprendidos.
Los diseños recientes de generación aumentada por recuperación extienden este patrón mediante:
- Recuperación en varios pasos, donde el sistema recupera, resume y luego vuelve a recuperar si falta información.
- Recuperación estructurada, donde las herramientas de IA consultan API, bases de datos SQL o grafos de conocimiento en lugar de solo documentos no estructurados.
- La monitorización de la calidad de la recuperación, que comprueba si el contexto recuperado realmente respalda la respuesta, puede detectar posibles casos de alucinación.
RAG no garantiza la exactitud de los hechos, pero suele reducir las alucinaciones, especialmente cuando la base de conocimientos está cuidadosamente seleccionada y se actualiza periódicamente.
Por ejemplo , un nuevo artículo presenta REFIND, un método de recuperación mejorada para detectar segmentos ilusorios en grandes salidas de modelos de lenguaje midiendo la sensibilidad de cada token generado a la evidencia externa.
Utilizando una nueva métrica denominada Índice de Sensibilidad al Contexto (CSR, por sus siglas en inglés), REFIND compara las probabilidades de los tokens con y sin documentos recuperados, señalando los tokens que cambian significativamente como posibles alucinaciones.
Evaluado en el conjunto de datos multilingüe SemEval-2025 Mu-SHROOM, este enfoque ayuda a superar los métodos de referencia existentes, especialmente en idiomas con pocos recursos. Los resultados muestran que basar la detección de alucinaciones en evidencia recuperada permite una identificación más precisa, confiable y escalable de errores fácticos en textos generados por LLM. 6
Diseño rápido en sistemas modernos
La ingeniería de indicaciones ha cambiado a medida que los modelos de IA generativa han mejorado. Ya no se trata solo de frases ingeniosas. En los sistemas actuales, el diseño de indicaciones se centra en:
- Indicar claramente la tarea, los datos de entrada y las restricciones, incluyendo qué se considera correcto y qué debe quedar sin respuesta.
- Indicar al modelo que diga "No lo sé" o que solicite más información cuando la información proporcionada sea incompleta.
- Fomentar que el modelo haga referencia explícita al contexto citado en lugar de inventar detalles que no están presentes en los datos proporcionados.
- Alinear las instrucciones de rol, las herramientas y la configuración de recuperación para que el modelo sepa cuándo usar fuentes externas y cuándo confiar en sus propios parámetros.
Las buenas indicaciones mejoran la calidad de los resultados de la IA, pero ahora forman parte de un sistema más amplio que incluye recuperación, herramientas y verificación.
Métodos externos de verificación y comprobación de hechos
La verificación del contenido generado por IA con datos fácticos fiables sigue siendo una estrategia fundamental. La verificación puede realizarse de varias maneras:
- Recuperación y comparación automatizadas: El sistema utiliza la generación aumentada mediante recuperación para extraer documentos y, a continuación, comprueba si esos documentos respaldan las afirmaciones clave del contenido generado.
- Verificación entre modelos: Un modelo de lenguaje genera una respuesta, y otro modelo o una configuración diferente la revisa en busca de errores de hecho.
- Verificación basada en herramientas: los modelos de IA recurren a herramientas de IA especializadas, como intérpretes de código, calculadoras o API de dominio, para verificar valores numéricos, fechas o resultados estructurados.
- Revisión humana: Expertos en la materia examinan los textos generados por IA más importantes antes de que se utilicen en producción o se publiquen.
Los sistemas modernos suelen combinar estos enfoques, utilizando comprobaciones automáticas para la mayor parte del contenido y remitiendo los casos sospechosos a revisión humana.
Enfoques terapéuticos para reducir las alucinaciones
Los trabajos recientes en inteligencia artificial han introducido sistemas con capacidad de agencia , en los que un modelo puede planificar, usar herramientas y realizar múltiples acciones en lugar de responder de una sola vez. Esto cambia la forma en que se manifiestan las alucinaciones y cómo se pueden reducir.
Los sistemas de modelos de lenguaje con agentes pueden:
- Divide cada pregunta en subproblemas y resuélvelos paso a paso.
- Decida cuándo se necesitan más datos y realice búsquedas adicionales en una base de conocimientos o fuentes externas.
- Utilice herramientas específicas del dominio, como API de búsqueda, bases de datos o calculadoras, para verificar los resultados intermedios.
- Reevaluar su propio borrador de respuesta y revisar las partes que entren en conflicto con la evidencia recabada.
Por ejemplo, en lugar de generar una respuesta larga de inmediato, elagente de IA puede:
- Recuperar los documentos relevantes.
- Resume y compara diferentes fuentes.
- Identificar contradicciones o datos faltantes.
- Si la tarea no está suficientemente especificada, formule preguntas de seguimiento al usuario.
- Solo entonces genere la respuesta final.
Esta estructura de varios pasos hace que las alucinaciones sean más visibles y proporciona puntos adicionales en los que se pueden aplicar controles.
Estimación de la incertidumbre y puntuaciones de confianza
Otra área de investigación activa es la estimación de la probabilidad de que un resultado de IA contenga errores fácticos. La estimación de la incertidumbre puede utilizarse tanto durante como después de la generación. Algunos enfoques incluyen:
- Los índices de confianza a nivel de token indican el grado de confianza del modelo en cada palabra o frase. Las regiones con baja confianza pueden ser señaladas para su revisión.
- Las comprobaciones de coherencia consisten en que el modelo responde a la misma pregunta de varias maneras o con diferentes indicaciones, y el sistema mide la estabilidad de las respuestas.
- Comprobaciones de suficiencia de contexto, en las que un modelo independiente evalúa si los documentos recuperados contienen información suficiente para responder a la pregunta.
- Evaluación de riesgos previa a la generación, donde el sistema predice si es probable que una entrada determinada induzca alucinaciones en una configuración de modelo específica.
Estos métodos no eliminan las alucinaciones, pero ayudan a las organizaciones a identificar resultados de alto riesgo y a derivarlos a procesos de verificación más rigurosos o a revisores humanos.
Comunicar la incertidumbre a los usuarios
Comunicar la incertidumbre a los usuarios es crucial cuando los sistemas de IA encuentran limitaciones. Algunas prácticas efectivas son:
- El uso de un lenguaje intencionadamente ambiguo ayuda a establecer expectativas adecuadas y reduce los resultados engañosos que podrían difundir información inexacta.
- Al integrar indicadores que no reflejan con exactitud la información, los modelos pueden señalar cuándo carecen de confianza en sus respuestas. Esta transparencia, recomendada en publicaciones recientes de análisis tecnológico, evita que los usuarios acepten sin cuestionar el contenido generado por la IA.
- Resaltar elementos textuales específicos que influyeron en la respuesta del modelo ayuda a los usuarios a comprender el razonamiento detrás de los resultados inciertos, mientras que mostrar índices de confianza permite una evaluación más fiable.
- Al abordar problemas complejos, presentar múltiples fuentes anima a los usuarios a verificar las afirmaciones de forma independiente, en lugar de depender únicamente de los resultados de la IA, que pueden contener ilusiones.
Estos enfoques, validados mediante una amplia retroalimentación humana, crean una relación más honesta entre los usuarios y los modelos de IA generativa al reconocer cuándo las limitaciones de la base de conocimientos podrían conducir a posibles alucinaciones.
Estimar el riesgo de alucinaciones antes de que ocurran.
Detectar contenido falso después de que el LLM ya lo haya generado es el objetivo principal de la mayoría de las investigaciones actuales sobre alucinaciones. Herramientas como RefChecker y Hallucination Guard buscan resaltar o calificar los resultados sospechosos, ayudando a los usuarios a filtrar o corregir los resultados alucinados.
Una nueva perspectiva reinterpreta el problema, sugiriendo que las alucinaciones son artefactos de compresión en lugar de errores. Durante su funcionamiento, los modelos de lenguaje complejos descomprimen la información que previamente se había comprimido en sus parámetros. De forma similar a como un archivo ZIP corrupto produce basura al descomprimirse, el modelo rellena los huecos con contenido plausible pero falso cuando su "presupuesto de información" es limitado. 7
Los modelos LLM optimizan la eficiencia en el caso promedio, lo que puede provocar alucinaciones sistemáticas ocasionales. La Ley de Descompresión del Nivel de Expectativa (EDFL) define los umbrales de información necesarios para prevenir las alucinaciones en los modelos LLM.
La calculadora de riesgo de alucinaciones de código abierto permite la evaluación de riesgos previa a la generación, el establecimiento de límites de error, la evaluación del contexto y garantías tipo SLA, características muy útiles en ámbitos regulados. Puede utilizarse con cualquier API compatible con OpenAI.
Metodología de referencia para alucinaciones en IA
Nuestro objetivo es determinar si los modelos pueden procesar información empresarial y extraer conclusiones precisas. Este es un ámbito donde los modelos de lógica descriptiva (LLM) pueden generar el mayor valor para las empresas, y queríamos comprender las tasas de alucinaciones en este contexto.
Nuestro estudio comparativo evalúa las tasas de alucinaciones en pacientes con LLM utilizando un conjunto de datos de preguntas extraídas de artículos de CNN News.
Utilizamos un sistema automatizado de recopilación de datos web para crear el conjunto de datos, extrayendo artículos directamente del feed RSS de CNN. A partir de estos artículos, creamos 60 preguntas diseñadas para evaluar rigurosamente la capacidad de un modelo de aprendizaje automático (LLM) para recuperar información fáctica y específica de cada artículo.
Las preguntas fueron diseñadas intencionalmente para:
- Solicitar valores numéricos precisos (porcentajes, fechas, cantidades).
- Abarca temas diversos como los precios del petróleo, la historia del arte, la investigación científica, las finanzas y mucho más.
- Incluye relaciones temporales y datos estadísticos difíciles de adivinar.
- Se requiere una recuperación exacta del texto proporcionado en lugar de un razonamiento generalizado.
- Facilita la verificación comprobando si la respuesta coincide con la figura del artículo original.
Evaluación mediante un sistema de verificación de hechos de tres etapas.
Una vez que las preguntas se envían a cada LLM a través de llamadas a la API, las respuestas se evalúan mediante un proceso de verificación de datos en dos etapas:
- Verificación estática de coincidencia exacta: El sistema primero realiza una comparación rápida de cadenas entre la respuesta del LLM y el valor real extraído del artículo. Si los valores coinciden exactamente, la respuesta se marca como correcta.
- Validación semántica con LLM como juez: Si no se encuentra una coincidencia exacta, un paso de evaluación adicional utiliza un modelo LLM como juez para determinar si la respuesta es semánticamente equivalente a la verdad fundamental.
Esto explica las variaciones en el formato o la redacción, como por ejemplo:- “26 millones” frente a “26000000”
- “n/a”, “no disponible” o “no proporcionado”
- Pequeñas diferencias en la redacción que conservan el mismo significado.
- Verificación final: El LLM-as-juez también puede tener alucinaciones. Para solucionar esto, creamos otro LLM-as-juez para revisar los resultados marcados como "fallidos" por el primer LLM-as-juez, y así verificar si realmente fallaron o si nuestro LLM-as-juez tuvo alucinaciones. Si alguna respuesta fue marcada como sospechosa por este segundo LLM-as-juez, la revisamos y calificamos manualmente para asegurarnos de que no haya errores durante las evaluaciones.
La respuesta se clasifica como alucinación solo si no supera la comprobación de coincidencia exacta, la evaluación de equivalencia semántica y la comprobación final.
Ejemplo
Instrucciones: “Responda a la pregunta utilizando únicamente la información que aparece en el artículo proporcionado. No redondee las respuestas. Responda solo con una palabra o un número, o con la opción ‘no se menciona’”.
Artículo: Científicos identifican el ingrediente secreto en las pinturas de Leonardo da Vinci 8
Pregunta: ¿En qué siglo se extendió la pintura al óleo por el norte de Europa?
Veracidad sobre el terreno: No se proporciona.
El artículo no proporciona esta información; solo hace referencia a la Edad Media. Por lo tanto, cualquier respuesta que no sea «no se menciona» indica que el modelo no sigue el artículo y genera información inventada o supuesta, lo que resulta en una alucinación.
Preguntas frecuentes
Las herramientas de IA pueden generar información falsa o resultados engañosos. Para evitar confusiones, los usuarios pueden verificar las respuestas y formular preguntas más directas. Esta información errónea en los textos generados por IA puede tener consecuencias indeseables, especialmente en ámbitos como la redacción científica y la investigación jurídica.
Diversas publicaciones han identificado varias causas de errores en la IA. Cuando los sistemas de inteligencia artificial generativa, como los grandes modelos de lenguaje, producen resultados incorrectos, suele deberse a la insuficiencia de datos de entrenamiento o al uso de datos obsoletos. Las investigaciones demuestran que los métodos anteriores para crear sistemas de bases de conocimiento no impedían adecuadamente que los modelos generaran referencias erróneas o información inexacta al procesar datos de internet para resolver problemas complejos.
El contenido generado por IA a menudo carece de verificación con fuentes externas, lo que da lugar a resultados engañosos. Los modelos generativos tienen dificultades con temas ajenos a su corpus de entrenamiento y pueden inventar hechos que parecen plausibles pero que no superan la verificación de expertos.
Si bien son valiosos en áreas como la investigación jurídica, los sistemas de IA pueden producir imprecisiones, especialmente en temas con poco tráfico o bajo ataques adversarios.
Los modelos pueden confundir correlación con causalidad, e incluso los resultados precisos pueden contener falsedades, lo que subraya la necesidad de verificar la información con fuentes confiables. Este problema persiste debido a la insuficiencia de los estándares de revisión sobre cómo los modelos procesan los datos.
Lecturas adicionales
- 8 modelos de código de IA evaluados: LMC-Eval
- Comprender los precios de los másteres en Derecho (LLM): Comparativa de los principales proveedores
- Memoria de IA: Modelos de IA más populares con la mejor memoria
- Rendimiento de los agentes de IA: tasas de éxito y retorno de la inversión.
Comentarios 4
Comparte tus ideas
Tu dirección de correo electrónico no será publicada. Todos los campos son obligatorios.
This article is updated in June while the GPT 5 is announced in August. How did you test GPT 5 in AI Hallucination Rates figure
Hi! Thanks for your comment. We use WordPress for our articles, which allows us to update graphs and tables independently of the main text. This means that even if the article text shows an earlier update date, we can still add the latest results to the figures without altering the written sections.
Hi Cem, I've been using this article as a reference of severity of hallucination. Is it possible to refresh the report with the newly released GPT-5? Thanks!
Hi Rui, Thanks a lot for your interest and for using our article as a reference. We’ve already refreshed the report with GPT-5 results, so you’ll find the latest updates included in the article.
Is there any chance that you might add Claude Sonnet/Opus 4 as well as Gemini 2.5 Pro?
Hi Tim, Thank you for your support and suggestion. Claude Sonnet/Opus 4 and Gemini 2.5 Pro have already been added to the article, so you can now see them included in the comparisons.
Hi, thank you for interesting benchmark! I was wondering Grok3's hallucination rate, both in Think mode and without. Are you planning to add these?
Hi Joon and thank you for your comment, Yes, we are waiting for API access.