Volver al glosario
A
Definición

Alucinación IA Definición IT

Producción por un modelo de IA generativa de una información falsa o inventada, presentada con la misma confianza que una respuesta correcta.

Una alucinación IA designa la producción por un modelo de GenAI — típicamente un LLM — de una información falsa, inventada o no verificable, presentada con la misma confianza que una respuesta correcta. El modelo no «miente» en el sentido humano: muestrea en un espacio de probabilidades, sin verdad de campo para controlar la salida.

El fenómeno es masivo: según un estudio Stanford 2024 sobre los LLMs jurídicos, del 17 al 33 % de las respuestas contenían alucinaciones factuales. Lado médico, una revisión NEJM AI 2024 midió hasta el 28 % de errores clínicos en los modelos públicos no especializados. Para una dirección de TI, es hoy el principal obstáculo a la industrialización de la GenAI en usos críticos.

Por qué los LLMs alucinan

Las causas son estructurales:

  • Aprendizaje estadístico: .
  • Datos de entrenamiento ruidosos: .
  • Fecha de corte (knowledge cutoff): .
  • Fuera de distribución: .
  • Compresión: .

Los tipos de alucinaciones

  • Alucinaciones factuales: un hecho inventado.
  • Alucinaciones de razonamiento: .
  • Alucinaciones de instrucción: .
  • Alucinaciones de fuente: citar un artículo, una sentencia, un libro que no existe.
  • Alucinaciones de capacidad: (caso típico para los agentes IA).

Detectar y reducir las alucinaciones

  • [RAG](/es/glossary/rag): anclar las respuestas sobre fuentes internas verificadas.
  • Fine-tuning: entrenar el modelo sobre datos de negocio de calidad.
  • Prompt engineering defensivo: «responde solo si estás seguro», «cita tus fuentes».
  • Self-consistency / chain-of-thought: .
  • Verificación por un segundo LLM: (judge model).
  • Citación obligatoria: .
  • Human-in-the-loop: .
  • Modelos especializados: .

Medir la tasa de alucinación

Benchmarks públicos: TruthfulQA, HaluEval, HELM (Stanford), Vectara HHEM.

Alucinaciones y responsabilidad

Lado jurídico, varias jurisprudencias recientes han recordado que el usuario sigue siendo responsable del contenido generado. En 2023, un abogado americano fue sancionado por haber citado en un alegato sentencias… inventadas por ChatGPT. El RGPD impone por otra parte un derecho a la exactitud de los datos personales.

El AI Act europeo y la norma ISO 42001 imponen ahora a los proveedores y desplegadores implementar dispositivos de medida, reducción y comunicación sobre el riesgo de alucinación.

Kabeen y el contexto verificado

Dar a un LLM o a un agente IA contexto exacto sobre el SI evita la mayoría de las alucinaciones de negocio. Kabeen sirve precisamente para exponer ese contexto vivo — por API o vía MCP — a los modelos y agentes desplegados en empresa.

Preguntas frecuentes

¿Qué es una alucinación en IA?

+

Una alucinación es la producción por un modelo de IA generativa — típicamente un LLM — de una información falsa, inventada o no verificable, presentada con la misma confianza que una respuesta correcta. El modelo no miente: muestrea en un espacio de probabilidades sin verdad de campo para controlar la salida. Es el obstáculo principal a la industrialización de la GenAI en usos críticos.

¿Por qué los LLMs alucinan?

+

Las causas son estructurales: el aprendizaje estadístico (el modelo predice la palabra siguiente más probable, no la más verdadera), los datos de entrenamiento ruidosos, la fecha de corte (knowledge cutoff), los temas fuera de distribución (subrepresentados en el corpus), y la compresión intrínseca (un modelo de 70B parámetros no puede memorizar todo internet, interpola).

¿Cómo reducir la tasa de alucinación?

+

Cinco palancas acumulables: (1) el RAG para anclar las respuestas sobre fuentes verificadas, (2) el fine-tuning sobre datos de negocio de calidad, (3) el prompt engineering defensivo («cita tus fuentes», «di no lo sé si es necesario»), (4) la verificación por un segundo LLM (judge model), (5) el human-in-the-loop en los usos críticos. Ninguna de estas palancas elimina totalmente el riesgo; la combinación lo reduce drásticamente.

¿Quién es responsable de una alucinación de IA?

+

En la mayoría de las jurisprudencias recientes, es el usuario o el desplegador quien sigue siendo responsable del contenido generado, no el editor del modelo. Un abogado americano fue sancionado en 2023 por haber citado sentencias inventadas por ChatGPT. El RGPD impone por otra parte un derecho a la exactitud de los datos personales, y el AI Act europeo como ISO 42001 imponen ahora dispositivos de medida y reducción del riesgo de alucinación.

¿Necesita ayuda para mapear su panorama TI?

Kabeen le ayuda a inventariar, analizar y optimizar su portafolio de aplicaciones.

Probar gratis