Alucinación IA — Definición IT
Producción por un modelo de IA generativa de una información falsa o inventada, presentada con la misma confianza que una respuesta correcta.
Una alucinación IA designa la producción por un modelo de GenAI — típicamente un LLM — de una información falsa, inventada o no verificable, presentada con la misma confianza que una respuesta correcta. El modelo no «miente» en el sentido humano: muestrea en un espacio de probabilidades, sin verdad de campo para controlar la salida.
El fenómeno es masivo: según un estudio Stanford 2024 sobre los LLMs jurídicos, del 17 al 33 % de las respuestas contenían alucinaciones factuales. Lado médico, una revisión NEJM AI 2024 midió hasta el 28 % de errores clínicos en los modelos públicos no especializados. Para una dirección de TI, es hoy el principal obstáculo a la industrialización de la GenAI en usos críticos.
Por qué los LLMs alucinan
Las causas son estructurales:
- •Aprendizaje estadístico: .
- •Datos de entrenamiento ruidosos: .
- •Fecha de corte (knowledge cutoff): .
- •Fuera de distribución: .
- •Compresión: .
Los tipos de alucinaciones
- •Alucinaciones factuales: un hecho inventado.
- •Alucinaciones de razonamiento: .
- •Alucinaciones de instrucción: .
- •Alucinaciones de fuente: citar un artículo, una sentencia, un libro que no existe.
- •Alucinaciones de capacidad: (caso típico para los agentes IA).
Detectar y reducir las alucinaciones
- •[RAG](/es/glossary/rag): anclar las respuestas sobre fuentes internas verificadas.
- •Fine-tuning: entrenar el modelo sobre datos de negocio de calidad.
- •Prompt engineering defensivo: «responde solo si estás seguro», «cita tus fuentes».
- •Self-consistency / chain-of-thought: .
- •Verificación por un segundo LLM: (judge model).
- •Citación obligatoria: .
- •Human-in-the-loop: .
- •Modelos especializados: .
Medir la tasa de alucinación
Benchmarks públicos: TruthfulQA, HaluEval, HELM (Stanford), Vectara HHEM.
Alucinaciones y responsabilidad
Lado jurídico, varias jurisprudencias recientes han recordado que el usuario sigue siendo responsable del contenido generado. En 2023, un abogado americano fue sancionado por haber citado en un alegato sentencias… inventadas por ChatGPT. El RGPD impone por otra parte un derecho a la exactitud de los datos personales.
El AI Act europeo y la norma ISO 42001 imponen ahora a los proveedores y desplegadores implementar dispositivos de medida, reducción y comunicación sobre el riesgo de alucinación.
Kabeen y el contexto verificado
Dar a un LLM o a un agente IA contexto exacto sobre el SI evita la mayoría de las alucinaciones de negocio. Kabeen sirve precisamente para exponer ese contexto vivo — por API o vía MCP — a los modelos y agentes desplegados en empresa.
Preguntas frecuentes
¿Qué es una alucinación en IA?
+
Una alucinación es la producción por un modelo de IA generativa — típicamente un LLM — de una información falsa, inventada o no verificable, presentada con la misma confianza que una respuesta correcta. El modelo no miente: muestrea en un espacio de probabilidades sin verdad de campo para controlar la salida. Es el obstáculo principal a la industrialización de la GenAI en usos críticos.
¿Por qué los LLMs alucinan?
+
Las causas son estructurales: el aprendizaje estadístico (el modelo predice la palabra siguiente más probable, no la más verdadera), los datos de entrenamiento ruidosos, la fecha de corte (knowledge cutoff), los temas fuera de distribución (subrepresentados en el corpus), y la compresión intrínseca (un modelo de 70B parámetros no puede memorizar todo internet, interpola).
¿Cómo reducir la tasa de alucinación?
+
Cinco palancas acumulables: (1) el RAG para anclar las respuestas sobre fuentes verificadas, (2) el fine-tuning sobre datos de negocio de calidad, (3) el prompt engineering defensivo («cita tus fuentes», «di no lo sé si es necesario»), (4) la verificación por un segundo LLM (judge model), (5) el human-in-the-loop en los usos críticos. Ninguna de estas palancas elimina totalmente el riesgo; la combinación lo reduce drásticamente.
¿Quién es responsable de una alucinación de IA?
+
En la mayoría de las jurisprudencias recientes, es el usuario o el desplegador quien sigue siendo responsable del contenido generado, no el editor del modelo. Un abogado americano fue sancionado en 2023 por haber citado sentencias inventadas por ChatGPT. El RGPD impone por otra parte un derecho a la exactitud de los datos personales, y el AI Act europeo como ISO 42001 imponen ahora dispositivos de medida y reducción del riesgo de alucinación.
Todos los términos
Método de las 5R
Una estrategia utilizada durante la racionalización de aplicaciones para determinar el mejor enfoque de gestión.
Método de las 8R
Una versión extendida del método 5R utilizada en la gestión del portafolio de aplicaciones y estrategias de migración.
Aplicación
Un programa informático o conjunto de programas diseñados para agilizar las operaciones comerciales.
Arquitectura
Se refiere a la estructura y comportamiento de los sistemas de TI, procesos e infraestructura dentro de una organización.
¿Necesita ayuda para mapear su panorama TI?
Kabeen le ayuda a inventariar, analizar y optimizar su portafolio de aplicaciones.