IA en la sombra — Definición IT
El uso de herramientas de IA generativa por parte de los empleados sin la aprobación ni supervisión de TI, seguridad, jurídico o cumplimiento.
La IA en la sombra (en inglés Shadow AI) designa el uso, por parte de los empleados, de herramientas de inteligencia artificial — sobre todo IA generativa como ChatGPT, Claude, Gemini, Copilot, Midjourney, así como extensiones de navegador, plugins, agentes y copilotos de código — sin validación, supervisión ni control por parte del departamento de TI, el CISO o las funciones de cumplimiento. Es la transposición a la era de la IA generativa del fenómeno ya conocido como Shadow IT, con un nivel de riesgo notablemente superior.
El fenómeno es masivo y muy subestimado: según el 2024 Work Trend Index de Microsoft y LinkedIn, el 75 % de los trabajadores del conocimiento ya utilizan IA generativa en el trabajo, y el 78 % de ellos aporta sus propias herramientas (BYOAI) — habitualmente a través de cuentas personales invisibles para TI (Microsoft & LinkedIn, mayo de 2024). Por el lado de los incidentes, el Cost of a Data Breach Report 2025 de IBM determina que el 20 % de las organizaciones ya ha sufrido una brecha de datos vinculada a la IA en la sombra, con un sobrecoste medio de 670 000 USD por incidente (IBM Security & Ponemon, 2025).
de los trabajadores del conocimiento ya usan IA generativa en el trabajo
Microsoft & LinkedIn 2024
de los usuarios de IA aportan sus propias herramientas (BYOAI)
Microsoft & LinkedIn 2024
de las organizaciones ha sufrido una brecha vinculada a la IA en la sombra
IBM Cost of a Data Breach 2025
de sobrecoste medio por incidente de IA en la sombra
IBM 2025
¿Qué es la IA en la sombra, en concreto?
La IA en la sombra cubre cualquier interacción profesional con un modelo de IA que no esté gobernada por TI: un comercial que pega un deal memo en ChatGPT para resumirlo, un desarrollador que pide a Claude que corrija un error enviando 200 líneas de código propietario, una persona de RR. HH. que pasa un contrato laboral por Gemini, un equipo de marketing que genera visuales en Midjourney a partir de un mockup confidencial.
La encuesta Promises and Pitfalls of AI at Work de Salesforce y YouGov (14 000 trabajadores, 14 países) midió que el 40 % de los usuarios de IA generativa ya ha compartido información profesional sensible con estas herramientas sin que su empleador lo supiera y que más de la mitad la utiliza sin aprobación formal (Salesforce/YouGov, 2023). KPMG llega a cifras parecidas en EE. UU.: el 50 % de la fuerza laboral usa herramientas de IA sin saber si está autorizada, y el 57 % oculta su uso de la IA y presenta el resultado como propio (KPMG, agosto de 2024).
Lo que define el fenómeno es la ausencia de gobernanza, no el uso de IA en sí:
- •IA gobernada: licencias de empresa (ChatGPT Enterprise, Copilot for Microsoft 365, Claude for Work), modelos desplegados con contrato DPA, garantías de no reutilización de prompts para entrenamiento, SSO y registro activados.
- •IA en la sombra: cuentas personales gratuitas o pagadas individualmente, extensiones de navegador instaladas sin validación, modelos open source descargados localmente, plugins de terceros conectados a Slack/Notion/Teams, sitios wrapper que imitan la herramienta oficial.
Shadow IT vs. IA en la sombra
La IA en la sombra hereda los mecanismos del Shadow IT — adopción bottom-up, evasión de compras, acceso freemium — pero multiplica sus consecuencias. Los datos ya no solo se almacenan en un proveedor SaaS no inventariado: pueden entrenar un modelo, reaparecer en la respuesta dada a otro usuario y resisten al derecho de supresión del RGPD.
Por qué la IA en la sombra explota
- •Ganancia inmediata de productividad: según AI at Work 2025 del BCG, los usuarios habituales ahorran al menos 5 horas por semana gracias a la GenAI (BCG, junio de 2025).
- •Acceso freemium sin fricción: Cyberhaven ha observado un aumento del 485 % en el volumen de datos corporativos enviados a herramientas de IA entre marzo de 2023 y marzo de 2024, con el 73,8 % del uso de ChatGPT en el trabajo a través de cuentas no corporativas (Cyberhaven, 2024).
- •Brecha de políticas y formación: ISACA constata que solo el 15 % de las organizaciones tienen una política formal de IA y que el 40 % no ofrece ninguna formación (ISACA, 2024). McKinsey añade que solo el 18 % cuenta con un órgano con autoridad para decidir sobre IA responsable (McKinsey State of AI 2024).
- •Presión cultural y ansiedad profesional: Microsoft mide que el 52 % de los usuarios de IA duda en admitir su uso para tareas importantes y que el 53 % teme parecer reemplazable.
- •Lentitud percibida de TI: según Software AG, el 33 % de los empleados justifica la IA en la sombra porque la TI no ofrece las herramientas que necesitan y el 46 % se niega a renunciar a sus herramientas incluso si se prohíben (Software AG, octubre de 2024).
¿Qué herramientas, qué usos?
La IA en la sombra no se limita a ChatGPT. El perímetro abarca al menos seis categorías:
- •Chatbots LLM generalistas: ChatGPT, Claude, Gemini, Copilot, Le Chat (Mistral), Perplexity, You.com.
- •Copilotos de código: GitHub Copilot personal, Cursor, Codeium, Tabnine, Replit Agent, Aider.
- •Generadores de imagen y vídeo: Midjourney, DALL·E, Stable Diffusion, Runway, Sora, Pika, Kling.
- •Transcripción y notas: Otter.ai, Fireflies, Granola, tl;dv, Read.ai, Whisper local.
- •Extensiones de navegador: Monica, Merlin, Harpa, ChatGPT Sidebar y decenas de wrappers.
- •Agentes IA y frameworks: AutoGPT, AgentGPT, Devin, Manus, Lindy, escenarios Make/n8n con LLM.
Según Netskope Threat Labs, el 94 % de las organizaciones utilizan aplicaciones de GenAI, y el 47 % de los usuarios de IA en empresa usan apps de IA personales (Netskope, 2025). El número mediano de aplicaciones de GenAI distintas por organización se triplicó en un año: de 3 a 9,6 entre junio de 2023 y junio de 2024.
Los 8 riesgos principales
### 1. Fuga de datos confidenciales
Cyberhaven mide que el 27,4 % de los datos que un empleado envía a una herramienta de IA son sensibles, frente al 10,7 % un año antes. Harmonic Security, tras analizar 22,4 millones de prompts corporativos, observó que el 87 % de los incidentes de fuga de datos sensibles ocurren vía ChatGPT Free (cuenta personal gratuita), con código fuente (~30 %), documentos jurídicos (22,3 %) y datos de M&A (12,6 %) como categorías principales (Harmonic Security, 2025).
### 2. Alucinaciones y errores con consecuencias jurídicas
Dos jurisprudencias recientes:
- •Mata v. Avianca (SDNY, junio de 2023): los abogados Schwartz y LoDuca fueron sancionados con 5 000 USD por citar seis decisiones judiciales ficticias generadas por ChatGPT (Justia).
- •Moffatt v. Air Canada (BCCRT, febrero de 2024): Air Canada fue condenada a pagar 650,88 CAD porque su chatbot comunicó una política tarifaria de duelo inexistente. El tribunal rechazó que el chatbot fuera "una entidad jurídica distinta" (CanLII).
### 3. Cumplimiento RGPD y AI Act
El Garante italiano fue la primera autoridad europea en actuar: prohibición temporal de ChatGPT en marzo de 2023 y multa de 15 millones de euros a OpenAI en diciembre de 2024 (Garante, 2024). En la UE, el Reglamento (UE) 2024/1689 (EU AI Act) entró en vigor el 1 de agosto de 2024. Desde el 2 de febrero de 2025, las prácticas del artículo 5 quedan prohibidas y todas las organizaciones deben asegurar un nivel suficiente de AI literacy entre sus empleados — aplica también al uso clandestino.
### 4. Derechos de autor y secretos comerciales
The New York Times Company v. Microsoft & OpenAI (SDNY, 1:23-cv-11195, diciembre de 2023): el NYT demuestra que ChatGPT reproduce literalmente fragmentos de sus artículos y solicita la destrucción de los datasets de entrenamiento (CourtListener). Riesgo simétrico para la empresa: un secreto empresarial enviado a un modelo público puede perder su condición legal de secreto.
### 5. Vulnerabilidades técnicas LLM (OWASP LLM Top 10)
El proyecto OWASP GenAI Security mantiene la lista de referencia (OWASP Top 10 LLM Applications 2025): LLM01 Prompt Injection, LLM02 Sensitive Information Disclosure, LLM03 Supply Chain, LLM05 Improper Output Handling, LLM06 Excessive Agency, LLM07 System Prompt Leakage (2025), LLM10 Unbounded Consumption.
### 6. Ciberamenazas amplificadas
ENISA, en su Threat Landscape 2025: más del 80 % de la actividad de ingeniería social observada a inicios de 2025 implica contenido generado por IA, con actores estatales que explotan ChatGPT, Gemini y herramientas maliciosas como WormGPT y FraudGPT (ENISA, 2025). IBM 2025: el 16 % de las brechas de datos involucraron atacantes que usaron IA — 37 % phishing IA, 35 % deepfakes.
### 7. Costes ocultos y redundancia de herramientas
Las suscripciones de IA proliferan en paralelo, como con SaaS: ChatGPT Plus pagado individualmente, Midjourney en tarjetas corporativas, Notion AI activado sobre una licencia Copilot ya existente.
### 8. Pérdida de visibilidad operativa
2025 Cisco Cybersecurity Readiness Index: el 60 % de las organizaciones carece de confianza para identificar el uso de herramientas de IA no aprobadas, y el 60 % no tiene visibilidad sobre los prompts de sus empleados (Cisco, 2025). Verizon DBIR 2025: el 72 % de los empleados que usan GenAI en el trabajo lo hacen desde una dirección de correo no corporativa (Verizon, 2025).
Una década de IA en la sombra, en línea de tiempo
Nov 2022
Lanzamiento público de ChatGPT
Adopción masiva en semanas, sin marco corporativo.
Ene 2023
Amazon avisa a su plantilla
Un jurista interno pide no pegar "ninguna información confidencial de Amazon" en ChatGPT.
Feb 2023
JPMorgan restringe ChatGPT
Bloqueo mundial. Siguen Goldman Sachs, Citi, BoA, Wells Fargo, Deutsche Bank.
Mar 2023
El Garante italiano prohíbe ChatGPT
Primera decisión de una autoridad europea de protección de datos contra un LLM.
Abr 2023
Tres fugas en Samsung en 20 días
Código fuente, secuencias de prueba y transcripciones pegadas en ChatGPT por ingenieros de Samsung Semiconductor.
May 2023
Samsung y Apple prohíben la IA pública
2 may.: bloqueo global en Samsung. 18 may.: Apple restringe ChatGPT y Copilot.
Jun 2023
Mata v. Avianca
Primera sanción a abogados por citar jurisprudencia ficticia generada por ChatGPT.
Ene 2024
Publicación de ISO/IEC 42001
Primera norma global de sistema de gestión de IA.
Feb 2024
Air Canada condenada
El BCCRT establece la responsabilidad de la empresa por las alucinaciones de su chatbot.
Ago 2024
Entrada en vigor del EU AI Act
Reglamento (UE) 2024/1689 aplicable progresivamente hasta 2028.
Dic 2024
OpenAI multado con 15 M€ en Italia
Confirmación europea del riesgo regulatorio.
Feb 2025
Primeras obligaciones del EU AI Act
Prohibiciones del artículo 5 y obligación de AI literacy aplicables.
Ago 2025
Reglas GPAI aplicables
Obligaciones sobre modelos de IA de uso general.
Marcos de gobernanza aplicables
- •[NIST AI Risk Management Framework (AI RMF 1.0)](https://www.nist.gov/itl/ai-risk-management-framework): (enero de 2023, EE. UU.) — Voluntario, agnóstico sectorialmente, cuatro funciones.
- •[ISO/IEC 42001:2023](https://www.iso.org/standard/42001): (diciembre de 2023, internacional) — Primera norma global certificable para sistemas de gestión de IA (AIMS).
- •[EU AI Act — Reglamento (UE) 2024/1689](https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai): (agosto de 2024, Unión Europea) — Enfoque por niveles de riesgo. Sanciones de hasta 35 M€ o el 7 % de la facturación mundial para prácticas prohibidas.
- •[OECD AI Principles](https://oecd.ai/en/ai-principles): (2019, actualizado en 2024) — Primer estándar intergubernamental.
El marco más operativo es el NIST AI RMF:
- 1
Govern
Definir políticas, roles y responsabilidades de IA. Cartografiar los usos.
- 2
Map
Inventariar las herramientas de IA en uso (oficiales y en la sombra) y su contexto de negocio.
- 3
Measure
Cuantificar los riesgos (seguridad, cumplimiento, sesgo) y evaluar los controles.
- 4
Manage
Priorizar, mitigar y monitorizar continuamente la postura.
En España, la AEPD y la AESIA (Agencia Española de Supervisión de la Inteligencia Artificial, creada por Real Decreto 729/2023) completan el marco RGPD para los sistemas de IA.
Detectar la IA en la sombra
Seis métodos complementarios:
- •Logs SSO e identidad: (Okta, Entra ID, Google Workspace) — limite: las cuentas personales escapan por construcción.
- •Descubrimiento SaaS automatizado: vía una plataforma de SaaS Management como Kabeen, que cruza SSO, señales de navegador y datos de gasto.
- •Extensión de navegador / agente de endpoint: para capturar peticiones a dominios de IA desde el puesto de trabajo.
- •DLP IA / CASB: para inspeccionar las peticiones salientes.
- •Análisis de gastos: (tarjetas corporativas, notas de gasto, facturas Stripe de proveedores IA).
- •Encuestas anónimas: para medir la brecha entre uso declarado y real.
Construir una política de IA en 6 pasos
- 1
Descubrir
Inventario continuo de toda herramienta de IA en uso (oficial y en la sombra).
- 2
Clasificar
Categorizar por nivel de riesgo (NIST AI RMF) y tipo de dato.
- 3
Aprobar
Catálogo de herramientas validadas con DPA y garantías anti-reentrenamiento.
- 4
Encuadrar
Política de uso, formación, AI literacy (obligatoria por el AI Act).
- 5
Equipar
Desplegar SSO, DLP IA, monitorización de prompts, CASB.
- 6
Medir
KPIs continuos: uso gobernado, incidentes evitados, ROI productividad.
KPIs de un programa de IA en la sombra
- •Tasa de uso gobernado: % de usuarios de IA que pasa por herramientas aprobadas y SSO.
- •Volumen de prompts sensibles bloqueados: (DLP IA, tendencia semanal).
- •Cobertura de formación AI literacy: (requisito del AI Act).
- •Incidentes IA declarados vs. detectados: .
- •Coste IA por usuario activo: (comparable con TCO).
Gartner estima que más del 40 % de las organizaciones sufrirá un incidente de seguridad o cumplimiento vinculado a la IA en la sombra en 2030, y que el 75 % de los empleados adquirirá, modificará o creará tecnología fuera del alcance de TI en 2027, frente al 41 % en 2022 (Gartner, noviembre de 2025).
Cómo ayuda Kabeen frente a la IA en la sombra
Kabeen extiende su plataforma de SaaS Management al caso de la IA en la sombra. La plataforma combina descubrimiento por SSO, señales de navegador, datos de gasto e inventario de cuentas IA para entregar de forma continua: un inventario actualizado de toda herramienta IA en uso (oficial y en la sombra), una vista por usuario, equipo, aplicación y nivel de riesgo, la detección de cuentas personales y una base factual para auditorías de seguridad, compras y EU AI Act. El objetivo no es prohibir la IA: es hacer visible el uso y orientar a cada empleado hacia la alternativa gobernada correcta.
Preguntas frecuentes
¿Qué es la IA en la sombra en términos sencillos?
+
La IA en la sombra es el uso por parte de los empleados de herramientas de IA generativa — ChatGPT, Claude, Gemini, Copilot, Midjourney, copilotos de código, agentes — sin validación ni supervisión de TI. Ejemplos: un comercial que pega un deal memo en ChatGPT, un desarrollador que envía código propietario a Claude, un equipo de marketing que pasa un mockup confidencial por Midjourney. Es la versión IA generativa del Shadow IT.
¿Cuál es la diferencia entre Shadow IT e IA en la sombra?
+
El Shadow IT cubre las aplicaciones SaaS, scripts o bases desplegadas sin TI. La IA en la sombra añade una dimensión propia: los datos enviados a un modelo público pueden utilizarse para entrenar al modelo, reaparecer en la respuesta a otro usuario y son resistentes al derecho de supresión del RGPD. El riesgo dominante pasa de los costes ocultos a la fuga de datos, las alucinaciones y los derechos de autor.
¿Cuál es la magnitud real de la IA en la sombra en empresa?
+
Según Microsoft & LinkedIn (2024), el 75 % de los trabajadores del conocimiento ya usa IA generativa en el trabajo, y el 78 % aporta sus propias herramientas. Cyberhaven mide que el 73,8 % del uso de ChatGPT en el trabajo se realiza desde cuentas no corporativas, y Harmonic Security observa que el 87 % de los incidentes de fuga de datos sensibles pasan por ChatGPT Free. IBM determina que el 20 % de las organizaciones ya ha sufrido una brecha vinculada a la IA en la sombra, con un sobrecoste medio de 670 000 USD por incidente.
¿Cuáles son los principales riesgos?
+
Ocho riesgos se acumulan: (1) fuga de datos confidenciales (código, PII, M&A), (2) alucinaciones con consecuencias jurídicas (Mata v. Avianca, Air Canada), (3) cumplimiento RGPD y EU AI Act, (4) derechos de autor y secretos empresariales, (5) vulnerabilidades técnicas LLM (OWASP LLM Top 10), (6) ciberamenazas amplificadas (phishing IA, deepfakes), (7) costes ocultos y redundancia, (8) pérdida de visibilidad operativa.
¿Cómo detectar la IA en la sombra en mi empresa?
+
Seis métodos complementarios: logs SSO e identidad (Okta, Entra ID), descubrimiento SaaS automatizado vía una plataforma de SaaS Management que cruza SSO + señales de navegador + datos de gasto, extensión de navegador o agente de endpoint, DLP IA / CASB para inspeccionar prompts sensibles, análisis de gastos y encuestas anónimas para medir la brecha entre uso declarado y real.
¿Qué dice el EU AI Act sobre la IA en la sombra?
+
El Reglamento (UE) 2024/1689 entró en vigor el 1 de agosto de 2024. Desde el 2 de febrero de 2025 quedan prohibidas las prácticas del artículo 5 y todas las organizaciones deben asegurar un nivel suficiente de AI literacy entre sus empleados. Las obligaciones para modelos de IA de uso general (GPAI) aplican desde el 2 de agosto de 2025. El reglamento se aplica al uso de IA gobernado o no — la IA en la sombra no exime a la empresa del cumplimiento.
¿Hay que prohibir ChatGPT y herramientas similares?
+
No, en la inmensa mayoría de los casos. Una prohibición sin alternativa aumenta la ocultación: Software AG mide que el 46 % de los usuarios se niega a renunciar a sus herramientas incluso si se prohíben. Lo correcto es proponer una alternativa gobernada (ChatGPT Enterprise, Copilot for Microsoft 365, Claude for Work, Gemini Enterprise, Mistral) que cubra los casos de uso legítimos, formar a los empleados sobre los datos prohibidos y desplegar la detección de cuentas personales.
¿Qué marcos de gobernanza utilizar?
+
Cuatro referencias estructuran la gobernanza de IA en empresa: (1) el NIST AI RMF 1.0 (Govern, Map, Measure, Manage); (2) la norma certificable ISO/IEC 42001:2023; (3) el EU AI Act, obligatorio en la UE; (4) los OECD AI Principles. En España, la AEPD y la AESIA completan el marco RGPD aplicado a IA.
Todos los términos
Método de las 5R
Una estrategia utilizada durante la racionalización de aplicaciones para determinar el mejor enfoque de gestión.
Método de las 8R
Una versión extendida del método 5R utilizada en la gestión del portafolio de aplicaciones y estrategias de migración.
Aplicación
Un programa informático o conjunto de programas diseñados para agilizar las operaciones comerciales.
Arquitectura
Se refiere a la estructura y comportamiento de los sistemas de TI, procesos e infraestructura dentro de una organización.
¿Necesita ayuda para mapear su panorama TI?
Kabeen le ayuda a inventariar, analizar y optimizar su portafolio de aplicaciones.