Volver al glosario
S
Definición

IA en la sombra Definición IT

El uso de herramientas de IA generativa por parte de los empleados sin la aprobación ni supervisión de TI, seguridad, jurídico o cumplimiento.

La IA en la sombra (en inglés Shadow AI) designa el uso, por parte de los empleados, de herramientas de inteligencia artificial — sobre todo IA generativa como ChatGPT, Claude, Gemini, Copilot, Midjourney, así como extensiones de navegador, plugins, agentes y copilotos de código — sin validación, supervisión ni control por parte del departamento de TI, el CISO o las funciones de cumplimiento. Es la transposición a la era de la IA generativa del fenómeno ya conocido como Shadow IT, con un nivel de riesgo notablemente superior.

El fenómeno es masivo y muy subestimado: según el 2024 Work Trend Index de Microsoft y LinkedIn, el 75 % de los trabajadores del conocimiento ya utilizan IA generativa en el trabajo, y el 78 % de ellos aporta sus propias herramientas (BYOAI) — habitualmente a través de cuentas personales invisibles para TI (Microsoft & LinkedIn, mayo de 2024). Por el lado de los incidentes, el Cost of a Data Breach Report 2025 de IBM determina que el 20 % de las organizaciones ya ha sufrido una brecha de datos vinculada a la IA en la sombra, con un sobrecoste medio de 670 000 USD por incidente (IBM Security & Ponemon, 2025).

75 %

de los trabajadores del conocimiento ya usan IA generativa en el trabajo

Microsoft & LinkedIn 2024

78 %

de los usuarios de IA aportan sus propias herramientas (BYOAI)

Microsoft & LinkedIn 2024

20 %

de las organizaciones ha sufrido una brecha vinculada a la IA en la sombra

IBM Cost of a Data Breach 2025

+670 K $

de sobrecoste medio por incidente de IA en la sombra

IBM 2025

¿Qué es la IA en la sombra, en concreto?

La IA en la sombra cubre cualquier interacción profesional con un modelo de IA que no esté gobernada por TI: un comercial que pega un deal memo en ChatGPT para resumirlo, un desarrollador que pide a Claude que corrija un error enviando 200 líneas de código propietario, una persona de RR. HH. que pasa un contrato laboral por Gemini, un equipo de marketing que genera visuales en Midjourney a partir de un mockup confidencial.

La encuesta Promises and Pitfalls of AI at Work de Salesforce y YouGov (14 000 trabajadores, 14 países) midió que el 40 % de los usuarios de IA generativa ya ha compartido información profesional sensible con estas herramientas sin que su empleador lo supiera y que más de la mitad la utiliza sin aprobación formal (Salesforce/YouGov, 2023). KPMG llega a cifras parecidas en EE. UU.: el 50 % de la fuerza laboral usa herramientas de IA sin saber si está autorizada, y el 57 % oculta su uso de la IA y presenta el resultado como propio (KPMG, agosto de 2024).

Lo que define el fenómeno es la ausencia de gobernanza, no el uso de IA en sí:

  • IA gobernada: licencias de empresa (ChatGPT Enterprise, Copilot for Microsoft 365, Claude for Work), modelos desplegados con contrato DPA, garantías de no reutilización de prompts para entrenamiento, SSO y registro activados.
  • IA en la sombra: cuentas personales gratuitas o pagadas individualmente, extensiones de navegador instaladas sin validación, modelos open source descargados localmente, plugins de terceros conectados a Slack/Notion/Teams, sitios wrapper que imitan la herramienta oficial.

Shadow IT vs. IA en la sombra

La IA en la sombra hereda los mecanismos del Shadow IT — adopción bottom-up, evasión de compras, acceso freemium — pero multiplica sus consecuencias. Los datos ya no solo se almacenan en un proveedor SaaS no inventariado: pueden entrenar un modelo, reaparecer en la respuesta dada a otro usuario y resisten al derecho de supresión del RGPD.

Shadow IT
IA en la sombra
Objeto
Apps SaaS, scripts, bases locales
Modelos IA, copilotos, agentes, prompts
Riesgo dominante
Costes ocultos, silos de datos, cumplimiento
Fuga de datos, alucinaciones, IP
Volumen invisible
30 a 50 % del parque SaaS real
Hasta 87 % de prompts sensibles vía cuentas personales gratuitas (Harmonic 2025)
Velocidad de adopción
Semanas / meses
Minutos (una pestaña, un prompt)
Detección
Logs SSO, gastos, agentes
Extensión de navegador, DLP IA, monitorización de prompts, CASB
Marco legal
RGPD, NIS2, ISO 27001
RGPD + EU AI Act, NIST AI RMF, ISO/IEC 42001
Reversibilidad
Borrar la cuenta = borrar datos
Datos posiblemente absorbidos por el modelo

Por qué la IA en la sombra explota

  • Ganancia inmediata de productividad: según AI at Work 2025 del BCG, los usuarios habituales ahorran al menos 5 horas por semana gracias a la GenAI (BCG, junio de 2025).
  • Acceso freemium sin fricción: Cyberhaven ha observado un aumento del 485 % en el volumen de datos corporativos enviados a herramientas de IA entre marzo de 2023 y marzo de 2024, con el 73,8 % del uso de ChatGPT en el trabajo a través de cuentas no corporativas (Cyberhaven, 2024).
  • Brecha de políticas y formación: ISACA constata que solo el 15 % de las organizaciones tienen una política formal de IA y que el 40 % no ofrece ninguna formación (ISACA, 2024). McKinsey añade que solo el 18 % cuenta con un órgano con autoridad para decidir sobre IA responsable (McKinsey State of AI 2024).
  • Presión cultural y ansiedad profesional: Microsoft mide que el 52 % de los usuarios de IA duda en admitir su uso para tareas importantes y que el 53 % teme parecer reemplazable.
  • Lentitud percibida de TI: según Software AG, el 33 % de los empleados justifica la IA en la sombra porque la TI no ofrece las herramientas que necesitan y el 46 % se niega a renunciar a sus herramientas incluso si se prohíben (Software AG, octubre de 2024).

¿Qué herramientas, qué usos?

La IA en la sombra no se limita a ChatGPT. El perímetro abarca al menos seis categorías:

  • Chatbots LLM generalistas: ChatGPT, Claude, Gemini, Copilot, Le Chat (Mistral), Perplexity, You.com.
  • Copilotos de código: GitHub Copilot personal, Cursor, Codeium, Tabnine, Replit Agent, Aider.
  • Generadores de imagen y vídeo: Midjourney, DALL·E, Stable Diffusion, Runway, Sora, Pika, Kling.
  • Transcripción y notas: Otter.ai, Fireflies, Granola, tl;dv, Read.ai, Whisper local.
  • Extensiones de navegador: Monica, Merlin, Harpa, ChatGPT Sidebar y decenas de wrappers.
  • Agentes IA y frameworks: AutoGPT, AgentGPT, Devin, Manus, Lindy, escenarios Make/n8n con LLM.

Según Netskope Threat Labs, el 94 % de las organizaciones utilizan aplicaciones de GenAI, y el 47 % de los usuarios de IA en empresa usan apps de IA personales (Netskope, 2025). El número mediano de aplicaciones de GenAI distintas por organización se triplicó en un año: de 3 a 9,6 entre junio de 2023 y junio de 2024.

Uso semanal de GenAI por función (BCG, AI at Work 2025)
Tech & I+D
78%
Marketing
74%
Atención al cliente
62%
Finanzas
55%
RR. HH.
51%
Compras
34%

Los 8 riesgos principales

### 1. Fuga de datos confidenciales

Cyberhaven mide que el 27,4 % de los datos que un empleado envía a una herramienta de IA son sensibles, frente al 10,7 % un año antes. Harmonic Security, tras analizar 22,4 millones de prompts corporativos, observó que el 87 % de los incidentes de fuga de datos sensibles ocurren vía ChatGPT Free (cuenta personal gratuita), con código fuente (~30 %), documentos jurídicos (22,3 %) y datos de M&A (12,6 %) como categorías principales (Harmonic Security, 2025).

### 2. Alucinaciones y errores con consecuencias jurídicas

Dos jurisprudencias recientes:

  • Mata v. Avianca (SDNY, junio de 2023): los abogados Schwartz y LoDuca fueron sancionados con 5 000 USD por citar seis decisiones judiciales ficticias generadas por ChatGPT (Justia).
  • Moffatt v. Air Canada (BCCRT, febrero de 2024): Air Canada fue condenada a pagar 650,88 CAD porque su chatbot comunicó una política tarifaria de duelo inexistente. El tribunal rechazó que el chatbot fuera "una entidad jurídica distinta" (CanLII).

### 3. Cumplimiento RGPD y AI Act

El Garante italiano fue la primera autoridad europea en actuar: prohibición temporal de ChatGPT en marzo de 2023 y multa de 15 millones de euros a OpenAI en diciembre de 2024 (Garante, 2024). En la UE, el Reglamento (UE) 2024/1689 (EU AI Act) entró en vigor el 1 de agosto de 2024. Desde el 2 de febrero de 2025, las prácticas del artículo 5 quedan prohibidas y todas las organizaciones deben asegurar un nivel suficiente de AI literacy entre sus empleados — aplica también al uso clandestino.

### 4. Derechos de autor y secretos comerciales

The New York Times Company v. Microsoft & OpenAI (SDNY, 1:23-cv-11195, diciembre de 2023): el NYT demuestra que ChatGPT reproduce literalmente fragmentos de sus artículos y solicita la destrucción de los datasets de entrenamiento (CourtListener). Riesgo simétrico para la empresa: un secreto empresarial enviado a un modelo público puede perder su condición legal de secreto.

### 5. Vulnerabilidades técnicas LLM (OWASP LLM Top 10)

El proyecto OWASP GenAI Security mantiene la lista de referencia (OWASP Top 10 LLM Applications 2025): LLM01 Prompt Injection, LLM02 Sensitive Information Disclosure, LLM03 Supply Chain, LLM05 Improper Output Handling, LLM06 Excessive Agency, LLM07 System Prompt Leakage (2025), LLM10 Unbounded Consumption.

### 6. Ciberamenazas amplificadas

ENISA, en su Threat Landscape 2025: más del 80 % de la actividad de ingeniería social observada a inicios de 2025 implica contenido generado por IA, con actores estatales que explotan ChatGPT, Gemini y herramientas maliciosas como WormGPT y FraudGPT (ENISA, 2025). IBM 2025: el 16 % de las brechas de datos involucraron atacantes que usaron IA — 37 % phishing IA, 35 % deepfakes.

### 7. Costes ocultos y redundancia de herramientas

Las suscripciones de IA proliferan en paralelo, como con SaaS: ChatGPT Plus pagado individualmente, Midjourney en tarjetas corporativas, Notion AI activado sobre una licencia Copilot ya existente.

### 8. Pérdida de visibilidad operativa

2025 Cisco Cybersecurity Readiness Index: el 60 % de las organizaciones carece de confianza para identificar el uso de herramientas de IA no aprobadas, y el 60 % no tiene visibilidad sobre los prompts de sus empleados (Cisco, 2025). Verizon DBIR 2025: el 72 % de los empleados que usan GenAI en el trabajo lo hacen desde una dirección de correo no corporativa (Verizon, 2025).

Una década de IA en la sombra, en línea de tiempo

  1. Nov 2022

    Lanzamiento público de ChatGPT

    Adopción masiva en semanas, sin marco corporativo.

  2. Ene 2023

    Amazon avisa a su plantilla

    Un jurista interno pide no pegar "ninguna información confidencial de Amazon" en ChatGPT.

  3. Feb 2023

    JPMorgan restringe ChatGPT

    Bloqueo mundial. Siguen Goldman Sachs, Citi, BoA, Wells Fargo, Deutsche Bank.

  4. Mar 2023

    El Garante italiano prohíbe ChatGPT

    Primera decisión de una autoridad europea de protección de datos contra un LLM.

  5. Abr 2023

    Tres fugas en Samsung en 20 días

    Código fuente, secuencias de prueba y transcripciones pegadas en ChatGPT por ingenieros de Samsung Semiconductor.

  6. May 2023

    Samsung y Apple prohíben la IA pública

    2 may.: bloqueo global en Samsung. 18 may.: Apple restringe ChatGPT y Copilot.

  7. Jun 2023

    Mata v. Avianca

    Primera sanción a abogados por citar jurisprudencia ficticia generada por ChatGPT.

  8. Ene 2024

    Publicación de ISO/IEC 42001

    Primera norma global de sistema de gestión de IA.

  9. Feb 2024

    Air Canada condenada

    El BCCRT establece la responsabilidad de la empresa por las alucinaciones de su chatbot.

  10. Ago 2024

    Entrada en vigor del EU AI Act

    Reglamento (UE) 2024/1689 aplicable progresivamente hasta 2028.

  11. Dic 2024

    OpenAI multado con 15 M€ en Italia

    Confirmación europea del riesgo regulatorio.

  12. Feb 2025

    Primeras obligaciones del EU AI Act

    Prohibiciones del artículo 5 y obligación de AI literacy aplicables.

  13. Ago 2025

    Reglas GPAI aplicables

    Obligaciones sobre modelos de IA de uso general.

Marcos de gobernanza aplicables

  • [NIST AI Risk Management Framework (AI RMF 1.0)](https://www.nist.gov/itl/ai-risk-management-framework): (enero de 2023, EE. UU.) — Voluntario, agnóstico sectorialmente, cuatro funciones.
  • [ISO/IEC 42001:2023](https://www.iso.org/standard/42001): (diciembre de 2023, internacional) — Primera norma global certificable para sistemas de gestión de IA (AIMS).
  • [EU AI Act — Reglamento (UE) 2024/1689](https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai): (agosto de 2024, Unión Europea) — Enfoque por niveles de riesgo. Sanciones de hasta 35 M€ o el 7 % de la facturación mundial para prácticas prohibidas.
  • [OECD AI Principles](https://oecd.ai/en/ai-principles): (2019, actualizado en 2024) — Primer estándar intergubernamental.

El marco más operativo es el NIST AI RMF:

  1. 1

    Govern

    Definir políticas, roles y responsabilidades de IA. Cartografiar los usos.

  2. 2

    Map

    Inventariar las herramientas de IA en uso (oficiales y en la sombra) y su contexto de negocio.

  3. 3

    Measure

    Cuantificar los riesgos (seguridad, cumplimiento, sesgo) y evaluar los controles.

  4. 4

    Manage

    Priorizar, mitigar y monitorizar continuamente la postura.

En España, la AEPD y la AESIA (Agencia Española de Supervisión de la Inteligencia Artificial, creada por Real Decreto 729/2023) completan el marco RGPD para los sistemas de IA.

Detectar la IA en la sombra

Seis métodos complementarios:

  • Logs SSO e identidad: (Okta, Entra ID, Google Workspace) — limite: las cuentas personales escapan por construcción.
  • Descubrimiento SaaS automatizado: vía una plataforma de SaaS Management como Kabeen, que cruza SSO, señales de navegador y datos de gasto.
  • Extensión de navegador / agente de endpoint: para capturar peticiones a dominios de IA desde el puesto de trabajo.
  • DLP IA / CASB: para inspeccionar las peticiones salientes.
  • Análisis de gastos: (tarjetas corporativas, notas de gasto, facturas Stripe de proveedores IA).
  • Encuestas anónimas: para medir la brecha entre uso declarado y real.

Construir una política de IA en 6 pasos

  1. 1

    Descubrir

    Inventario continuo de toda herramienta de IA en uso (oficial y en la sombra).

  2. 2

    Clasificar

    Categorizar por nivel de riesgo (NIST AI RMF) y tipo de dato.

  3. 3

    Aprobar

    Catálogo de herramientas validadas con DPA y garantías anti-reentrenamiento.

  4. 4

    Encuadrar

    Política de uso, formación, AI literacy (obligatoria por el AI Act).

  5. 5

    Equipar

    Desplegar SSO, DLP IA, monitorización de prompts, CASB.

  6. 6

    Medir

    KPIs continuos: uso gobernado, incidentes evitados, ROI productividad.

KPIs de un programa de IA en la sombra

  • Tasa de uso gobernado: % de usuarios de IA que pasa por herramientas aprobadas y SSO.
  • Volumen de prompts sensibles bloqueados: (DLP IA, tendencia semanal).
  • Cobertura de formación AI literacy: (requisito del AI Act).
  • Incidentes IA declarados vs. detectados: .
  • Coste IA por usuario activo: (comparable con TCO).

Gartner estima que más del 40 % de las organizaciones sufrirá un incidente de seguridad o cumplimiento vinculado a la IA en la sombra en 2030, y que el 75 % de los empleados adquirirá, modificará o creará tecnología fuera del alcance de TI en 2027, frente al 41 % en 2022 (Gartner, noviembre de 2025).

Cómo ayuda Kabeen frente a la IA en la sombra

Kabeen extiende su plataforma de SaaS Management al caso de la IA en la sombra. La plataforma combina descubrimiento por SSO, señales de navegador, datos de gasto e inventario de cuentas IA para entregar de forma continua: un inventario actualizado de toda herramienta IA en uso (oficial y en la sombra), una vista por usuario, equipo, aplicación y nivel de riesgo, la detección de cuentas personales y una base factual para auditorías de seguridad, compras y EU AI Act. El objetivo no es prohibir la IA: es hacer visible el uso y orientar a cada empleado hacia la alternativa gobernada correcta.

Preguntas frecuentes

¿Qué es la IA en la sombra en términos sencillos?

+

La IA en la sombra es el uso por parte de los empleados de herramientas de IA generativa — ChatGPT, Claude, Gemini, Copilot, Midjourney, copilotos de código, agentes — sin validación ni supervisión de TI. Ejemplos: un comercial que pega un deal memo en ChatGPT, un desarrollador que envía código propietario a Claude, un equipo de marketing que pasa un mockup confidencial por Midjourney. Es la versión IA generativa del Shadow IT.

¿Cuál es la diferencia entre Shadow IT e IA en la sombra?

+

El Shadow IT cubre las aplicaciones SaaS, scripts o bases desplegadas sin TI. La IA en la sombra añade una dimensión propia: los datos enviados a un modelo público pueden utilizarse para entrenar al modelo, reaparecer en la respuesta a otro usuario y son resistentes al derecho de supresión del RGPD. El riesgo dominante pasa de los costes ocultos a la fuga de datos, las alucinaciones y los derechos de autor.

¿Cuál es la magnitud real de la IA en la sombra en empresa?

+

Según Microsoft & LinkedIn (2024), el 75 % de los trabajadores del conocimiento ya usa IA generativa en el trabajo, y el 78 % aporta sus propias herramientas. Cyberhaven mide que el 73,8 % del uso de ChatGPT en el trabajo se realiza desde cuentas no corporativas, y Harmonic Security observa que el 87 % de los incidentes de fuga de datos sensibles pasan por ChatGPT Free. IBM determina que el 20 % de las organizaciones ya ha sufrido una brecha vinculada a la IA en la sombra, con un sobrecoste medio de 670 000 USD por incidente.

¿Cuáles son los principales riesgos?

+

Ocho riesgos se acumulan: (1) fuga de datos confidenciales (código, PII, M&A), (2) alucinaciones con consecuencias jurídicas (Mata v. Avianca, Air Canada), (3) cumplimiento RGPD y EU AI Act, (4) derechos de autor y secretos empresariales, (5) vulnerabilidades técnicas LLM (OWASP LLM Top 10), (6) ciberamenazas amplificadas (phishing IA, deepfakes), (7) costes ocultos y redundancia, (8) pérdida de visibilidad operativa.

¿Cómo detectar la IA en la sombra en mi empresa?

+

Seis métodos complementarios: logs SSO e identidad (Okta, Entra ID), descubrimiento SaaS automatizado vía una plataforma de SaaS Management que cruza SSO + señales de navegador + datos de gasto, extensión de navegador o agente de endpoint, DLP IA / CASB para inspeccionar prompts sensibles, análisis de gastos y encuestas anónimas para medir la brecha entre uso declarado y real.

¿Qué dice el EU AI Act sobre la IA en la sombra?

+

El Reglamento (UE) 2024/1689 entró en vigor el 1 de agosto de 2024. Desde el 2 de febrero de 2025 quedan prohibidas las prácticas del artículo 5 y todas las organizaciones deben asegurar un nivel suficiente de AI literacy entre sus empleados. Las obligaciones para modelos de IA de uso general (GPAI) aplican desde el 2 de agosto de 2025. El reglamento se aplica al uso de IA gobernado o no — la IA en la sombra no exime a la empresa del cumplimiento.

¿Hay que prohibir ChatGPT y herramientas similares?

+

No, en la inmensa mayoría de los casos. Una prohibición sin alternativa aumenta la ocultación: Software AG mide que el 46 % de los usuarios se niega a renunciar a sus herramientas incluso si se prohíben. Lo correcto es proponer una alternativa gobernada (ChatGPT Enterprise, Copilot for Microsoft 365, Claude for Work, Gemini Enterprise, Mistral) que cubra los casos de uso legítimos, formar a los empleados sobre los datos prohibidos y desplegar la detección de cuentas personales.

¿Qué marcos de gobernanza utilizar?

+

Cuatro referencias estructuran la gobernanza de IA en empresa: (1) el NIST AI RMF 1.0 (Govern, Map, Measure, Manage); (2) la norma certificable ISO/IEC 42001:2023; (3) el EU AI Act, obligatorio en la UE; (4) los OECD AI Principles. En España, la AEPD y la AESIA completan el marco RGPD aplicado a IA.

¿Necesita ayuda para mapear su panorama TI?

Kabeen le ayuda a inventariar, analizar y optimizar su portafolio de aplicaciones.

Probar gratis