Volver al glosario
L
Definición

LLM Definición IT

Large Language Model: modelo de inteligencia artificial entrenado sobre inmensos corpus de texto, capaz de comprender y generar lenguaje natural.

Un LLM (Large Language Model, o Gran Modelo de Lenguaje) es un modelo de inteligencia artificial entrenado sobre inmensos corpus textuales para comprender y generar lenguaje natural. Es el ladrillo fundador de la revolución GenAI desencadenada por ChatGPT en noviembre de 2022, y el motor subyacente de la mayoría de los agentes IA en empresa.

Los LLMs modernos — GPT-4, Claude 4, Gemini 2, Llama 3, Mistral Large — cuentan varios cientos de miles de millones a varios trillones de parámetros y son entrenados sobre cientos de miles de millones de tokens.

Cómo funciona un LLM

Un LLM reposa sobre la arquitectura Transformer (introducida por Google en 2017). A muy alto nivel:

  • Tokenización: el texto de entrada es cortado en tokens (~3-4 caracteres cada uno).
  • Embeddings: cada token es convertido en vector numérico.
  • Atención: el mecanismo central que permite al modelo ponderar la importancia de cada token frente a los demás.
  • Capas: apilamiento de bloques Transformer (a menudo 80-120 en los grandes modelos).
  • Predicción: en cada etapa, el modelo predice la distribución de probabilidades del token siguiente.
  • Muestreo: un token es sacado al azar según esta distribución (parámetro temperature).

Las grandes familias de LLM

  • Modelos propietarios: GPT-4/GPT-5 (OpenAI), Claude (Anthropic), Gemini (Google).
  • Modelos open weights: Llama (Meta), Mistral, DeepSeek, Qwen.
  • Modelos razonamiento: o1, o3 (OpenAI), Claude Sonnet/Opus con extended thinking.
  • Modelos multimodales: GPT-4o, Gemini 2 Flash, Claude 4.
  • Modelos especializados: medicina (Med-PaLM), código (Codex, Claude Code), jurídico.

Ciclo de vida de un LLM

  • Pre-entrenamiento: sobre un corpus masivo, semanas de cálculo sobre miles de GPUs.
  • Fine-tuning: .
  • RLHF / RLAIF: Reinforcement Learning from Human/AI Feedback.
  • Inferencia: uso en producción, facturado al token.

Costos y límites

  • Costo de inferencia: facturado al token.
  • Latencia: de algunos cientos de ms a varios segundos por respuesta.
  • Contexto limitado: ventana de 100k a 2M de tokens según los modelos. Más allá: usar RAG.
  • Knowledge cutoff: .
  • [Alucinaciones](/es/glossary/hallucination-ia): .

Patrones de uso en empresa

  • Chat y copiloto: .
  • [RAG](/es/glossary/rag): .
  • [Agentes IA](/es/glossary/agent-ia): .
  • Generación de código: Copilot, Cursor, Claude Code.
  • Extracción y estructuración: .
  • Síntesis y resumen: .

LLM local vs. LLM cloud

Tres opciones de despliegue:

  • API pública: (OpenAI, Anthropic, Google).
  • Cloud privado: modelos alojados en un hyperscaler (AWS Bedrock, Azure OpenAI, Vertex AI) o en cloud soberano.
  • Local / on-premise: modelos open weights (Llama, Mistral) desplegados sobre infraestructura interna.

Gobernanza de los LLMs en empresa

Sin marco, el uso de los LLMs bascula en Shadow IA. Las buenas prácticas:

  • Licencia empresa: con DPA.
  • [SSO](/es/glossary/sso): y registro de las conversaciones.
  • Política de uso: documentada y formaciones.
  • Catálogo de los LLMs autorizados: .
  • Conformidad [ISO 42001](/es/glossary/iso-42001): y AI Act.

Kabeen detecta automáticamente los LLMs y servicios GenAI utilizados en el SI.

Preguntas frecuentes

¿Qué es un LLM?

+

Un LLM (Large Language Model) es un modelo de inteligencia artificial entrenado sobre inmensos corpus de texto para comprender y generar lenguaje natural. Es el ladrillo fundador de la revolución GenAI desencadenada por ChatGPT en noviembre de 2022. Los LLMs modernos (GPT-4, Claude, Gemini, Llama, Mistral) cuentan varios cientos de miles de millones a varios trillones de parámetros.

¿Cómo funciona un LLM?

+

Un LLM reposa sobre la arquitectura Transformer y predice, en cada etapa, el token siguiente más probable según el contexto. El texto es tokenizado, convertido en vectores (embeddings), luego procesado por un apilamiento de capas de atención. A escala de cientos de miles de millones de parámetros, esta simple predicción de la palabra siguiente hace emerger capacidades de razonamiento, traducción, código y síntesis.

¿Diferencia entre un LLM, la GenAI y un agente IA?

+

La GenAI es la familia general de los modelos generativos (texto, imagen, audio, video). Un LLM es un tipo específico de GenAI dedicado al texto. Un agente IA es un sistema de software que utiliza un LLM como motor de razonamiento, lo acopla a herramientas y a un bucle de ejecución para automatizar tareas concretas. Los tres se encajan: agente IA ⊃ LLM ⊂ GenAI.

¿Hay que desplegar sus LLMs en local o en cloud?

+

Tres opciones: API pública (OpenAI, Anthropic, Google) — simple y eficiente pero los datos salen; cloud privado (Azure OpenAI, Bedrock, Vertex AI, cloud soberano) — buen compromiso aislamiento/rendimiento; despliegue local on-premise de modelos open weights (Llama, Mistral, DeepSeek) — soberanía máxima pero rendimiento menor que los mejores modelos cerrados. La elección depende de los datos tratados, de la reglamentación aplicable (RGPD, secreto profesional) y del presupuesto.

¿Necesita ayuda para mapear su panorama TI?

Kabeen le ayuda a inventariar, analizar y optimizar su portafolio de aplicaciones.

Probar gratis