Ir al contenido
Infraestructura & Tecnología

LLM Self-Hosting empresarial: Azure, GCP, On-Premise

Cómo alojar modelos de lenguaje en la propia infraestructura. DeepSeek, Llama, Mistral Self-Hosted. Azure, GCP, On-Premise, híbrido.

Dieter Gogolin
Dieter Gogolin
CEO y cofundador 4 min de lectura

Por qué self-hosting?

Para muchos clientes empresariales, la cuestión no es si se utiliza IA, sino dónde se procesan los datos. Al utilizar APIs en la nube (OpenAI, Anthropic, Google), los datos abandonan la infraestructura propia. Para sectores regulados (finanzas, sanidad, sector público) esto puede ser un criterio de exclusión.

De un vistazo - LLM Self-Hosting empresarial

  • El self-hosting mantiene todos los datos dentro de la red corporativa - sin procesamiento por terceros, control total sobre modelo, datos e inferencia.
  • Los modelos open source (Llama, Mistral, DeepSeek, gpt-oss) pueden desplegarse en Azure ML, GCP Vertex AI, servidores GPU propios o configuraciones híbridas.
  • El dimensionamiento de GPU es el principal factor de coste: un modelo 7B funciona en una GPU, un modelo 70B requiere múltiples GPUs o cuantización.
  • El enrutamiento modelo-agnóstico permite que los agentes usen modelos self-hosted para datos sensibles y Cloud APIs para tareas no críticas.
  • Gartner (2024) prevé que el 45% de los despliegues de IA en sectores regulados operarán en infraestructura privada en 2027, frente al 20% en 2023.

Self-hosting significa: el modelo de lenguaje se ejecuta en la infraestructura del cliente. Ningún dato abandona la red corporativa. Ningún tercero procesa las solicitudes. Control total sobre modelo, datos y procesamiento.

En España, esto es especialmente relevante para empresas que operan bajo el RGPD y la LOPDGDD (Ley Orgánica 3/2018 de Protección de Datos Personales y garantía de los derechos digitales), así como para organizaciones sujetas al Esquema Nacional de Seguridad (ENS) que trabajan con la Administración Pública.

Que modelos se pueden alojar internamente?

Los modelos open-source pueden operarse en la propia infraestructura:

Llama (Meta): Diversos tamanos (8B, 70B, 405B parametros). Potente, bien documentado, gran comunidad.

Mistral: Modelo europeo. Mistral 7B, Mixtral 8x7B. Buena relacion calidad-precio, eficiente.

DeepSeek: Diversas variantes incluyendo DeepSeek-R1 para tareas de razonamiento. Relacion calidad-precio especialmente buena.

gpt-oss: El primer modelo open source de OpenAI. gpt-oss-120b (117B parametros, arquitectura MoE, ejecutable en 1 GPU de 80 GB, licencia Apache 2.0) y gpt-oss-20b para aplicaciones edge.

Los modelos propietarios (Claude, ChatGPT, Gemini) no estan disponibles para self-hosting, pero pueden utilizarse via API con procesamiento en la UE.

En la arquitectura modelo-agnostica, un agente puede utilizar multiples modelos: self-hosted para datos sensibles, API en la nube para tareas no criticas. El enrutamiento es basado en reglas y esta configurado en el Decision Layer.

Opciones de despliegue

Azure: Los LLMs pueden desplegarse en Azure ML o ejecutarse en VMs GPU dedicadas (NC-Series, ND-Series). Integracion con Azure Entra ID para autenticacion y control de acceso. Procesamiento en centros de datos de la UE (West Europe, North Europe).

GCP: Despliegue via Vertex AI o en VMs GPU dedicadas (A2, G2). Integracion con Google Cloud IAM. Procesamiento en centros de datos de la UE (europe-west1, europe-west4). La region europe-southwest1 (Madrid) es relevante para empresas espanolas con requisitos de residencia de datos nacional.

On-Premise: Servidores propios con GPUs NVIDIA (A100, H100, RTX 4000 Ada). Operacion en centros de datos certificados. Maximo control, sin dependencia de la nube. En Espana existen centros de datos certificados en Madrid, Barcelona y otras ciudades principales que cumplen con el ENS y la normativa de proteccion de datos.

Hibrido: Combinacion de self-hosted y nube. Cargas de trabajo sensibles en local, cargas no criticas en la nube. Gobernanza unificada en ambos entornos.

Criterio Self-Hosted Cloud API
Data ResidencyControl total, datos permanecen on-premiseDepende del proveedor, regiones UE disponibles
Elección de modeloSolo open source (Llama, Mistral, DeepSeek)Propietarios + open source via API
Coste a escalaMenor (coste GPU fijo, sin tarifas por token)Mayor (precio por token escala linealmente)
Esfuerzo operativoAlto (gestión GPU, actualizaciones, HA)Bajo (gestionado por proveedor)
LatenciaBaja (red local)Variable (depende de la red)

eBook gratuito: Infraestructura de IA

Build, Buy, Hybrid - infraestructura conforme al EU AI Act con B/B/H-Framework y 7-Layer Reference Architecture.

Descargar gratis

Consideraciones arquitectonicas

Dimensionamiento de GPU: El tamano del modelo determina los requisitos de GPU. Un modelo de 7B se ejecuta en una sola GPU. Un modelo de 70B necesita multiples GPUs o cuantizacion. El dimensionamiento correcto depende del caso de uso.

Optimizacion de inferencia: Tecnicas como la cuantizacion (4-bit, 8-bit), batching y optimizacion de cache KV reducen los requisitos de recursos con una perdida de calidad aceptable.

Alta disponibilidad: Para sistemas productivos: servidores GPU redundantes, balanceo de carga, failover automatico. Sin punto unico de fallo.

Actualizaciones de modelos: Las nuevas versiones de modelos deben probarse antes de pasar a produccion. Un entorno de staging para pruebas de modelos es parte de la infraestructura.

Mas sobre este tema: Infraestructura de IA

Mas sobre estrategias de hosting: Hosting IA estrategias enterprise

Agendar reunion. Le mostramos la estrategia de hosting optima para sus requisitos.

Bert Gogolin

Bert Gogolin

Director General, Gosign

AI Governance Briefing

IA empresarial, regulación e infraestructura - una vez al mes, directamente de mi parte.

Sin spam. Cancelable en cualquier momento. Política de privacidad

LLM Hosting Self-Hosted DeepSeek Llama Mistral Azure GCP
Compartir este artículo

Preguntas frecuentes

Que modelos de lenguaje se pueden alojar internamente?

Los modelos open-source como Llama (Meta), Mistral, DeepSeek, gpt-oss y sus derivados pueden operarse en la propia infraestructura. Los modelos propietarios como Claude (Anthropic) y ChatGPT (OpenAI) solo estan disponibles via API.

Donde se pueden ejecutar LLMs self-hosted?

En Azure (via Azure ML o VMs dedicadas), en GCP (via Vertex AI o VMs dedicadas), en servidores propios (On-Premise en centros de datos certificados) o en modo hibrido.

Cuanto cuesta el self-hosting de LLMs?

Los costes dependen del modelo, el hardware y el volumen de uso. Los servidores GPU (NVIDIA A100/H100) son el mayor factor de coste. Con alto volumen de uso, el self-hosting suele ser mas economico que el uso basado en API.

Es relevante la residencia de datos en Espana?

Si. El RGPD y la LOPDGDD exigen que los datos personales se traten conforme a la normativa europea. El self-hosting en centros de datos en la UE o en Espana garantiza la soberania de datos y facilita el cumplimiento del ENS (Esquema Nacional de Seguridad).

¿Qué proceso debería manejar su primer agente?

Deje su email - recibirá su enlace personal de reserva al instante.