Ir al contenido
RRHH & People Operations

Por qué fracasan los proyectos de IA en RRHH

Los proyectos de IA no fracasan por tecnologia sino por falta de reglas. Por que el modelo operativo importa mas que el modelo de lenguaje.

Bert Gogolin
Bert Gogolin
CEO y fundador 6 min de lectura

De un vistazo - Por que fracasan los proyectos de IA

  • La mayoria de los proyectos de IA no fracasan por la tecnologia. Fracasan porque nadie definio que decisiones puede tomar la IA y cuales deben permanecer en manos humanas.
  • La AI-Paradox: las empresas adoptan IA ampliamente, pero solo una fraccion obtiene resultados medibles - falta la arquitectura de decisiones.
  • MIT Sloan Management Review (2024) concluyo que el 70% de las iniciativas de IA corporativa no logran pasar del piloto a la produccion.
  • Ratio de inversion: por cada euro en tecnologia, las empresas necesitan cuatro a cinco euros en procesos, governance y gestion del cambio. La tecnologia sola aborda aproximadamente el 20% del problema.
  • El Decision Layer descompone los procesos de negocio en pasos de decision documentados - humano, reglas o IA - convirtiendo experimentos en sistemas productivos.

Un piloto que funcionó - y luego desapareció

Un departamento de RRHH inicia un proyecto de IA. Un agent procesa bajas por enfermedad: lee el documento, extrae datos, verifica contra el convenio colectivo, crea una propuesta para SAP SuccessFactors. En el piloto todo funciona. La precisión es del 94%. El tiempo de procesamiento baja de 45 minutos a 5 minutos.

Seis meses después: el agent sigue en el piloto. No porque la tecnología haya fallado. Sino porque nadie respondió las preguntas que vienen después del piloto:

¿Quién aprueba el asiento que propone el agent? ¿Qué pasa si el agent se equivoca - quién es responsable? ¿La lógica aplica también para la sede de Múnich, donde rige otro convenio colectivo? ¿Puede el agent iniciar automáticamente un procedimiento de reintegración en caso de baja prolongada, o eso debe decidirlo un humano? ¿Qué dice el comité de empresa?

No son preguntas técnicas. Son preguntas de decisión. Y mientras no se respondan, cada agent es un experimento.

La AI-Paradox: Alta inversión, bajo retorno

Lo que ocurre aquí no es un caso aislado. Es un patrón que se repite en empresas de todos los tamaños.

La mayoría de empresas ya usan IA - al menos en forma de chatbots, licencias de Copilot o primeros pilotos. Pero pocas reportan que la IA aporta un beneficio medible a los resultados.

Esta es la AI-Paradox: la tecnología funciona. Pero los beneficios no llegan.

Las explicaciones habituales se quedan cortas. “Los datos no son suficientemente buenos” - a veces es cierto, pero la calidad de datos es un problema resoluble. “El modelo no es suficientemente bueno” - improbable cuando se ve lo que pueden los modelos de lenguaje actuales. “Los empleados temen a la IA” - la gestión del cambio importa, pero no explica por qué también proyectos bien acompañados se estancan.

La causa real es otra: falta la arquitectura de decisiones.

Lo que falta: No mejor tecnología - sino reglas claras

Un agent de IA que procesa bajas toma entre cinco y diez decisiones individuales por documento: ¿Está completo el documento? ¿Qué convenio colectivo aplica? ¿Hay una baja prolongada? ¿Debe iniciarse un procedimiento de reintegración? ¿En qué sistema se contabiliza?

Para cada una de estas decisiones debe estar predefinido:

¿Decide un humano? Por ejemplo en bajas prolongadas, porque un procedimiento de reintegración requiere discrecionalidad y el comité de empresa tiene derecho de participación.

¿Decide un conjunto de reglas? Por ejemplo en la verificación del convenio colectivo - el convenio es claro, la regla se aplica de forma consistente. Aquí el agente es un ejecutor - no porque no pueda más, sino porque no hay nada que interpretar.

¿Decide la IA de forma autónoma? El agente interpreta documentos, clasifica situaciones, evalúa contexto. Esto no es if-then-else - es capacidad de juicio dentro de límites definidos. El Confidence Routing controla: alta confianza y bajo riesgo significa decisión autónoma; baja confianza o alto riesgo significa escalación a una persona.

Sin esta asignación, el agent es una caja negra. Produce resultados, pero nadie puede rastrear en qué base. Ningún auditor lo acepta. Ningún comité de empresa lo aprueba. Ningún departamento de compliance lo libera.

La ratio de inversión: Por qué la tecnología sola no basta

La experiencia muestra una regla que sorprende a muchos: por cada euro en tecnología, las empresas necesitan cuatro a cinco euros en procesos, governance y gestión del cambio.

Esto significa: quien tiene un presupuesto de IA de 500.000 EUR e invierte todo en licencias y modelos, aborda aproximadamente el 20% del problema. El 80% restante - diseño de procesos, reglas de decisión, acuerdos de empresa, formaciones, estructuras de governance - queda sin trabajar.

Esto explica la AI-Paradox. No es un problema de tecnología. Es un problema de inversión. O más precisamente: un problema de distribución de inversión.

Qué significa esto para RRHH

Los procesos de RRHH son especialmente vulnerables a la AI-Paradox. Por tres razones:

Primero: Alta complejidad regulatoria. Convenios colectivos, acuerdos de empresa, leyes específicas por país, directrices internas. Un solo proceso como el procesamiento de bajas puede tocar cinco conjuntos de reglas diferentes.

Segundo: Participación. En empresas con comité de empresa, este tiene derecho de información y consulta conforme al Art. 64 del Estatuto de los Trabajadores cuando los sistemas de IA procesan datos de empleados. Sin una lógica de decisión transparente, el comité no puede ejercer estos derechos ni verificar qué hace el agent.

Tercero: Responsabilidad. Si un agent genera una nómina errónea, la responsabilidad no es del agent. Es de la empresa. Sin un camino de decisión documentado, no queda claro dónde se originó el error.

Primero hacer visibles las decisiones, después automatizar

La solución no es menos IA. La solución es más estructura.

Antes de que un agent automatice un proceso, el proceso debe descomponerse en pasos de decisión individuales. Para cada paso se define: humano, reglas o IA. Esta asignación no es estática - puede cambiar cuando cambia un conjunto de reglas o cuando el agent gana experiencia.

El Decision Layer implementa exactamente esto. Se sitúa entre el AI Agent y el sistema destino y descompone cada proceso de negocio en pasos de decisión documentados. Cada paso tiene una asignación clara, un conjunto de reglas versionado y un Audit Trail completo.

El resultado: de un experimento de IA surge un sistema productivo. Uno que el comité de empresa puede verificar, que el auditor acepta y que funciona consistentemente en todas las sedes.

Patrones de fracaso en proyectos de IA

Patron de fracasoCausa raizSolucion
El piloto funciona pero nunca escalaReglas de decision no definidas - nadie responde las preguntas post-pilotoDecision Layer: definir asignacion humano/reglas/IA por paso antes de escalar
Alta adopcion sin impacto medibleInversion concentrada en tecnologia, procesos y governance descuidadosRedistribuir: 20% tecnologia, 80% procesos, governance, gestion del cambio
El comite de empresa bloquea el despliegueDecisiones de IA no trazables, sin Audit TrailTransparencia a nivel de arquitectura: reglas versionadas, Audit Trail completo
El agente produce errores inexplicablesDecisiones de caja negra sin camino de decision documentadoConfidence Routing: umbrales de escalado, Human-in-the-Loop en casos limite
Resultados distintos en distintas sedesLos conjuntos de reglas varian pero la logica del agente es uniformeMotor de reglas consciente de la ubicacion con reglas versionadas y testeables

eBook gratuito: IA en RRHH

Checklist EU AI Act, framework de decisiones, perspectiva del comité de empresa y evaluación de preparación - el manual de gobernanza para responsables de RRHH.

Descargar gratis

Conclusión

La AI-Paradox no es un destino inevitable. Es la consecuencia de una mala asignación: demasiada inversión en tecnología, poca en las reglas que determinan lo que la tecnología puede hacer.

Las empresas que entienden esto no invierten en el próximo modelo de lenguaje - invierten en su arquitectura de decisiones. Y exactamente ahí está la diferencia entre un piloto de IA que acaba en un cajón y un sistema que funciona en producción.

Decision Layer - resumen y ejemplos

Tres tipos de decisiones: Cuándo el humano, cuándo la IA

Bert Gogolin

Bert Gogolin

Director General, Gosign

AI Governance Briefing

IA empresarial, regulación e infraestructura - una vez al mes, directamente de mi parte.

Sin spam. Cancelable en cualquier momento. Política de privacidad

AI-Paradox Decision Layer HR Governance Enterprise AI
Compartir este artículo

Preguntas frecuentes

¿Qué es la AI-Paradox?

La AI-Paradox describe la observación de que la mayoría de empresas ya usan IA, pero solo una fracción obtiene beneficios medibles. La causa no es la tecnología, sino la falta de arquitectura de decisiones: nadie ha definido qué decisiones puede tomar la IA y cuáles deben permanecer en manos humanas.

¿Por qué fracasan los proyectos de IA en RRHH?

Los procesos de RRHH consisten en cientos de decisiones individuales - desde el procesamiento de bajas hasta ajustes salariales. Sin una asignación clara por paso de decisión (humano, reglas o IA), cada piloto es un caso aislado que no escala.

¿Cuál es la diferencia entre tecnología IA y arquitectura de decisiones?

Tecnología IA es el modelo de lenguaje (ChatGPT, Claude, Llama, gpt-oss). Arquitectura de decisiones es la capa superior: quién puede decidir qué, en base a qué reglas, con qué documentación. El Decision Layer implementa esta arquitectura técnicamente.

¿Cuánto invertir en governance respecto a tecnología?

La experiencia muestra: por cada euro en tecnología, las empresas necesitan cuatro a cinco euros en procesos, governance y gestión del cambio. Quien solo invierte en tecnología aborda aproximadamente el 20% del problema.

¿Qué proceso debería manejar su primer agente?

Deje su email - recibirá su enlace personal de reserva al instante.