Por qué fracasan los proyectos de IA en RRHH
Los proyectos de IA no fracasan por tecnologia sino por falta de reglas. Por que el modelo operativo importa mas que el modelo de lenguaje.
De un vistazo - Por que fracasan los proyectos de IA
- La mayoria de los proyectos de IA no fracasan por la tecnologia. Fracasan porque nadie definio que decisiones puede tomar la IA y cuales deben permanecer en manos humanas.
- La AI-Paradox: las empresas adoptan IA ampliamente, pero solo una fraccion obtiene resultados medibles - falta la arquitectura de decisiones.
- MIT Sloan Management Review (2024) concluyo que el 70% de las iniciativas de IA corporativa no logran pasar del piloto a la produccion.
- Ratio de inversion: por cada euro en tecnologia, las empresas necesitan cuatro a cinco euros en procesos, governance y gestion del cambio. La tecnologia sola aborda aproximadamente el 20% del problema.
- El Decision Layer descompone los procesos de negocio en pasos de decision documentados - humano, reglas o IA - convirtiendo experimentos en sistemas productivos.
Un piloto que funcionó - y luego desapareció
Un departamento de RRHH inicia un proyecto de IA. Un agent procesa bajas por enfermedad: lee el documento, extrae datos, verifica contra el convenio colectivo, crea una propuesta para SAP SuccessFactors. En el piloto todo funciona. La precisión es del 94%. El tiempo de procesamiento baja de 45 minutos a 5 minutos.
Seis meses después: el agent sigue en el piloto. No porque la tecnología haya fallado. Sino porque nadie respondió las preguntas que vienen después del piloto:
¿Quién aprueba el asiento que propone el agent? ¿Qué pasa si el agent se equivoca - quién es responsable? ¿La lógica aplica también para la sede de Múnich, donde rige otro convenio colectivo? ¿Puede el agent iniciar automáticamente un procedimiento de reintegración en caso de baja prolongada, o eso debe decidirlo un humano? ¿Qué dice el comité de empresa?
No son preguntas técnicas. Son preguntas de decisión. Y mientras no se respondan, cada agent es un experimento.
La AI-Paradox: Alta inversión, bajo retorno
Lo que ocurre aquí no es un caso aislado. Es un patrón que se repite en empresas de todos los tamaños.
La mayoría de empresas ya usan IA - al menos en forma de chatbots, licencias de Copilot o primeros pilotos. Pero pocas reportan que la IA aporta un beneficio medible a los resultados.
Esta es la AI-Paradox: la tecnología funciona. Pero los beneficios no llegan.
Las explicaciones habituales se quedan cortas. “Los datos no son suficientemente buenos” - a veces es cierto, pero la calidad de datos es un problema resoluble. “El modelo no es suficientemente bueno” - improbable cuando se ve lo que pueden los modelos de lenguaje actuales. “Los empleados temen a la IA” - la gestión del cambio importa, pero no explica por qué también proyectos bien acompañados se estancan.
La causa real es otra: falta la arquitectura de decisiones.
Lo que falta: No mejor tecnología - sino reglas claras
Un agent de IA que procesa bajas toma entre cinco y diez decisiones individuales por documento: ¿Está completo el documento? ¿Qué convenio colectivo aplica? ¿Hay una baja prolongada? ¿Debe iniciarse un procedimiento de reintegración? ¿En qué sistema se contabiliza?
Para cada una de estas decisiones debe estar predefinido:
¿Decide un humano? Por ejemplo en bajas prolongadas, porque un procedimiento de reintegración requiere discrecionalidad y el comité de empresa tiene derecho de participación.
¿Decide un conjunto de reglas? Por ejemplo en la verificación del convenio colectivo - el convenio es claro, la regla se aplica de forma consistente. Aquí el agente es un ejecutor - no porque no pueda más, sino porque no hay nada que interpretar.
¿Decide la IA de forma autónoma? El agente interpreta documentos, clasifica situaciones, evalúa contexto. Esto no es if-then-else - es capacidad de juicio dentro de límites definidos. El Confidence Routing controla: alta confianza y bajo riesgo significa decisión autónoma; baja confianza o alto riesgo significa escalación a una persona.
Sin esta asignación, el agent es una caja negra. Produce resultados, pero nadie puede rastrear en qué base. Ningún auditor lo acepta. Ningún comité de empresa lo aprueba. Ningún departamento de compliance lo libera.
La ratio de inversión: Por qué la tecnología sola no basta
La experiencia muestra una regla que sorprende a muchos: por cada euro en tecnología, las empresas necesitan cuatro a cinco euros en procesos, governance y gestión del cambio.
Esto significa: quien tiene un presupuesto de IA de 500.000 EUR e invierte todo en licencias y modelos, aborda aproximadamente el 20% del problema. El 80% restante - diseño de procesos, reglas de decisión, acuerdos de empresa, formaciones, estructuras de governance - queda sin trabajar.
Esto explica la AI-Paradox. No es un problema de tecnología. Es un problema de inversión. O más precisamente: un problema de distribución de inversión.
Qué significa esto para RRHH
Los procesos de RRHH son especialmente vulnerables a la AI-Paradox. Por tres razones:
Primero: Alta complejidad regulatoria. Convenios colectivos, acuerdos de empresa, leyes específicas por país, directrices internas. Un solo proceso como el procesamiento de bajas puede tocar cinco conjuntos de reglas diferentes.
Segundo: Participación. En empresas con comité de empresa, este tiene derecho de información y consulta conforme al Art. 64 del Estatuto de los Trabajadores cuando los sistemas de IA procesan datos de empleados. Sin una lógica de decisión transparente, el comité no puede ejercer estos derechos ni verificar qué hace el agent.
Tercero: Responsabilidad. Si un agent genera una nómina errónea, la responsabilidad no es del agent. Es de la empresa. Sin un camino de decisión documentado, no queda claro dónde se originó el error.
Primero hacer visibles las decisiones, después automatizar
La solución no es menos IA. La solución es más estructura.
Antes de que un agent automatice un proceso, el proceso debe descomponerse en pasos de decisión individuales. Para cada paso se define: humano, reglas o IA. Esta asignación no es estática - puede cambiar cuando cambia un conjunto de reglas o cuando el agent gana experiencia.
El Decision Layer implementa exactamente esto. Se sitúa entre el AI Agent y el sistema destino y descompone cada proceso de negocio en pasos de decisión documentados. Cada paso tiene una asignación clara, un conjunto de reglas versionado y un Audit Trail completo.
El resultado: de un experimento de IA surge un sistema productivo. Uno que el comité de empresa puede verificar, que el auditor acepta y que funciona consistentemente en todas las sedes.
Patrones de fracaso en proyectos de IA
| Patron de fracaso | Causa raiz | Solucion |
|---|---|---|
| El piloto funciona pero nunca escala | Reglas de decision no definidas - nadie responde las preguntas post-piloto | Decision Layer: definir asignacion humano/reglas/IA por paso antes de escalar |
| Alta adopcion sin impacto medible | Inversion concentrada en tecnologia, procesos y governance descuidados | Redistribuir: 20% tecnologia, 80% procesos, governance, gestion del cambio |
| El comite de empresa bloquea el despliegue | Decisiones de IA no trazables, sin Audit Trail | Transparencia a nivel de arquitectura: reglas versionadas, Audit Trail completo |
| El agente produce errores inexplicables | Decisiones de caja negra sin camino de decision documentado | Confidence Routing: umbrales de escalado, Human-in-the-Loop en casos limite |
| Resultados distintos en distintas sedes | Los conjuntos de reglas varian pero la logica del agente es uniforme | Motor de reglas consciente de la ubicacion con reglas versionadas y testeables |
eBook gratuito: IA en RRHH
Checklist EU AI Act, framework de decisiones, perspectiva del comité de empresa y evaluación de preparación - el manual de gobernanza para responsables de RRHH.
Descargar gratisConclusión
La AI-Paradox no es un destino inevitable. Es la consecuencia de una mala asignación: demasiada inversión en tecnología, poca en las reglas que determinan lo que la tecnología puede hacer.
Las empresas que entienden esto no invierten en el próximo modelo de lenguaje - invierten en su arquitectura de decisiones. Y exactamente ahí está la diferencia entre un piloto de IA que acaba en un cajón y un sistema que funciona en producción.

Bert Gogolin
Director General, Gosign
AI Governance Briefing
IA empresarial, regulación e infraestructura - una vez al mes, directamente de mi parte.