Entrevistas
«La cultura se come a la estrategia en el desayuno…. y al compliance de postre»
Alfredo Zurdo
Head of Digital Change
Entelgy
Entelgy se ha posicionado en los últimos años como una de las consultoras tecnológicas que mejor han entendido que la IA no va solo de modelos y APIs, sino de personas, cultura y gobernanza. Bajo el lema “Human driven technology”, su propuesta de valor pivota sobre un equilibrio muy consciente entre capacidades avanzadas en IA, cloud y datos, y una gestión del cambio que ponga la adopción real en el centro.
En ese contexto, la figura de Alfredo Zurdo, Head of Digital Change de Entelgy, se ha convertido en una de las voces más interesantes a la hora de bajar a tierra qué implica de verdad desplegar IA en organizaciones complejas.
En esta conversación con MCPRO, Alfredo Zurdo aborda sin eufemismos el impacto del Reglamento europeo de IA (RIA) en las compañías españolas, dejando claro que marca el final de la “IA sin gobernanza” y que tratarlo como un simple tema legal es una receta segura para el fracaso.
Desde su perspectiva, la gobernanza de IA es, ante todo, un cambio cultural profundo: no basta con crear comités o nombrar un Chief AI Officer si la organización sigue operando en modo “a ver si cuela”. La cultura, recuerda, “se come al compliance de postre”, y las empresas que no lo entiendan a tiempo terminarán gestionando crisis, no ventajas competitivas.
La entrevista también entra de lleno en algunos de los debates más incómodos alrededor de la IA generativa y los agentes autónomos: quién firma cuando una decisión algorítmica causa daño, cómo incorporar la sostenibilidad (huella de carbono de los modelos) a la gobernanza corporativa o qué significa realmente “alfabetización en IA” cuando el RIA la exige para perfiles tan distintos como un operario de planta y un CFO.
[MCPRO] ¿Cuántas empresas españolas realmente entienden que el Reglamento europeo de IA (RIA) no es solo un tema legal, sino que marca el fin de la «IA sin gobernanza»? ¿Cómo ves tú desde Digital Change que las empresas están abordando la «gobernanza de IA» como un cambio cultural y organizacional, no solo como un asunto de compliance legal? ¿Están creando Chief AI Officers, estableciendo políticas internas, o simplemente esperando a que llegue una multa?
[Alfredo Zurdo] Seamos honestos, la mayoría de las empresas españolas sigue tratando el RIA como un PDF que leer «cuando toque». Lo que veo desde Entelgy es una polarización preocupante: empresas creando Chief AI Officers y comités éticos, frente a una mayoría silenciosa operando en modo «a ver si cuela», esperando la primera multa ejemplarizante.
La gobernanza de IA no es un departamento ni un documento, es un cambio cultural profundo. La cultura se come a la estrategia en el desayuno… y al compliance como postre. Las empresas que lo entiendan ahora tendrán ventaja competitiva; las que no, tendrán abogados muy ocupados.
[MCPRO] ¿Cómo convencemos a una organización de que implementar IA es un problema de personas y cultura primero, no de tecnología? ¿Cuál es el error mayor que ves en las empresas; saltarse la fase de alfabetización y adopción? ¿Y cómo convences a un CEO de que invertir en «cambio» (workshops, mentorías, comunicación, liderazgo de cambio) es tan crítico como invertir en la herramienta misma?
[Alfredo Zurdo] Según McKinsey, el 70% de las transformaciones digitales fracasan. Y no es por la tecnología, sino porque nadie preparó a las personas para el cambio. El error más frecuente es lo que llamo el «síndrome del juguete nuevo»: comprar la herramienta más brillante, desplegarla con “fanfarria” y descubrir tres meses después que nadie la usa bien.
¿Cómo convenzo a un CEO? Le pregunto: «¿De qué te sirve un Ferrari si tu equipo no sabe conducir?» Invertir en gestión del cambio no es un gasto “soft”, es el seguro de que tu inversión tecnológica genera valor real.
[MCPRO] ¿Cómo gestiona una empresa la responsabilidad ética y legal cuando tiene agentes IA autónomos tomando decisiones, si todavía no se ha establecido quién es el «responsable del despliegue»? Desde tu posición de experto en gestión del cambio, ¿cómo orientas a una organización sobre quién es responsable (en términos legales, operacionales y éticos) cuando un agente IA toma una decisión sobre aprobar un crédito, suspender un acceso a datos o generar mal un informe que luego genera daño? ¿Es un vacío que el RIA todavía no cierra del todo?
[Alfredo Zurdo] Esta es la pregunta del millón, literalmente. Muchas empresas despliegan agentes IA sin responder antes: «Si esto falla, ¿quién firma?». El RIA sí define roles claros (proveedor, responsable del despliegue) y el artículo 26 detalla las obligaciones. El marco legal existe, pero la aplicación práctica en cadenas complejas sigue siendo terreno pantanoso.
Por eso insistimos en ir más allá del cumplimiento: comités éticos con poder real, supervisión humana en decisiones críticas y documentar todo. La trazabilidad no es burocracia; es lo que te permite dormir tranquilo cuando un cliente pregunte «¿por qué me denegasteis el crédito?».
[MCPRO] Si algunos modelos generan 50× más emisiones que otros según complejidad, ¿por qué apenas ninguna empresa española está midiendo el «IA carbon footprint» de sus operaciones, y cómo entra eso en la gobernanza corporativa? ¿Cómo ves desde Entelgy que la «sostenibilidad de IA» entra (o no entra) en la agenda de transformación digital? ¿Debería ser un criterio de selección de herramientas?
[Alfredo Zurdo] Aquí hay una contradicción fascinante: empresas con memorias de sostenibilidad impecables desplegando modelos de IA sin conocer su huella de carbono. Según la Universidad de Múnich, algunos modelos generan hasta 50 veces más emisiones que otros. ¿Cuántas empresas españolas incluyen el consumo energético como criterio de selección? Prácticamente ninguna. La buena noticia: técnicas como la cuantización ya permiten reducir el consumo significativamente.
La sostenibilidad debe entrar en la gobernanza de IA: elegir modelos apropiados, optimizar prompts, evitar consultas innecesarias. No se trata de dejar de usar IA; se trata de usarla con cabeza.
[MCPRO] El RIA obliga a «alfabetización en IA» para todos, pero ¿qué significa exactamente «alfabetización»? Para un operario de fábrica, ¿es igual que para un CFO?
[Alfredo Zurdo] Aquí está el elefante en la habitación: el RIA exige alfabetización desde febrero de 2025, pero no define qué significa exactamente. Lo que está claro es lo que NO debería ser: un PowerPoint genérico de dos horas igual para todos. Un operario necesita saber cuándo confiar en el sistema automatizado y cuándo gritar «para». Un CFO necesita entender por qué «lo que dice la IA» no es defensa legal válida.
En Entelgy lo llamamos alfabetización estratificada: que cada persona sepa qué puede y qué no puede hacer con estas herramientas en su contexto. Porque la alternativa, “IA en la sombra», ya la estamos viendo. Y no es bonita.
-
OpiniónHace 7 díasSostenibilidad y derechos digitales en la nueva era del business travel
-
A FondoHace 4 díasIrán, la primera prueba a gran escala de la guerra asistida por IA
-
NoticiasHace 7 díasPerplexity Ask 2026: nuevas herramientas de IA para empresas y una alternativa a OpenClaw
-
NoticiasHace 4 díasAMD quiere impulsar una nueva categoría de PC para IA local: Agent Computer

