Eventos
IA, soberanía digital y open source: más allá del ‘hype’
En un encuentro organizado por MCPro, Red Hat e Intel, un panel de altos responsables tecnológicos del tejido industrial, energético, del sector público y del ámbito de la investigación analiza los desafíos de la adopción de la IA generativa, el papel del open source contra el vendor lock-in y la nueva batalla por la infraestructura, la energía y el talento.
Una «evolución acelerada», no una revolución
“No me gusta hablar de revolución”, comenzaba Gustavo de Porcellinis, director editorial de MCPro, al inicio de una mesa redonda ejecutiva celebrada en Bilbao. “Yo creo que ya podemos hablar de evolución y que la inteligencia artificial… funciona como acelerador más que como revolucionador”.
Este matiz marca el tono de la conversación: la tecnología, incluida la IA, no es un evento disruptivo que aparece de la nada, sino un catalizador que está acelerando de forma vertiginosa una transformación que ya estaba en marcha.
El debate, patrocinado por Red Hat e Intel, reunió a líderes tecnológicos del tejido empresarial e institucional vasco para analizar las tensiones reales que esta aceleración está provocando. Para ello, la mesa contó con la visión de los anfitriones, Fernando Rodríguez y Roger Moreno, ambos account executives de Red Hat, y Mario Buritica, director de Desarrollo de negocio Gran Cuenta de Intel.

Junto a ellos, se sentaron representantes clave de la industria y la infraestructura tecnológica: Xabier Muruaga, global head of AI & Data de Iberdrola; Javier Nieto, head of Artificial Intelligence and Advanced Analytics for Industry 4.0 en Gestamp; y Alex Etxeberria, director de aDi.
El sector público y la investigación aplicada estuvieron representados por Imanol Sauto, director de Seguridad y Tecnología de Lantik (Diputación Foral de Bizkaia); Manu Roibal, director de Infraestructuras y Ciberseguridad de Bilbao TIK; Javier Gómez-Arrue Azpiazu, director de Navarrabiomed; y Raúl Miñon, responsable de Data y Computación en TECNALIA.
Cerrando el círculo la visión académica fue aportada por Urtza Garay, vicerrectora de Grado y de Transformación Digital de la EHU, y Esteban Stafford Fernández, director de Área de Transformación Digital y profesor de Ciberseguridad de la Universidad de Cantabria.
Sobre la mesa, tres pilares interconectados: la adopción de la inteligencia artificial más allá del hype; la modernización de infraestructuras en un entorno híbrido y multicloud; y el papel del open source como garante de la soberanía, la flexibilidad y el control.
Como apuntó de Porcellinis, la popularización de la IA “ha abierto más posibilidades y también… algunos peligros”, especialmente en “seguridad, confidencialidad, etc.”. Es en esta encrucijada donde el open source se vuelve crucial, conectando con “toda esta corriente de explicabilidad, de controlar, de soberanía… tanto del dato como del código”.
El doble filo del open source
El primer gran tema de debate fue el papel del open source (OSS) como motor de innovación. Históricamente visto como una elección ideológica, el panel demostró que el debate se ha desplazado a un cálculo pragmático de riesgo, talento y viabilidad económica.

La barrera más citada no es la tecnología, sino la cultura y la formación. Urtza Garay, vicerrectora de Grado y de Transformación Digital de la EHU, fue tajante: “En la universidad la mayor dificultad es la formación. Los técnicos no están formados”. Esta brecha se extiende hasta la base de usuarios: “hasta los propios estudiantes… me han dicho ‘por favor no quites Microsoft’”.
Esteban Stafford Fernández, director de Área de Transformación Digital de la Universidad de Cantabria, respaldó esta visión, recordando una directiva de su propia institución hace dos décadas: “Nuestro servicio de informática de hecho hace 20 años nos dijo ‘va a ser todo Microsoft, así que es lo que hay—’”.
Esta dependencia cultural de las soluciones propietarias genera una inercia que frena la adopción del OSS en la administración pública. Javier Gómez-Arrue Azpiazu, director de Navarrabiomed, articuló el principal temor de los gestores públicos. El “gran problema” del open source, afirmó, es el “síndrome XKCD”: el miedo a que toda una infraestructura crítica dependa de “un proyecto que mantiene un tío en Nebraska”.

Desde la administración, explicó Gómez-Arrue, se puede optar por el OSS “siempre y cuando haya un Google… alguien detrás que está desarrollando”, aunque su gran valor es que “permite auditar el código y saber lo que hace, que no es una caja negra”.
Sin embargo, esta visión del técnico como barrera fue rebatida. Manu Roibal, director de Infraestructuras y Ciberseguridad de Bilbao TIK, ofreció un contrapunto crucial. “En nuestro caso hace 15 años teníamos 90% de servidores Windows, hoy hemos superado ya el 50% de servidores Linux”, relató. “Para mí los técnicos no es un problema. De hecho si hay un problema probablemente el problema sea nuestro por no haberles dado carrera profesional o haberlos formado”.
Para Bilbao TIK, la decisión se ha simplificado: “Nosotros cuando elegimos software la dimensión open source no existe como tal. Existe si es bueno o es malo. Si es open source estupendo y si no lo es pues también estupendo”.

Fue Javier Nieto, head of Artificial Intelligence and Advanced Analytics for Industry 4.0 en Gestamp, quien completó la evolución del debate, pasando del riesgo a la necesidad. Para la industria, el open source «balancea un poco el mercado de una forma más justa».
El caso de Gestamp en IoT es paradigmático. «Si yo tuviese algo como un Kafka… y tuviese que tirar solamente herramientas propietarias, estoy seguro que nos pegaron unas clavadas que sería imposible hacer lo que hacemos hoy», sentenció Nieto. «Todos los sistemas que tenemos hoy en día conectados, todas las plantas generando teras y teras de datos todos los días, es que sería inviable».

La visión de la infraestructura la aportó Alex Etxeberria, director de aDi. Para él, la base de la tecnología ya es abierta: “Ya veo ahora por debajo los componentes casi todos ya son open source y lo que están haciendo gran parte de las compañías es integrarlas y ofrecértelas con un sabor para ti”. El debate, señaló, se ha movido a las capas de virtualización y las soluciones verticalizadas.
El riesgo se ha invertido. El verdadero peligro estratégico ya no es que falle el «tío de Nebraska»; es el coste prohibitivo de un ecosistema propietario que hace «inviable» la innovación a escala industrial.
La paradoja del «cloud lock-in»: soberanía es portabilidad
El debate sobre el vendor lock-in se ha desplazado. Ya no se trata de servidores o sistemas operativos; el nuevo campo de batalla es la plataforma de nube. Los hiperescalares han adoptado el lenguaje del open source, pero lo utilizan para crear nuevas y más sutiles formas de dependencia.
Raúl Miñon, responsable de Data y Computación en TECNALIA, identificó la táctica: “son clásicos ejemplos Hadoop y Kubernetes, que todos los cloud tienen un Kubernetes o Hadoop vitaminado con su flavor”.

Aquí es donde la soberanía digital adquiere un nuevo significado. Xabier Muruaga, global head of AI & Data en Iberdrola, ofreció una visión de primera mano sobre cómo una multinacional gestiona este riesgo. Muruaga reconoció que Iberdrola es multicloud, utilizando tanto Azure como AWS. Esta postura multicloud no es una elección, sino una estrategia defensiva nacida de «la necesidad de evitar el vendor locking».
¿La solución? Estandarizar no en el proveedor de nube, sino en la capa de open source subyacente que permite la portabilidad.
«Nuestros equipos están formados en tecnologías abiertas como Postgres y Kubernetes, lo que nos permite mantener la portabilidad y evitar dependencias», explicó Muruaga. «Y con esa plantilla… en Azure AKS, en AWS EKS con Postgres pueden montar casi cualquier cosa».
La soberanía moderna, para Iberdrola, no es solo poseer data centers (que los tienen), sino garantizar que las cargas de trabajo sean portátiles. Su lealtad no es a un proveedor u otro, sino al stack OSS. Esta confianza en el código abierto es tal que Muruaga mencionó usar soluciones open source para observabilidad y control de LLMs. El motivo es una inversión directa del miedo al «tío de Nebraska»: «como mucho si desaparece vamos a poder seguir teniendo la solución». El control reside en la posesión del código.
IA generativa: del «cuñado digital» a la crisis de gobernanza
Si el open source es el cimiento, la IA generativa es el fenómeno que está sacudiendo el edificio. El consenso del panel fue claro: tras el hype inicial, ha llegado la «resaca» y la cruda realidad de la gobernanza.
Esteban Stafford Fernández, de la Universidad de Cantabria, describió la estrategia de los proveedores como un «movimiento maestro… de Microsoft de darte gratis al Copilot». Javier Nieto de Gestamp coincidió: «ya has mordido».

El resultado ha sido una explosión de «Shadow IT» que ha obligado a los departamentos de tecnología a actuar. Tanto Nieto como Xabier Muruaga (Iberdrola) confirmaron que en sus organizaciones han tenido que restringir el acceso público a estas herramientas para garantizar la seguridad y la gobernanza
El riesgo es real y doble: fuga de datos y creación de procesos de negocio fuera de control. Manu Roibal (Bilbao TIK) lo bautizó como «el access del siglo XXI». Xabier Muruaga describió la pesadilla de cualquier CISO: «te encuentras con portátiles en los que los empleados empiezan a utilizar herramientas de uso público para procesos de negocio». El resultado: «están enviando datos… súper sensibles, sin ningún control y todo desgobernado».
Esta estrategia de «regalar» la herramienta crea una crisis de gobernanza que, paradójicamente, solo se puede resolver adquiriendo la versión empresarial, gobernada y de pago.
Más allá del riesgo de seguridad, está el reto humano. Javier Gómez-Arrue Azpiazu (Navarrabiomed) acuñó el término perfecto para la IA generativa: un «cuñado digital». “A día de hoy, si lo dice la IA es verdad”, advirtió, y la gente carece de la visión crítica para discernir.
Raúl Miñon de TECNALIA profundizó en esto: la IA «te doró la píldora», pero reveló un hack de prompting para combatirlo: «yo cada vez que tengo que contrastar alguna idea… siempre le pongo la frase ‘por favor, ten pensamiento crítico’ y funciona».

Finalmente, está el coste. Raúl Miñon señaló la «tasa de IA»: «cada vez que uno fabricante dice que su producto tiene día le sube un 35 % el precio». Un coste que no siempre se justifica. Gustavo de Porcellinis relató la anécdota de directivos que usan la IA para tareas triviales como «pónmelo más verde», quemando recursos de cómputo sin valor añadido.
El uso real, además, dista de ser puramente profesional. Roger Moreno, account executive de Red Hat, aportó un dato estadístico sorprendente: un porcentaje masivo, del 60% al 70%, del uso actual de la IA generativa es «de autoayuda y de ayuda psicológica».
Los cuellos de botella físicos: energía y estándares
La conversación viró entonces hacia los cimientos físicos y lógicos de esta nueva era: la energía para alimentar los modelos y los estándares para que los datos tengan sentido.
Gustavo de Porcellinis introdujo el tema con una anécdota reveladora sobre Satya Nadella, CEO de Microsoft: «tenía un montón de tarjetas Nvidia en un cuarto porque no las podía enchufar, porque no tenían suficiente energía».
Xabier Muruaga reveló la conexión directa entre la política energética y la infraestructura de nube: los Acuerdos de Compra de Energía (PPAs). «Nuestro mayor cliente de Iberdrola a nivel mundial ahora mismo es Amazon». España, y en concreto Aragón, se está convirtiendo en un hub estratégico de data centers para Europa gracias a su capacidad de generación de energía renovable.

Mientras la eficiencia del hardware mejora —Mario Buritica, director desarrollo de negocio gran cuenta de Intel, señaló que «cada nueva generación de procesadores… hay una mejora significativa en el performance por vatio»—, la demanda de cómputo crece exponencialmente.
Junto al cuello de botella físico de la energía, existe uno lógico: la falta de estándares de datos.
Javier Gómez-Arrue Azpiazu volvió a usar el sector salud como ejemplo perfecto. Se puede intentar unificar los datos sanitarios, pero el problema es el origen: «es que yo tengo Siemens, es que yo tengo General Electric, y ya no puedes comparar las imágenes».
El problema, explicó, no es el formato de archivo (el estándar DICOM existe), sino la semántica de la captura. «La forma que tiene el equipo de obtener la imagen… no tiene nada que ver… El tono de gris… es una cosa en un General Electric, es otra distinta». No se puede entrenar un modelo de IA fiable para detectar tumores si cada máquina propietaria define «tumor» con un «tono de gris» diferente.
El futuro: del agente al asistente, y el reto de «aprender»
¿Dónde está el valor real de la IA en la empresa? El consenso fue claro: no en los LLMs generalistas, sino en la IA «estrecha», especializada y determinista.
Javier Nieto describió cómo Gestamp utiliza la IA en producción. Sus modelos no son generativos, sino «muy específicos» para control de calidad: «temas de calidad, yo tengo una máquina de corte láser… tengo todos los agujeros bien hechos». Estos modelos son «bastante más deterministas» y, crucialmente, «tienen que tener más de 90% de aquí [accuracy]» para ser desplegados.
Xabier Muruaga aportó el vocabulario clave para esta distinción: «Mezclamos asistente, que es al final un flujo de trabajo determinista… Y luego está el tema agente, que la gente ya es no determinista». Descubrió que los negocios suelen pedir «agentes» cuando lo que realmente necesitan (y lo único gestionable) es un «asistente».

La verdadera frontera de la investigación, según Raúl Miñon, es el «ecosistema… de diferentes agentes que interactúan entre sí manera autónoma». Y el nuevo reto no es ponerlos en marcha, sino pararlos: «identificar cuándo interrumpir» y aplicar un concepto eficaz de «human in the loop».
Este cambio de paradigma impacta directamente en la base del conocimiento: la educación. Esteban Stafford Fernández planteó el dilema existencial del docente: «¿Qué vamos a hacer?» cuando un alumno le puede pedir a una máquina «hazme un trabajo de esto y te lo hace así sin más».
El moderador, Gustavo de Porcellinis, lo resumió en una pregunta para los estudiantes: «¿Vosotros qué queréis, aprobar o aprender?».
Stafford Fernández ofreció la analogía más profunda: «antes la aritmética era una cosa fundamental… para que no te engañasen en la tienda… Hoy en día la aritmética está superada». La IA está haciendo lo mismo con tareas cognitivas que considerábamos la base del trabajo de conocimiento. El nuevo reto no es enseñar a producir la respuesta, sino a validarla con pensamiento crítico, la habilidad más escasa en la era del «cuñado digital».
Conclusión: los frenos son culturales, no tecnológicos
La mesa redonda concluyó con un retorno al punto de partida. La tecnología, ya sea open source o IA, es un «acelerador». Las herramientas están disponibles, son más potentes que nunca y, en muchos casos, más accesibles. Los verdaderos frenos ya no son tecnológicos, sino humanos, culturales y procedimentales.
Imanol Sauto, director de Seguridad y Tecnología de Lantik, lamentó que, aunque el potencial es enorme, «estamos quedando un poquito arriba», en la capa fácil, porque el verdadero reto es «bajar abajo a las tripas y meterse [en] las viejas formas de hacer», pero «no tenemos tiempo porque esto va muy rápido”.

Javier Gómez-Arrue Azpiazu identificó este freno en la administración: «nos encantan los documentos firmados, vivimos del procedimiento administrativo… Hemos enfocado fatal la digitalización».
La transformación digital acelerada por la IA no fracasará por falta de algoritmos, energía o plataformas. Fracasará, o se ralentizará, por la incapacidad de las organizaciones para transformar sus propios «procedimientos administrativos» y por una cultura que, como los estudiantes de la universidad, sigue pidiendo «por favor no quites Microsoft».
-
A FondoHace 4 díasPíldora roja o píldora azul
-
NoticiasHace 7 díasAgentic Workflows, el proyecto abierto de GitHub Next ya está disponible
-
EntrevistasHace 5 días«Es crucial conectar la IA a conocimiento interno y a los flujos reales de trabajo»
-
NoticiasHace 6 díasASUS presenta el portátil para empresas, ExpertBook B3 G2

