Entrevistas
«OpenShift es ya infraestructura crítica, no experimento»
Red Hat OpenShift ha dejado de ser una plataforma para desarrolladores avanzados y se ha convertido en la columna vertebral de las operaciones críticas de las grandes empresas. Con un 44% de cuota de mercado en infraestructura de contenedores y unos ingresos que superan los 1.900 millones de dólares con un crecimiento anual superior al 30%, la plataforma encarna hoy la convergencia entre la nube híbrida, la inteligencia artificial y la soberanía digital. Para explorar este momento de madurez y transformación, hablamos con tres protagonistas directos: Miguel Ángel Díaz, OpenShift Country Leader para España y Portugal en Red Hat, Jorge Sentis Rodriguez, EMEA Strategic Alliance Manager en Intel y Álex Bento, Director del Departamento ISG de Lenovo. Tres perspectivas, una misma convicción: la plataforma importa.

Miguel Ángel Díaz, Red Hat
Miguel Ángel Díaz lleva años siendo la cara visible de OpenShift en el mercado ibérico. Desde su posición como OpenShift Country Leader para España y Portugal, ha acompañado la transformación de una tecnología entonces disruptiva hasta convertirla en infraestructura crítica de sectores como la banca, el retail o la logística. Ahora, con el foco puesto en la inteligencia artificial, lidera también la estrategia de OpenShift AI en EMEA.
Una década de contenedores
[MCPRO] Has liderado la evangelización de OpenShift en España durante años. ¿Qué ha cambiado en la percepción de las empresas desde 2015 hasta hoy?
[Miguel Ángel Díaz] El cambio ha sido radical. En las primeras reuniones teníamos que explicar qué era eso de los contenedores, básicamente procesos de Linux, y qué podía aportar en términos de agilidad y escalabilidad. Ver cómo se escalaban automáticamente los contenedores de una aplicación generaba sorpresa y admiración. Hoy podemos decir que cada vez que sacas dinero de un cajero automático, pasa por OpenShift; cada vez que compras ropa online, pasa por OpenShift. Se ha convertido en la plataforma de ejecución de cargas críticas y productivas de numerosas empresas. Y en lo que respecta a Red Hat, se nos dejó de ver exclusivamente como proveedor de Linux para pasar a ser pieza clave en las plataformas del cliente, ya sean arquitecturas clásicas o cloud native.
Liderazgo con datos
[MCPRO] Red Hat OpenShift tiene un 44% de cuota de mercado según el informe de IDC de diciembre de 2025. ¿Qué factores han sido determinantes para consolidar ese liderazgo frente a otras alternativas de Kubernetes?
[Miguel Ángel Díaz] Esos datos vienen del informe de IDC sobre el mercado mundial de software de infraestructura de contenedores. Además, nuestro CFO confirmó en la presentación de resultados del cuarto trimestre de 2025 que los ingresos de OpenShift son de 1.900 millones de dólares con un crecimiento anual de más del 30%. Son cifras de las que estar orgulloso. Los factores clave se resumen en que nuestros clientes ven valor real en lo que reciben. El soporte empresarial es estrictamente necesario si quieres poner cargas productivas que afecten a tu cuenta de resultados. Pero además, frente a otras soluciones vanilla de Kubernetes, creo que la apuesta por suministrar una plataforma de desarrollo de aplicaciones, más allá de la pura orquestación, ha sido clave. Las compañías necesitan muchas más piezas para hacer realidad la creación, puesta en producción y gestión del ciclo de vida de sus aplicaciones. Y por último añadiría el valor de ser contribuyentes de primer nivel en los proyectos open source que conforman OpenShift.
La alternativa a VMware
[MCPRO] OpenShift Virtualization está ganando tracción como alternativa a plataformas tradicionales de virtualización. ¿En qué punto estamos de poder reemplazar entornos clásicos en empresas críticas?
[Miguel Ángel Díaz] La respuesta es sí, podemos reemplazar las soluciones de virtualización clásicas, aunque quizás yo no sea del todo objetivo. Por eso prefiero remitirme a casos como el del banco Emirates NBD, con 20 millones de clientes, que ha migrado miles de máquinas virtuales a Red Hat OpenShift Virtualization. O al hecho de que CRN declaró a Red Hat OpenShift Virtualization ganador de sus Tech Innovator Awards 2025. Los hechos hablan por sí solos.
OpenShift AI y soberanía
[MCPRO] Con tu rol como AI Platform Leader para EMEA, ¿cómo está evolucionando OpenShift AI y qué la diferencia de otras plataformas MLOps del mercado?
[Miguel Ángel Díaz] Si en algo ha demostrado solvencia Red Hat es en ser visionario y exitoso en la creación de plataformas tecnológicas: hace más de 25 años con RHEL, hace más de 10 con OpenShift y con Ansible Automation Platform. Nuestro foco ahora es crear la plataforma para las cargas de IA, no solo las predictivas tradicionales sino también las generativas. Estamos haciendo el mismo camino que al principio de OpenShift: una plataforma 100% open source con las mejores piezas integradas, participando activamente en comunidades clave como vLLM o llm-d. Si a eso le sumamos nuestra experiencia en nube híbrida, podemos ofrecer a las empresas la capacidad de decidir dónde están sus datos. La soberanía digital es un tema de plena actualidad en Europa y OpenShift está en el centro de esa conversación.

Jorge Sentis Rodriguez, Intel
Jorge Sentis Rodriguez coordina desde Intel la alianza estratégica con Red Hat en la región EMEA. Una relación que supera los 25 años de historia conjunta y que hoy encuentra su momento más relevante en la convergencia entre los procesadores Intel Xeon y la plataforma OpenShift para cargas de inteligencia artificial empresarial. Su misión: hacer que la IA sea accesible, segura y soberana para las organizaciones europeas.
25 años de alianza
[MCPRO] Intel y Red Hat tienen un largo historial de colaboración. ¿Cómo describirías hoy esa relación?
[Jorge Sentis Rodriguez] Durante más de 25 años, Intel y Red Hat han trabajado conjuntamente en avances de ingeniería que abarcan infraestructura software-defined y plataformas estándar de la industria para mejorar la agilidad y flexibilidad del centro de datos. Ambas compañías desarrollan arquitecturas de red ágiles y preparadas para la nube basadas en plataformas de alto rendimiento e infraestructura abierta. Intel colabora estrechamente con Red Hat para integrar las tecnologías más recientes con un alto grado de optimización, de modo que los clientes obtengan arquitecturas cloud de primer nivel, contenedores optimizados y soluciones plenamente integradas.
Xeon como motor de IA
[MCPRO] Con la creciente demanda de inferencia y entrenamiento de modelos de lenguaje, ¿qué ventajas concretas aporta la arquitectura Intel a la ejecución de cargas de IA en OpenShift?
[Jorge Sentis Rodriguez] La adopción de IA se ha acelerado drásticamente con la expansión de la IA generativa y la IA agéntica. Aunque las GPU han dominado la infraestructura, el incremento de costes y la escasez están impulsando a las organizaciones a buscar alternativas que mantengan el rendimiento sin comprometer la experiencia del cliente. La colaboración entre Intel y Red Hat combina la potencia de los procesadores Intel Xeon con la escalabilidad de Red Hat OpenShift AI, ofreciendo una base segura, flexible y preparada para desplegar soluciones avanzadas de IA en entornos empresariales. Para facilitar aún más la adopción, Intel ha creado diversos AI Quickstarts, ejemplos prácticos de casos de uso reales que pueden desplegarse rápidamente sobre Xeon y OpenShift, acelerando el desarrollo y la salida al mercado.
AMX en producción real
[MCPRO] Intel Advanced Matrix Extensions (AMX) tiene un impacto directo en OpenShift. ¿En qué escenarios habéis visto mayor impacto en producción?
[Jorge Sentis Rodriguez] Intel AMX es un acelerador de IA integrado en los procesadores Intel Xeon Scalable de 4a generación que permite realizar operaciones de matrices directamente en el hardware de la CPU sin depender de aceleradores externos. AMX soporta formatos de baja precisión como BF16 e INT8, lo que permite aumentar el rendimiento manteniendo una precisión comparable a FP32. Los principales casos de uso donde AMX ha mostrado impacto real incluyen sistemas de recomendación, procesamiento de lenguaje natural, IA generativa, IA agéntica y visión por computador. Otra tecnología clave es MRDIMM, que incrementa más de un 37% el ancho de banda de memoria respecto a RDIMM, resolviendo el cuello de botella del KV-cache en inferencia de modelos de lenguaje grande. Xeon demuestra valor práctico en inferencia, RAG, procesamiento seguro de datos y IA agéntica, ofreciendo una plataforma funcional y potente incluso sin requerir GPU.
Soberanía por diseño
[MCPRO] ¿Cuáles son los principales retos de los clientes en EMEA en relación con la soberanía digital y cómo trabajan Intel y Red Hat para resolverlos?
[Jorge Sentis Rodriguez] En Europa, la soberanía de datos se ha convertido en una prioridad debido al incremento de tensiones geopolíticas, la dependencia de proveedores no europeos y nuevas regulaciones como DORA, NIS2, el AI Act y el Cloud Act, que están impulsando estrategias de soberanía por diseño. Los mayores riesgos suelen encontrarse en las capas inferiores de la infraestructura, donde los clientes tienen menos visibilidad y control. La contribución de Intel se centra en proporcionar confianza reforzada por hardware. Gracias al Confidential Computing, Intel permite proteger los datos no solo cuando están almacenados o en tránsito, sino también cuando se están procesando activamente. Tecnologías como Intel TDX ofrecen aislamiento hardware de máquinas virtuales, protegiendo datos y aplicaciones incluso frente al hipervisor. En paralelo, Red Hat aporta una capa abierta y estandarizada que permite aplicar políticas de soberanía de forma coherente en OpenShift. La combinación de OpenShift Confidential Containers con Intel TDX y GPU confidenciales permite ejecutar inferencia de IA de manera segura y verificable en entornos empresariales.

Álex Bento, Lenovo ISG
Álex Bento dirige el Departamento ISG (Infrastructure Solutions Group) de Lenovo en Iberia, la división que acompaña a empresas y administraciones públicas en sus proyectos de infraestructura para inteligencia artificial. Su propuesta va más allá del hardware: combina servidores ThinkSystem con GPU de última generación, la tecnología de refrigeración líquida Neptune y la orquestación de OpenShift para construir lo que Lenovo denomina un ecosistema integrado de IA soberana.
Democratizar la IA
[MCPRO] Lenovo ISG ha crecido en Iberia impulsado por infraestructuras de IA. ¿Qué papel juega OpenShift en esa estrategia de democratización de la inteligencia artificial?
[Álex Bento] La visión de Lenovo ISG pasa por habilitar y extender el uso de la IA en las administraciones y empresas en Iberia. Para ello necesitamos un diseño de solución óptimo y a medida. Aquí OpenShift es la plataforma que acelera y potencia los casos de uso de inteligencia artificial. A través de su gestión unificada integra con las aplicaciones y repositorios de información de las organizaciones, simplificando la evolución de entornos físicos o virtuales a entornos contenerizados, ejecutando sus cargas de IA tanto on-premise como en nube pública. Desde Lenovo materializamos todas estas capacidades a través de un ecosistema integrado: combinamos nuestro hardware optimizado, la línea de servidores ThinkSystem con GPU y CPU de última generación, para acelerar el time-to-value de los casos de uso de IA. Con las arquitecturas de referencia logramos que todo esté integrado, testeado, compatible, fácil de operar y de rápido despliegue. Ofrecemos también workshops de co-creación donde demostramos casos de uso específicos por industria alrededor de estas capacidades conjuntas.
Evaluación activa de virtualización
[MCPRO] ¿Qué porcentaje de vuestros clientes está evaluando OpenShift Virtualization como alternativa y cuál es vuestra propuesta diferencial?
[Álex Bento] Más que una alternativa, los clientes están buscando la plataforma del futuro. Aproximadamente el 35-40% de nuestros clientes empresariales está evaluando activamente OpenShift Virtualization. Los sectores más activos son el financiero, con el foco en la modernización de aplicaciones; las telcos, en la consolidación de infraestructura NFV; y el retail, en la migración desde vSphere a OpenShift. La propuesta de valor de Lenovo en este escenario es diferencial: hardware certificado con perfiles específicos para OpenShift Virtualization, servicios de migración con garantías de rendimiento post-migración y un modelo comercial flexible que incluye entornos de migración, prueba y producción en modo pago por uso a través de nuestro programa TruScale.
Refrigeración líquida Neptune
[MCPRO] La tecnología Neptune de refrigeración líquida es clave para racks de alta densidad con GPU. ¿Cómo se integra con arquitecturas OpenShift para IA y qué casos de éxito destacarías?
[Álex Bento] La tecnología Lenovo Neptune es un diferencial competitivo en centros de datos modernos por su capacidad de eliminar hasta el 100% del calor de componentes críticos mediante refrigeración líquida directa. La integración de Neptune con Red Hat OpenShift AI crea una infraestructura de alto rendimiento diseñada para eliminar los cuellos de botella térmicos en procesos de IA generativa. Para la puesta en producción, la tecnología reduce el consumo de energía en un 40%, lo que permite escalar microservicios de inferencia en OpenShift con una huella de carbono significativamente menor. Dos casos de éxito muy relevantes: el primero es GPU Solutions, que habilita a empresas españolas un modelo de AI Fast Start, utilizando servidores refrigerados por agua para ejecutar agentes de inteligencia artificial de forma soberana y segura desde España. El segundo es el Barcelona Supercomputing Centre, que utiliza tecnologías Lenovo Neptune para validar el rendimiento en HPC e IA, demostrando que la refrigeración líquida es la única vía para sostener las cargas de trabajo de investigación científica más exigentes.
El Edge inteligente
[MCPRO] ¿Cómo veis la convergencia entre edge computing, OpenShift y vuestras soluciones ThinkEdge para sectores como retail o industria?
[Álex Bento] La convergencia entre el Edge Computing, Red Hat OpenShift y la familia ThinkEdge de Lenovo es la respuesta al crecimiento masivo de datos generados fuera del centro de datos tradicional. Esta combinación permite procesar información en tiempo real justo donde se crea el dato, eliminando la latencia de la nube y optimizando la toma de decisiones. Nuestros equipos están preparados para entornos hostiles, con seguridad física avanzada, integrados con orquestación cloud-native y con IA de inferencia en tiempo real, ejecutando modelos localmente. En retail, por ejemplo, esto permite la prevención de pérdidas mediante visión artificial que detecta fraudes en cajas de autocobro en milisegundos, o la gestión de inventario inteligente en tiempo real. En industria, habilita el mantenimiento predictivo analizando vibraciones de motores para predecir fallos antes de que ocurran. Para garantizar la escalabilidad en entornos remotos, disponemos del aprovisionamiento Zero Touch: un servidor ThinkEdge se envía a una tienda o fábrica, se conecta a la red y automáticamente recibe su configuración de OpenShift y las aplicaciones de IA necesarias desde la central.
Descubre más detalles sobre Red Hat OpenShift con Lenovo e Intel en este e-book gratuito.
-
NoticiasHace 6 díasIntel y NVIDIA anuncian una importante colaboración para infraestructura de IA en el GTC 2026
-
EventosHace 7 díasSAP Connect Day for Data & IT: cómo llevar la empresa a la inteligencia en la era agéntica
-
NoticiasHace 6 díasNVIDIA se lanza a la IA agéntica con la CPU Vera y la plataforma Vera Rubin
-
NoticiasHace 6 díasNVIDIA amplía sus modelos de IA abiertos y añade seguridad a OpenClaw con NemoClaw

