A Fondo
Red Hat presenta en su Summit anual su propuesta de IA empresarial, agentes y soberanía digital
Red Hat está celebrando su Summit anual en Atlanta, y ha aprovechado para presentar su visión de IA empresarial y agéntica, así como su propuesta para ahondar en soberanía digital. Para la compañía, el avance en Inteligencia Artificial pasa por una plataforma abierta e híbrida que permita desarrollar y operar agentes de IA, modernizar la infraestructura y mantener el control sobre los datos, la seguridad y la gobernanza.
Pero además, Red Hat plantea la infraestructura empresarial como una combinación en una arquitectura de la IA agéntica, la virtualización y la soberanía digital. Para ellos, la IA no va a escalar solo con modelos más potentes, sino con una base tecnológica que sea capaz de sostenerla de manera fiable, segura y controlada.
Red Hat AI 3.4
Para la compañía, una parte importante de su visión es la plataforma Red Hat AI 3.4, una de las principales novedades que ha presentado en el evento, y que está desarrollada para simplificar el desarrollo y el despliegue de flujos de trabajo agénticos, al mismo tiempo que permite a las empresas pasar de los pilotos a una IA escalable en toda su infraestructura. Es decir, ofrece una base para escalar sistemas autónomos sin renunciar el control, la seguridad ni la eficiencia del hardware.
Red Hat AI 3.4 ofrece la base arquitectónica y las herramientas necesarias para escalar modelos y flujos de trabajo agénticos en la nube híbrida. El núcleo de esta nueva versión es Modelo como Servicios (MaaS), que ofrece una interfaz gobernada para que los desarrolladores accedan a modelos seleccionados, mientras permite a los administradores supervisar el consumo y aplicar políticas. Esta capacidad se apoya en una base de inferencia distribuida de alto rendimiento, impulsada por vLLM y llm-d, con el objetivo de mantener un servicio de modelos optimizado y eficiente en distintos entornos.
Además, sus nuevas herramientas de AgentOps gestionan los agentes desde el desarrollo hasta la producción, con trazabilidad integrada, observabilidad, identidad criptográfica y gestión del ciclo de vida. Red Har AI 3.4 integra gestón de prompts para integrar datos empresariales con modelos y agentes. También un hube de evaluación para valorar la precisión, calidad y seguridad de modelos y agentes.
Estas capacidades están impulsadas por MLflow, que ofrece seguimiento integrado de experimentos y gestión de artefactos para casos de uso de IA generativa y predictiva. La plataforma permite además validar la seguridad de modelos y agentes a través de pruebas de seguridad automatizadas, así como de red teaming, con tecnología de Chatterbox Labs y del proyecto Garak, para ofrecer una vía orientada a la seguridad desde los pilotos hasta un uso empresarial listo para producción.
La plataforma ofrece una base empresarial para la inferencia escalable y el despliegue de agentes de autónomos, y ofrece la transparencia y el control necesarios para cumplir con estándares estrictos de riesgo y gobernanza. Como los agentes funcionan con cierta independencia, la falta de visibilidad sobre su toma de decisiones supone un riesgo de seguridad. Red Har AI responde a esto con la infraestructura necesaria para trazar acciones, pasos de razonamiento y llamadas a herramientas, para que se pueda auditar cómo llegó un agente a un resultado determinado.
Al integrar gestión de identidad criptográfica, la plataforma vincula las acciones con una identidad verificada, y ayuda a identificar qué entidad realizó la tarea. Todas estas capacidades permiten a las organizaciones ir más allá de pilotos desconectados, y tratar la IA como un servicio empresarial escalable, predecible y responsable.
Mejoras en AI Factory con NVIDIA
En el evento, Red Hat ha anunciado también mejoras en su plataforma de software de desarrollo conjunto Red Hat AI Factory con NVIDIA, para mejorar en la adopción empresarial de la IA y de los agentes autónomos de larga duración. Las novedades incluyen capacidades de seguridad mejoradas para agentes que operan de manera continua y ofrecen soluciones listas para desplegar.
OpenShell, por otro lado, es un proyecto open source desarrollado por NVIDIA que ofrece un entorno de ejecución aislado para agentes autónomos de IA, diseñado para que las empresas tengan más control sobre las políticas y puedan utilizar con más seguridad las herramientas. Define cómo se ejecutan los agentes, a qué pueden acceder y hacia donde se enruta la inferencia, en una capa única y unificada de políticas para controlar y supervisar cómo operan los agentes autónomos.
Sobre ella, en Red Hat han confirmado que están trabajando con NVIDIA para integrar OpenShell con su plataforma de IA full stack, con el fin de mantener la supervisión y aplicación de políticas a nivel de infraestructura. Además, como contribuidor clave al proyecto open source opstream de OpenShell, Red Hat está colaborando en la estandarización de la gestión de agentes autónomos en toda la nube híbrida.
Red Hat AI Factory con NVIDIA amplía el perímetro de confianza y aplica políticas a nivel de hardware a través de proceso confidencial. Está diseñado para proteger a los agentes durante su ejecución, incluso si otro agente ha sido comprometido. Ahora, los usuarios pueden ejecutar contenedores confidenciales con NVIDIA Confidential Computing como parte de los contenedores en un entorno aislado de Red Hat OpenShift. Eso sí, por ahora en fase de prueba.
Esta protección reforzada por hardware está complementada con una arquitectura zero trust que integra distintas funciones, como SELinux, cumplimiento FIPS y protección en tiempo de ejecución basada en NVIDIA DOCA. Al aplicar estas capas de control desde el centro de datos hasta el edge, Red Hat AI Factory con NVIDIA facilita la protección de los activos empresariales en entornos altamente distribuidos, así como a responder a requisitos cambiantes de seguridad y gobernanza. Entre ellos, los establecidos por marcos normativos, como la Ley de IA de la Unión Europea.
El software de Red Hat AI Factory con NVIDIA incorpora ahora el alcance de las innovaciones de Red Hat AI 3.4. Esto incluye una nueva experiencia gobernada de Modelo como Servicio, ofrecida a través del gateway de Red Hat AI, que ofrece a los desarrolladores acceso simplificado a modelos seleccionados, como NVIDIA Nemotron, a través de interfaces estándar compatibles con OpenAI.
Para reforzar la supervisión operativa, la fábrica integra gestión del ciclo de vida lista para producción impulsada por MLflow. Esto permite trazabilidad de extremo a extremo de llamadas a LLM, ejecución de herramientas y pasos de razonamiento. Este marco unificado relaciona la velocidad de los desarrolladores y la estabilida operativa, lo que permite a las empresas auditar cómo un agente llegó a un resultado.
Red Hat Enterprise Linux for NVIDIA 26.01, ya disponible, ofrece soporte para arquitecturas NVIDIA, como Blackwell, y las dos compañías están trabajando para dar soporte a la próxima plataforma NVIDIA Vera Rubin.
Avances en soberanía digital
Red Hat también ha comunicado en su Summit la ampliación de sus capacidades en nube soberana y privada, que permite a las empresas tener más control sobre su tecnología y datos. La compañía aborda el tema de la soberanía estimando que esta tiene que ver con el control, es decir, con la capacidad de una organización para mantener la supervisión y el mando sobre su trayectoria, independientemente de los cambios geopolíticos, la dinámica del mercado o las condiciones de los proveedores.
Para ofrecer las distintas opciones y escalabilidad que requieren las organizaciones en la actualidad, Red Hat ofrece arquitexturas estandarizadas para una nueva clase de infraestructura soberana. Esto cuenta con el respaldo del soporte localizado de Red Hat Confirmed Stateside Support y Red Hat Confirmed Sovereign Support para la UE. Además, las capacidades que acaba de presentar la compañía ofrecen una vía hacia la innovación sin sacrificar el control, además de ofrecer transparencia y opciones para desarrollar una base de código abierto más resiliente.
En este sentido, la compañía ha presentado su marco de cumplimiento normativo simplificado, que tiene como objetivo reducir los costes de auditoría, automatizando la carga manual que supone la preparación de auditorías. Los nuevos perfiles de cumplimiento para Red Hat OpenShift Compliance Operator, combinados con Red Hat Advanced Cluster Security for Kuberneter permiten automatizar las revisiones técnicas, y facilita la generación de pruebas adecuadas para cumplir las normativas regionales y sectoriales, como NIS2, RGPD y DORA.
Además, Red Hat ofrece zonas de aterrizajes listas para producción que facilitan la preparación para el cumplimiento. Un instalador multiplataforma ofrece plataformas informáticas aisladas, automatizadas y preconfiguradas que abarcan Enterprise Linux, OpenShift y Ansible Automation Platform. Al aplicar medidas de seguridad desde el inicio, estas zonas de aterrizaje convierten las arquitecturas de referencia en infraestructura desplegable. Este enfoque reduce el tiempo de generación de valor para cargas de trabajo reforzadas y conformes, sin necesidade de configuración manual de controles de referencia.
También ofrece entrega rápida de servicios soberanos de IA y en la nube, con una nueva interfaz de aprovisionamiento de servicios permite a los partners y clientes implementar con rapidez máquinas virtuales, clústeres y servicios de IA en OpenShift. Las organizaciones pueden usar estas herramientas para ofrecer GPU como servicio, modelos como servicio e inferencia como servicio como componentes de nubes privadas habilitadas para la IA sobre una case escalable de Red Hat, mientras mantienen en control del ciclo de vida del modelo de IA.
Red Hat LightSpeed ofrece también, en este sentido, telemetría de gestión de costes para OpenShift que permanece integramente en entornos controlados por el cliente. Esta capacidad ofrece a las organizaciones una visibilidad completa del gasto en la nube mientras mantiene la residencia de datos, lo que ayuda a eliminar la necesidad de transmitir datos operativos a través de fronteras.
La compañía tiene además previsto localizar la cadena de suministro de software para facilitar la mitigación de riesgos asociados a las interrupciones regionales. Empezando por la UE, la entrega de contenido dentro de la región permite a los clientes y socios descargar Enterprise Linux de forma local. Esta red regional se ampliará con más productos para finales de 2026.
-
A FondoHace 6 díasSubQ: la revolución que promete romper el coste de la IA empresarial
-
NoticiasHace 6 díasPayPal recortará su plantilla un 20% de aquí a tres años
-
NoticiasHace 5 díasAcuerdo en la UE para modificar y retrasar la aplicación de medidas de la Ley de IA
-
NoticiasHace 5 díasSiguen los despidos por culpa de la IA: Cloudflare recortará el 20% de su plantilla y DeepL el 25%

