Conecta con nosotros

A Fondo

Zscaler y OpenAI, ciberseguridad e IA en plataformas de confianza a gran escala

Publicado el

Zscaler y OpenAI

OpenAI presentó hace unos días GPT-5.4-Cyber, una variante de su último modelo estrella, GPT-5.4, optimizada específicamente para casos de uso de ciberseguridad defensiva. El anuncio llegó pocos días después de la presentación pública del Proyecto Glasswing, una iniciativa que combina el modelo de IA de vanguardia Claude Mythos, con una coalición de importantes empresas de tecnología y finanzas que lo usarán.

A pocos analistas puede escapar que el GPT-5.4-Cyber es la reacción de OpenAI al Mythos de Anthropic, en un momento en que las dos compañías libran una batalla brutal por el control planetario de los grandes modelos de inteligencia artificial. Y ahora con foco en un apartado crítico para toda la industria, la seguridad informática como señalaron en su presentación:

«El uso progresivo de la IA acelera la labor de los defensores -aquellos responsables de mantener seguros los sistemas, los datos y los usuarios-, permitiéndoles encontrar y solucionar problemas más rápidamente en la infraestructura digital de la que todos dependemos».

TAC

En conjunto con el anuncio del GPT-5.4-Cyber, la compañía explicó que estaba ampliando su programa Trusted Access for Cyber ( TAC ) a miles de defensores individuales autenticados y cientos de equipos responsables de proteger el software crítico. La sociedad de Zscaler y OpenAI va por esa senda, uniendo ciberseguridad e IA a gran escala.

Desde OpenAI explican lo que todos sabemos. Los sistemas de IA son inherentemente de doble uso, ya que los ciberdelincuentes pueden reutilizar tecnologías desarrolladas para aplicaciones legítimas en su propio beneficio y lograr objetivos maliciosos. Una preocupación fundamental es que los adversarios podrían invertir los modelos optimizados para la defensa del software, con el fin de detectar y explotar vulnerabilidades en software de uso generalizado antes de que se puedan corregir, exponiendo así a los usuarios a riesgos significativos.

El gigante de la IA asegura que su objetivo es «democratizar el acceso a sus modelos», minimizando al mismo tiempo su uso indebido, y reforzar sus medidas de seguridad mediante un despliegue gradual y planificado». La idea es facilitar un uso responsable a gran escala, dar ventaja a los defensores y, simultáneamente, fortalecer las protecciones contra las vulnerabilidades y las inyecciones maliciosas a medida que las capacidades de los modelos se vuelven más avanzadas. «A medida que avanzan las capacidades de los modelos, nuestro enfoque consiste en ampliar la ciberdefensa al mismo ritmo: ampliando el acceso para los defensores legítimos al tiempo que seguimos reforzando las medidas de seguridad», añaden.

El anuncio de OpenAI, al igual que el propio del Mythos de Anthropic dicen tener capacidad para encontrar «miles» de vulnerabilidades en sistemas operativos, navegadores web y aplicaciones. Entendiendo que el ecosistema más sólido es aquel que identifica, valida y corrige continuamente los problemas de seguridad a medida que se desarrolla el software, OpenAI explica que «al integrar modelos de codificación avanzados y capacidades de agentes en los flujos de trabajo de los desarrolladores, podemos brindarles retroalimentación inmediata y práctica durante el proceso de desarrollo, lo que permite pasar de auditorías puntuales e inventarios estáticos de errores a una reducción de riesgos constante y tangible».

Zscaler y OpenAI, uniendo ciberseguridad e IA

La alianza de Zscaler con OpenAI es una buena muestra de caso de uso avanzado, ya que tiene el potencial de transformar la plataforma de seguridad nativa en la nube zero-trust en un motor que pueda fortalecer su propia infraestructura y ayudar a los clientes a implementar inteligencia artificial con confianza a gran escala.

Para ello, Zscaler se ha unido al programa TAC de OpenAI, obteniendo acceso a modelos de vanguardia optimizados para la seguridad, como GPT-5.4-Cyber, y a las API relacionadas para fortalecer sus ofertas de Zero Trust Exchange, Red Teaming con IA y SecOps. Internamente, Zscaler está integrando GPT-5.4-Cyber y modelos de seguridad tipo Codex en una arquitectura de seguridad multiagente y un ciclo de vida de desarrollo de software seguro, proporcionando a los desarrolladores «Seguridad como servicio» para detectar y corregir vulnerabilidades de forma temprana. Externamente, estas capacidades de OpenAI impulsan las investigaciones de Red Teaming con IA y MDR asistidas por OpenAI de Zscaler.

Zscaler y OpenAI

La importancia de TAC y GPT-5.4-Cyber

El programa TAC de OpenAI es un marco de acceso restringido que proporciona a los defensores verificados acceso escalonado a modelos cada vez más capaces, culminando en el GPT-5.4-Cyber, una variante optimizada para tareas de ciberseguridad defensiva como el descubrimiento de vulnerabilidades, el análisis binario y el razonamiento de cadenas de exploits.

El objetivo es poner un análisis más potente y ofensivo en manos de equipos de seguridad de confianza, al tiempo que se aplican políticas de identidad y uso, así como medidas de seguridad para reducir el abuso. En otras palabras, permitir que la industria de la seguridad utilice la IA para combatir las amenazas de la IA.

Al formar parte de TAC, Zscaler obtiene acceso temprano y profundo a estas capacidades y puede integrarlas en sus procesos de detección, flujos de trabajo del ciclo de vida del desarrollo de software (SDLC) y herramientas de pruebas de penetración (red teaming), en lugar de tratar los sistemas tipo ChatGPT como una herramienta de productividad secundaria. Esta distinción es importante porque convierte los modelos de vanguardia en infraestructura central para la forma en que Zscaler desarrolla, prueba y ejecuta su nube de seguridad, integrando esencialmente la IA en la estructura del servicio.

Reforzando las plataformas, desplazando el riesgo

Desde la perspectiva del cliente, la principal ventaja es una plataforma subyacente más robusta. Zscaler integra GPT-5.4-Cyber y Codex Security en su ciclo de vida de desarrollo de software seguro (SDLC) y en su arquitectura interna de seguridad multiagente, lo que proporciona a los desarrolladores una revisión de código, configuraciones y dependencias mediante IA bajo demanda durante el proceso de compilación. Esto funciona como una capa de seguridad como servicio siempre activa, detectando vulnerabilidades antes de su lanzamiento y reduciendo el tiempo de exposición.

Dado que los modelos están optimizados para casos de uso cibernético, pueden analizar patrones de vulnerabilidad complejos en el código, la infraestructura como código y las políticas, y no solo realizar análisis superficiales o coincidencias de patrones, y pueden proponer pasos de remediación específicos como parte del flujo de trabajo.

Esto es un ejemplo clásico de «desplazamiento a la izquierda», pero con un giro: en lugar de añadir comprobaciones de seguridad a las canalizaciones de DevOps, Zscaler utiliza IA para integrar conocimientos de seguridad en cada confirmación y despliegue, lo que en última instancia aumenta la resiliencia para todos los clientes que utilizan Zero Trust Exchange.

Acelerando la hoja de ruta para la IA empresarial

La colaboración de Zscaler y OpenAI muestra como se puede acelerar las iniciativas de IA de los propios clientes y para los CIO y CISO que impulsan las agendas de IA, la asociación es una señal de que la seguridad y la IA pueden complementarse en lugar de chocar, con aceleradores prácticos como:

  • Experimentación más rápida con barandillas. El servicio de pruebas de penetración (red teaming) combinado con los controles de confianza cero permite a los equipos implementar pruebas piloto con menos temor a que un agente o un punto final mal configurado exponga datos confidenciales.
  • Estándares de seguridad de IA para toda la empresa. Con el descubrimiento y análisis de activos de IA, las organizaciones pueden crear un inventario unificado de aplicaciones, agentes y herramientas de IA, y aplicar políticas coherentes, como el acceso a datos, el registro y la frecuencia de las pruebas de penetración, en todas las unidades de negocio.
  • Mejora continua en circuito cerrado. Los resultados de las pruebas de penetración con IA (Red Teaming) contribuyen a mejorar el ciclo de vida del desarrollo de software (SDLC) y el fortalecimiento de la plataforma, mientras que las conclusiones de las investigaciones de detección y respuesta a ataques (MDR) retroalimentan la lógica de detección y el comportamiento de los agentes.

Al vincular modelos de vanguardia como GPT-5.4-Cyber con Zero Trust, pruebas de penetración y detección y respuesta gestionadas, Zscaler busca brindar a sus clientes lo que necesitan: una forma de implementar IA más rápidamente sin aumentar la superficie de ataque. De implementarse con éxito, este podría ser uno de los modelos más sólidos para asegurar el ciclo de vida de la IA empresarial, desde el código hasta la producción. Ello debe generar confianza en el uso de la IA para ciberseguridad, un nivel que -según algunos informes- sigue siendo muy bajo.

* Imagen de portada generada por IA

Colaboro en medios profesionales y de consumo de TPNET: MCPRO, MuySeguridad, MuyCanal y MuyComputer

Lo más leído