Conecta con nosotros

Noticias

Las brechas de seguridad de GPT ponen en el punto de mira el liderazgo de OpenAI

Publicado el

El reciente despido de Sam Altman, CEO de OpenAI, y su nuevo acuerdo con Microsoft, ha generado un debate interno en el seno de la compañía, que ahora prevé que sus arquitectos sénior responsables de la seguridad de la IA podrían abandonar el proyecto. De este modo, la seguridad de GPT quedaría en entredicho.

Precisamente, el despido de Altman ha venido motivado por moverse demasiado rápido del lado del producto y el negocio, descuidando el mandato de la empresa para garantizar la plena seguridad en los diferentes modelos. Con esta versión de los hechos que apunta OpenAI, la seguridad de GPT se tambalea en un contexto en el que cada vez son más frecuentes las tensiones entre las juntas directivas y sus equipos de seguridad.

Reforzar la seguridad contra fugas

Para el desarrollo del software GPT, habrá que supervisar y corregir la vulnerabilidad que presenta la herramienta, la cual permite descargar o mostrar la información solicitada, así como los archivos cargados de una sesión concreta. Ya en marzo, OpenAI solventó un problema presente en una biblioteca de código abierto en la que los usuarios podían ver los títulos del historial de chat de otros usuarios activos.

En aquella ocasión, la compañía alegó que la vulnerabilidad procedía de la base de datos de memoria de Redis, donde la empresa almacena la información del usuario. Dicho error también provocó la visibilidad de información relacionada con los pagos del 1,2% de los suscriptores activos de ChatGPT Plus durante nueve horas.

El problema de la manipulación de los datos en lenguas poco comunes

GPT se enfrenta, según una investigación reciente de la Universidad de Brown, al problema del uso de idiomas poco comunes como el zulú y el gaélico para evitar las restricciones. De hecho, en el 79% de los casos alcanzan un éxito pleno frente a las medidas restrictivas que aparecen al usar el inglés.

Vulnerabilidad a los jalibreaks

El jailbreak de GPT-4V mediante presenta la vulnerabilidad de los MLLM al engaño y la actividad fraudulenta. Para ello, los investigadores implementaron GPT-4 como una herramienta contra sí mismo, buscando mensajes de jailbreak a partir de los mensajes robados al sistema. A partir de modificaciones humanas, se alcanzó una tasa de éxito del ataque del 98,7%.

GPT-4 es más vulnerable dado el sistema de jailbreak o las indicaciones del usuario, que están diseñadas maliciosamente para eludir las medidas de seguridad de los LLM, siendo posible robar datos con éxito mediante diálogos cuidadosamente escritos.

Uno de los hándicaps de GPT-4V es que permite la carga de imágenes, siendo sus modelos de LLM vulnerables a los ataques de imágenes de inyección multimodal. Al confiar en cada imagen, pueden entrar scripts maliciosos y códigos nocivos en imágenes. Si se les envía mensajes con instrucciones maliciosas las seguirán, llegándose incluso a secuestrar agentes de IA autónomos como Auto-GPT, triunfando la inyección de aviso visual.

El futuro de GPT en materia de seguridad

Los nuevos equipos de desarrolladores vienen trabajando en modelos de GPT de próxima generación en los que se logren cronogramas agresivos para responder a nuevas funciones y correcciones de errores. Para ello, es fundamental automatizar la seguridad en las primeras fases del desarrollo de nuevas aplicaciones y códigos.

Es importante trabajar por la mejora de las tasas de implementación de código, implementando la calidad de éste. Además, es fundamental que la seguridad sea el epicentro del ciclo de vida de desarrollo de software (SDLC) junto a métricas centrales y flujos de trabajo adaptados a los desafíos únicos de la iteración de código GPT, LLM y MLLM.

Los equipos de desarrollo de alto rendimiento trabajan con un código 208 veces más eficiente que los de bajo rendimiento. Para ello, es fundamental incluir la seguridad desde las fases iniciales de diseño de cualquier nuevo proyecto, definiéndola en cada ciclo y mejorando de forma iterativa la seguridad de cualquier producto de software.

Solo así, los líderes de desarrollo ganarán un tiempo valioso y construirán una estructura colaborativa capaz de romper el sistema y procesar los obstáculos que frenan a cada equipo. De este modo, a mayor colaboración, mayor será el poder de compartir las tasas de implementación, la calidad del software y las métricas de seguridad.

Lo más leído