Noticias
Google Gemini y los «ataques de destilación» que preocupan a los gigantes de la IA
Google Gemini está amenazado por intentos masivos de extracción y destilación de modelos de IA, con investigadores y organizaciones que aprovechan el acceso autorizado a las API oficiales para consultar metódicamente el sistema y reproducir sus procesos de toma de decisiones con el objetivo de replicar sus funcionalidades.
Google marca estos ataques como una amenaza porque constituyen un robo intelectual, son escalables y socavan gravemente el modelo de negocio de la IA como servicio. Según el gigante de Internet, constituye un importante problema comercial y competitivo, que tiene el potencial de afectar a los usuarios finales en un futuro.
La «clonación» de Google Gemini
Google dice que su chatbot de inteligencia artificial estrella, Gemini, ha sido inundado por «actores motivados comercialmente» que intentan clonarlo al solicitarle repetidamente, a veces con miles de consultas diferentes, incluida una campaña que solicitó a Gemini más de 100.000 veces.
Google asegura que está siendo objeto de «ataques de destilación», es decir, preguntas repetidas diseñadas para que un chatbot revele su funcionamiento interno. Google describió esta actividad como «extracción de modelos», en la que posibles imitadores investigan el sistema en busca de los patrones y la lógica que lo hacen funcionar. Los atacantes parecen querer usar la información para desarrollar o reforzar su propia IA, asegura Google.
La compañía cree que los culpables son empresas privadas más pequeñas o investigadores que buscan obtener una ventaja competitiva. Un portavoz declaró a NBC News que Google cree que los ataques provienen de todo el mundo, pero se negó a compartir más detalles sobre lo que se sabía de los sospechosos. El alcance de los ataques a Gemini indica que lo más probable es que sean o pronto serán comunes también contra las herramientas de inteligencia artificial personalizadas de empresas más pequeñas.
Los LLM son vulnerables
Las empresas tecnológicas han gastado miles de millones de dólares compitiendo para desarrollar sus chatbots de inteligencia artificial, o grandes modelos de lenguaje, y consideran que el funcionamiento interno de sus modelos superiores constituye información confidencial extremadamente valiosa.
Si bien cuentan con mecanismos para intentar identificar ataques de destilación y bloquear a quienes están detrás de ellos, los principales LLM son inherentemente vulnerables a la destilación porque están abiertos a cualquier persona en Internet. OpenAI, la empresa detrás de ChatGPT, acusó el año pasado a su rival chino DeepSeek de realizar ataques de destilación para mejorar sus modelos.
Muchos de los ataques fueron diseñados para descubrir los algoritmos que ayudan a Gemini a “razonar” o decidir cómo procesar la información, dicen desde Google, asegurando que a medida que más empresas diseñan sus propios LLM personalizados entrenados en datos potencialmente confidenciales, se vuelven vulnerables a ataques similares.
-
A FondoHace 5 díasPíldora roja o píldora azul
-
NoticiasHace 7 díasAgentic Workflows, el proyecto abierto de GitHub Next ya está disponible
-
EntrevistasHace 5 días«Es crucial conectar la IA a conocimiento interno y a los flujos reales de trabajo»
-
NoticiasHace 6 díasASUS presenta el portátil para empresas, ExpertBook B3 G2

