A Fondo
Alerta por los sistemas de ataque autónomos impulsados por IA
La implementación masiva y acelerada de los modelos de inteligencia artificial han provocado grandes desafíos en materia de seguridad informática. La aparición de sistemas de ataque autónomos impulsados por IA complicará aún más un escenario donde los CIOs/CTOs deberán reevaluar arquitecturas defensivas pensadas para ataques «a ritmo humano» y por ello vulnerables a la velocidad de las máquinas.
La carrera por desarrollar e implementar herramientas impulsadas por IA continúa y abarca a la mayoría de funciones empresariales. El problema reside es que la adopción de la IA está superando a la capacidad de supervisión. Por otro lado, el despliegue de agentes de IA está redefiniendo cómo interactuamos con el entorno digital difuminando la línea entre la actividad humana y la de los bots, lo que está poniendo a prueba los mismos cimientos de la seguridad.
Y es que las barreras para ejecutar ciberataques sofisticados se han reducido considerablemente y todas las previsiones apuntan a que la situación va a empeorar. Con la configuración correcta, los actores de amenazas ahora pueden usar sistemas de IA con agentes durante periodos prolongados para realizar el trabajo de equipos completos de hackers experimentados, analizar los sistemas objetivo, generar código de explotación y escanear grandes conjuntos de datos de información robada con mayor eficiencia que cualquier operador humano. Los grupos con menos experiencia y recursos ahora pueden potencialmente realizar ataques a gran escala de esta naturaleza.
En este contexto, los líderes deben centrarse en cómo defender eficazmente la propia infraestructura de IA. Esto implica priorizar la seguridad de estos sistemas, invertir en defensas más robustas y fomentar la colaboración interdepartamental para mitigar los riesgos actuales y los futuros que son cada vez más peligrosos. A medida que la IA Agentiva escala, también lo hacen los riesgos asociados: los ciberataques, la falta de confianza y el riesgo de cumplimiento están haciendo fracasar muchos proyectos pilotos. Y lo peor está por llegar.
Sistemas de ataque autónomos impulsados por IA
El Informe de Seguridad de IA 2026 de ThreatLabz, advierte que las empresas no están preparadas para la próxima ola de ciberriesgos impulsados por la IA, incluso a medida que esta se integra en las operaciones comerciales. Basado en el análisis de casi un billón de transacciones de IA/ML en su plataforma Zero Trust Exchange entre enero y diciembre de 2025, el estudio muestra que las empresas están alcanzando un punto de inflexión donde la IA ha pasado de ser una herramienta de productividad a un vector principal de conflictos autónomos a velocidad de máquina.
«La IA ya no es solo una herramienta de productividad, sino un vector principal para ataques autónomos a velocidad de máquina, tanto por parte de los crimeware como de estados-nación», explica Deepen Desai, vicepresidente ejecutivo de Ciberseguridad de Zscaler. «En la era de la IA con agentes, una intrusión puede pasar del descubrimiento al movimiento lateral y al robo de datos en cuestión de minutos, volviendo obsoletas las defensas tradicionales. Para ganar esta batalla, las organizaciones deben combatir la IA con IA mediante la implementación de una arquitectura inteligente de Confianza Cero que bloquee las posibles rutas de ataque para todo tipo de atacantes», recalca.
La adopción supera la supervisión
El uso de la IA abarca ahora todas las funciones empresariales; sin embargo, en muchos sectores, su adopción crece a un ritmo superior al que pueden gestionar los altos ejecutivos. Finanzas y Seguros sigue siendo el sector más impulsado por la IA en términos de volumen, representando el 23 % de todo el tráfico de IA/ML, mientras que los sectores de Tecnología y Educación registraron un crecimiento interanual explosivo en las transacciones: 202 % y 184 %, respectivamente. A pesar de ello, el estudio de Zscaler revela una brecha crítica: muchas organizaciones aún carecen de un inventario básico de modelos de IA activos y funciones integradas, lo que les impide saber exactamente dónde se exponen los datos sensibles.
El 100% de los sistemas de IA empresariales son vulnerables a ataques a la velocidad de las máquinas
Aunque los debates sobre seguridad de la IA suelen centrarse en amenazas futuras hipotéticas, las pruebas revelaron una realidad más inmediata: cuando los sistemas de IA empresariales se prueban en condiciones adversas reales, fallan casi de inmediato. En análisis controlados, las vulnerabilidades críticas aparecieron en minutos, no en horas. El tiempo medio hasta el primer fallo crítico fue de tan solo 16 minutos, y el 90% de los sistemas se vieron comprometidos en menos de 90 minutos. En el caso más extremo, la defensa fue evadida en un solo segundo.
A medida que se descubren más pruebas de ataques impulsados por IA por parte de ciberdelincuentes y grupos de espionaje de estados-nación, ThreatLabz advierte que la IA autónoma y semiautónoma «agencial» automatizará cada vez más los ciberataques, y los agentes de IA asumirán la responsabilidad del reconocimiento, la explotación y el movimiento lateral. Los defensores deben asumir que los ataques pueden escalar y adaptarse a la velocidad de las máquinas, no a la velocidad humana.
El uso de IA alimenta nuevas vulnerabilidades en la cadena de suministro
ThreatLabz descubrió que la actividad de IA/ML aumentó un 91 % interanual en un ecosistema de más de 3400 aplicaciones. Esta rápida adopción ha dejado a muchas organizaciones sin un mapa claro de los modelos de IA que interactúan con sus datos ni de las cadenas de suministro que los sustentan. ThreatLabz advierte que esta cadena de suministro de IA se ha convertido en un objetivo principal, ya que las debilidades en los archivos de modelos comunes permiten a los atacantes acceder lateralmente a los sistemas centrales del negocio.
La IA integrada no administrada crea riesgos críticos de exposición de datos
La IA integrada (capacidades de IA integradas directamente en las aplicaciones y plataformas SaaS empresariales habituales) se ha convertido en una de las fuentes de riesgo no gestionado de mayor crecimiento. Dado que estas funciones suelen estar activas por defecto y escapan a la detección de los filtros de seguridad heredados, crean una puerta trasera para que datos corporativos confidenciales fluyan a los modelos de IA sin supervisión.
Los datos vertidos en IA se disparan
Las transferencias de datos empresariales a aplicaciones de IA/ML se dispararon a 18.033 Tbytes, en un incremento interanual del 93 %, equivalente aproximadamente a 3.600 millones de fotos digitales. Esta afluencia masiva ha transformado herramientas como Grammarly (3.615 TB) y ChatGPT (2.021 TB) en los repositorios de inteligencia corporativa más concentrados del mundo.
La magnitud de este riesgo se cuantifica en 410 millones de infracciones de políticas de prevención de pérdida de datos (DLP) relacionadas únicamente con ChatGPT, incluyendo intentos de compartir números de la Seguridad Social, código fuente e historiales médicos. Estos hallazgos indican que la gobernanza de la IA ha pasado de ser un debate político a una necesidad operativa inmediata.
«IA sobre IA» como defensa
Si la IA agéntica se está utilizando masivamente para crear malware y realizar ciberataques, también puede usarse para reforzar el software de ciberseguridad al proporcionar una detección rápida, reactiva y adaptativa de amenazas que la tecnología de ciberseguridad tradicional basada en reglas no puede ofrecer.
Operando de forma autónoma, los agentes de IA podrían implementar contramedidas en tiempo real para mitigar las amenazas antes de que se intensifiquen. Los modelos de aprendizaje automático podrían entrenarse con conjuntos de datos de ciberseguridad para anticipar amenazas futuras, evaluar riesgos y recomendar políticas y acciones preventivas para el presente.
La IA agéntica podría utilizarse para una defensa de «IA sobre IA» que pueda mantenerse al día contra los ataques automatizados. La IA defensiva puede observar anomalías, generar informes completos de incidentes y tomar contramedidas inmediatas contra los sistemas de ataque autónomos impulsados por IA, una amenaza real y muy poderosa contra arquitecturas defensivas legado diseñadas para ataques de ‘ritmo humano’ que no son capaces de contener la velocidad de las máquinas.
-
A FondoHace 4 díasHong Kong vuelve a marcar la agenda tecnológica global: InnoEX y Electronics Fair (Spring Edition) 2026
-
NoticiasHace 4 díasASUS presenta el ‘todo en uno’ para empresas, ExpertCenter P600 AIO
-
NoticiasHace 6 díasUn nuevo informe alerta de las brechas de seguridad en el desarrollo nativo de IA
-
EntrevistasHace 4 días«Gran parte de la innovación en IA hoy proviene del código abierto»



