Noticias
F5 mejora la seguridad de los sistemas de IA con protección de ejecución en tiempo real
F5 ha anunciado la disponibilidad de F5 AI Guardrails y F5 AI Red Team, dos soluciones encargadas de proteger los sistemas de IA empresariales de misión crítica. Con este paso, F5 ofrece un enfoque integral del ciclo de vida de extremo a extremo para la seguridad de la IA en tiempo de ejecución, que además incluye más capacidad para conectar y proteger a los agentes de IA con barreras de seguridad personalizadas y listas para usar.
Estas soluciones de seguridad se adaptan a las necesidades de las empresas, gracias a que ofrecen implementación flexible, protección independiente del modelo y capacidad de adaptar las políticas de seguridad de la IA en tiempo real. Para ello aprovechan la experiencia de F5 en la capa de aplicación, donde se producen las interacciones de la IA.
F5 AI Guardrails ofrece una capa de seguridad en tiempo de ejecución independiente del modelo. Está diseñada para proteger modelos, aplicaciones y agentes de IA en cualquier entorno de cloud e implementación con una aplicación de políticas consistente. Esta solución ofrece protección contra amenazas adversarias, como ataques de inyección de prompt y jailbreak.
Además, previene la fuga de datos confidenciales y cumple con las obligaciones corporativas y regulatorias, entre las que están el RGPD y la Ley de IA de la UE. AI Guardrails ofrece también observabilidad y auditabilidad exhaustivas de entradas y salidas de IA para que los equipos puedan ver, además de lo que hizo el modelo, por qué lo hizo. Esto es findamental para la gobernanza y el cumplimiento normativo en sectores regulados.
En cuanto a F5 AI Red Team, ofrece pruebas adversarias escalables y automatizadas que simulan vectores de amenaza comunes y desconocidos que aparecen en la base de datos de vulnerabilidades de IA del sector (esta base suma más de 10.000 nuevas técnicas de ataque al mes). AI Red Team revela dónde pueden generar los modelos resultados peligrosos o impredecibles.
Sus conocimientos se incorporan directamente a las políticas de AI Guardrails, con el objetivo de que las defensas evolucionen a medida que cambian las amenazas y los propios modelos. En combinación, AI Guardrails y Red Team establecen un ciclo continuo de retroalimentación sobre seguridad de IA. Ambos están ya disponibles como parte de la Plataforma de Seguridad y Entrega de Aplicaciones de F5.
-
A FondoHace 6 díasAndrés Mendoza de Manage Engine: «la adaptación se mide por el impacto real en la cuenta de resultados»
-
NoticiasHace 5 díasLa guerra contra Irán y la crisis de los semiconductores: ahora, el Helio
-
A FondoHace 7 díasEl conflicto de Irán y la IA: HBM y el talón de Aquiles llamado Ormuz
-
EntrevistasHace 5 días«Las empresas que no integren la accesibilidad desde el diseño pagarán el precio»

