Noticias
Deepfakes por IA, una mina de oro para los ciberdelincuentes
Los Deepfakes por IA han dejado de ser una función teórica y se han convertido en una «solución» explotable en el mundo real que mina la confianza digital, expone a las empresas a nuevos riesgos e impulsa el negocio comercial de los ciberdelincuentes, asegura un nuevo informe de Trend Micro.
La convergencia de la inteligencia artificial y la ciberseguridad representa uno de los desafíos estratégicos más profundos a los que se enfrenta la industria de la tecnología. A medida que las herramientas de IA generativa se han vuelto más potentes, asequibles y accesibles, los ciberdelincuentes las adoptan cada vez más para respaldar todo tipo de ataques, desde fraudes comerciales hasta extorsión y el robo de identidades, explica David Sancho, investigador sénior de amenazas en Trend:
«Los medios generados por IA no solo representan un riesgo futuro, sino una amenaza real para las empresas. Estamos presenciando casos de suplantación de identidad de ejecutivos, procesos de contratación comprometidos y salvaguardas financieras evadidas con una facilidad alarmante. Esta investigación es una llamada de atención: si las empresas no se preparan proactivamente para la era de las deepfakes, ya están retrasadas. En un mundo donde ver no es creer, la confianza digital debe reconstruirse desde cero».
Deepfakes por IA, también un gran negocio
La investigación revela que los actores de amenazas ya no necesitan experiencia en el ámbito clandestino para lanzar ataques convincentes. En su lugar, utilizan plataformas de generación de video, audio e imágenes disponibles comercialmente (muchas de las cuales se comercializan para creadores de contenido) para generar deepfakes realistas que se utilizan para engañar tanto a individuos como a organizaciones. Estas herramientas son económicas, fáciles de usar y cada vez más capaces de eludir los sistemas de verificación de identidad y los controles de seguridad.
También existe un ecosistema cibercriminal en expansión donde estas plataformas se utilizan para ejecutar estafas convincentes. Como resultado, el conocido como ‘fraude de CEO’ es cada vez más difícil de detectar, ya que los atacantes utilizan audio o video deepfake para suplantar la identidad de altos directivos en reuniones en tiempo real.
Los procesos de reclutamiento también se ven comprometidos por candidatos falsos que utilizan IA para aprobar entrevistas y obtener acceso no autorizado a sistemas internos. Además, las empresas de servicios financieros están observando un aumento en los intentos de deepfake para eludir las verificaciones KYC (Conozca a su Cliente), lo que facilita el lavado de dinero anónimo mediante el uso de credenciales falsificadas.
Trend Micro insta a las empresas a tomar medidas proactivas para minimizar su exposición al riesgo y proteger a sus empleados y procesos. Estas medidas incluyen capacitar al personal sobre los riesgos de la ingeniería social, revisar los flujos de trabajo de autenticación y explorar soluciones de detección de medios sintéticos.
Informe completo | Trend Micro
-
A FondoHace 6 díasAndrés Mendoza de Manage Engine: «la adaptación se mide por el impacto real en la cuenta de resultados»
-
NoticiasHace 5 díasLa guerra contra Irán y la crisis de los semiconductores: ahora, el Helio
-
A FondoHace 7 díasEl conflicto de Irán y la IA: HBM y el talón de Aquiles llamado Ormuz
-
EntrevistasHace 5 días«Las empresas que no integren la accesibilidad desde el diseño pagarán el precio»


