Conecta con nosotros

A Fondo

Otro lado oscuro de la IA: la automatización fomenta el robo de identidad

Publicado el

robo de identidad

El robo de identidad es una de las prácticas fraudulentas más peligrosas en el mundo digital, ya que la suplantación y robo de cuentas dan pie a todo tipo de ataques informáticos. Las capacidades de IA y en concreto la automatización de procesos, permiten -sin pretenderlo- facilitar este tipo de robo de identidad como vamos a ver en este especial.

No son pocos los especialistas tecnológicos que han alertado del ‘lado oscuro de la IA’ en referencia a la ciberseguridad, con serias advertencias del impacto que están teniendo las herramientas de inteligencia artificial en la ciberseguridad mundial, intensificando las amenazas que llegan de los ataques más peligrosos como el ransomware o el phishing y en general como ayuda en la generación de malware.

Como ya conoces, las automatizaciones potenciadas por la inteligencia artificial están transformando el panorama empresarial. Ofrecen a las empresas la capacidad de conectarse con los clientes, guiarlos y atenderlos de manera más eficiente, lo que da como resultado procesos optimizados y menores costes de mantenimiento.

Sin embargo, las automatizaciones impulsadas por IA también tienen su punto crítico en seguridad. Las mismas capacidades existentes para mejorar las operaciones legítimas también pueden ser utilizadas por ciberdelincuentes que buscan robar identidades. El auge de la IA de bajo costo y su uso en estas automatizaciones ha permitido a los estafadores ampliar sus redes y aumentar su efectividad, lo que ha llevado a un aumento drástico de los escenarios de robo de identidad.

Robo de identidad mediante ataques de phishing

Las capacidades de IA se utilizan cada vez más en el mundo empresarial actual para la automatización de procesos. Por ejemplo, la IA puede automatizar la recopilación y el análisis de datos para mejorar las iniciativas de marketing. Los delincuentes que llevan a cabo esquemas de robo de identidad pueden utilizar el mismo tipo de procesos comerciales para recopilar y analizar datos sobre objetivos potenciales.

Con el phishing automatizado, por ejemplo, la IA puede rastrear la web en busca de detalles sobre los objetivos y luego usarlos para construir mensajes de phishing más creíbles. El contenido de esos mensajes tiene un mayor grado de relevancia y autenticidad, lo que los hace más efectivos.

Las automatizaciones de IA también permiten a los delincuentes identificar objetivos y preparar mensajes de phishing más rápidamente, lo que significa que pueden implementar más ataques. Incluso brindan la capacidad de atacar a un objetivo en tiempo real cuando se produce un evento que podría aumentar la vulnerabilidad del objetivo.

Por ejemplo, después de un desastre natural, como hemos visto recientemente con la DANA de Valencia, los delincuentes podrían usar automatizaciones de IA para lanzar un ataque dirigido a las comunidades afectadas por el desastre con ofertas fraudulentas de ayuda o similares.

La IA también puede automatizar el proceso de aprendizaje necesario para aumentar la eficacia del phishing y otros ataques. Puede analizar datos sobre ataques, determinar cuáles son los más eficaces y modificarlos para que tomen la vía que ofrezca menor resistencia.

robo de identidad

Deepfakes para apoyar el robo de identidad

El robo de identidad suele tener éxito cuando un ciberdelincuente se hace pasar por alguien en quien la víctima confía. El plan puede consistir en hacerse pasar por un representante de una institución financiera, un agente de la ley o un ser querido. En cada caso, la víctima comparte información personal una vez aceptada una base de confianza.

La inteligencia artificial proporciona a los delincuentes herramientas poderosas para asumir una identidad falsa y ganarse la confianza de la víctima. Al potenciar las creaciones Deepfake, la IA permite a los delincuentes crear contenido de audio o video más realista para hacerse pasar por personas de confianza. La IA también puede impulsar interacciones con chatbots, como intercambios de mensajes de texto, que imitan de manera convincente los patrones de comunicación de una persona de confianza.

La explosión de los asistentes de IA a nivel cliente, han permitido la llegada de desarrollos maliciosos tan peligrosos como WormGPT, un chatbot tipo ChatGPT, pero diseñado específicamente para facilitar que los ciberdelincuentes pueden realizar sus «tareas». También han comenzado a distribuirse deepfakes de voz generados por IA para obtener acceso a cuentas financieras.

En lugar de usar inteligencia artificial para engañar a las personas y que proporcionasen así las contraseñas, los deepfakes de voz se dirigen directamente a organizaciones como instituciones financieras para acelerar el proceso, haciéndose pasar por clientes para obtener acceso a las cuentas. La gran cantidad de contenido de audio y video que los usuarios proporcionan en los canales de las redes sociales hace posible este tipo de estafas respaldadas por IA.

Las falsificaciones de voz también permiten a los delincuentes ampliar el alcance de sus operaciones de robo de identidad, ya que ya no se limitan a implementar esquemas en regiones donde pueden entender el idioma. La IA puede traducir esquemas a diferentes idiomas y utilizar el procesamiento del lenguaje natural para comprender las respuestas de los objetivos.

Utilizando la automatización para maximizar los fraudes

La IA también entra en juego cuando los estafadores obtienen datos personales a través de un plan de robo de identidad. Con la IA y la automatización, los delincuentes pueden actuar con mayor rapidez para utilizar la información personal una vez que la obtienen.

Si la información robada incluye números de seguridad social, pueden usarla para solicitar rápidamente varias tarjetas de crédito. Si incluye números de tarjetas de crédito, pueden agotar rápidamente las cuentas financieras. Los informes muestran que el fraude de identidad costó en 2023 y solo en Estados Unidos la friolera de 43.000 millones de dólares. El monto resultante de las apropiaciones de cuentas fue de casi 13.000 millones y el fraude de cuentas nuevas representó más de 5.000 millones.

¿Cómo prevenir los robos de identidad?

La atención y la prudencia personal, junto a la adopción de las mejores prácticas de seguridad, son esenciales contra las suplantaciones de identidad y los secuestros de cuentas que se han convertido en una auténtica lacra. Técnicas como los gestores de contraseñas, la autenticación de dos factores y las auditorías manuales de los servicios, pueden ayudar a proporcionar un umbral de seguridad más alto para proteger las identidades.

Sin embargo, la vigilancia personal no es suficiente para repeler los ataques de manera eficaz. Para lograr el éxito se requieren estrategias integrales que involucren también a las empresas que poseen datos confidenciales. Las personas deben estar más informadas sobre el robo de identidad y las empresas deben invertir en sistemas más sólidos para mantener la seguridad de los datos.

Una mayor cooperación entre los reguladores, las fuerzas de seguridad y las empresas tecnológicas también podría ayudar a prevenir el robo de identidad. Actualmente, hay un vacío en el que los ciberdelincuentes pueden aprovechar para lanzar con éxito las nuevas herramientas y superar así las medidas defensivas que se están implementando. La exigencia de responsabilidades a las empresas por no impedir las violaciones de datos (por la falta de seguridad) es otra cuestión que también está en el debate.

Todas las medidas serán bienvenidas porque las capacidades de la IA no dejan de crecer y su uso ha aumentado drásticamente el volumen de casos de fraude de identidad. Los expertos sugieren que se produce un nuevo caso cada 22 segundos. La IA también ha logrado aumentar la «calidad» de los ataques y sean más difíciles de detectar.

Lo más leído