A Fondo
Irán, la primera prueba a gran escala de la guerra asistida por IA
El conflicto actual en Oriente Medio es la primera prueba masiva de la guerra asistida por IA. Bloomberg ha entrevistado al portavoz del Comando Central estadounidense para evaluar su alcance, hasta qué punto las máquinas son las que están tomando las decisiones y otros aspectos colaterales también importantes que están de plena actualidad, como la responsabilidad de los gigantes empresariales a la hora de aportar su tecnológica.
La guerra contra Irán continua y como alertaban casi todos los analistas (exceptuando sus promotores de Estados Unidos e Israel) está siendo terrible. En víctimas humanas (la mayoría civiles), en desplazados, en daños económicos incalculables y en repercusión en todo el mundo y a todos los sectores, incluyendo el suministro de semiconductores.
Además, las consecuencias son imprevisibles porque no está siendo tan rápida ni tan quirúrgica como pronosticaban sus promotores. Oír al comandante en jefe (Trump) pegar bandazos a un lado y al otro con declaraciones contradictorias según va el aire, no auguran una salida a corto plazo que debe pasar por un alto el fuego y negociaciones que pongan fin al conflicto y siente las bases para relajar el polvorín de la región.
Project Maven: IA de primer nivel para la guerra
Entrando en materia de la que nos ocupa, explicar que hace una década que conocimos el proyecto ‘Maven’. Un programa del Departamento de Defensa de Estados Unidos, que junto a la creación del Centro de Inteligencia Artificial Conjunta, pretendía investigar y poner en marcha las últimas tecnologías de inteligencia artificial y aprendizaje automático en los entornos militares. El programa era y es altamente controvertido. Salió a la luz pública cuando un numerosos grupo de empleados de Google (6.400 firmantes) se rebelaron contra su compañía a través de una carta abierta donde pedían que el gigante de Internet rompiera el contrato con el Pentágono que alimentaba de datos el proyecto.
La petición de los empleados de Google, apoyada por 300 científicos y académicos (300 expertos en robótica, inteligencia artificial, relaciones internacionales, seguridad, ética y derecho) citaba cuestiones éticas, decisiones políticas y la erosión de la confianza de los usuarios. Si la seguridad ya es un punto cuestionable, no lo es menos las cuestiones éticas. Los científicos contra el proyecto Maven alertaban que «los contratos del Departamento de Defensa señalaban una peligrosa alianza entre la industria tecnológica privada, actualmente en posesión de grandes cantidades de datos personales confidenciales recabados de personas de todo el mundo, y el ejército de un país».
Google respondió y canceló el contrato, aunque otras empresas como Microsoft y Amazon tomaron el relevo y el proyecto continuó. Portavoces militares estadounidenses confirmaron que el proyecto Maven estaba activo en situaciones de batalla reales después de que los terroristas de Hamás atacaran a Israel en octubre de 2023 y éste arrasara Gaza.
La guerra asistida por IA protagoniza los ataques contra Irán
El capitán Timothy Hawkins, portavoz del Comando Central, ha asegurado a Bloomberg que las herramientas de IA usadas por el ejército estadounidense en las operaciones en Irán «no toman decisiones sobre los objetivos ni reemplazan a los humanos». Sin embargo, sí ayudan a «tomar decisiones más acertadas con mayor rapidez».
En los últimos años, los ejercicios militares estadounidenses en una frase específica: «mil decisiones», en la que los comandantes practican el filtrado de una serie de datos para identificar 1.000 objetos como amigos o enemigos en el plazo de una hora. En las primeras 24 horas de la guerra con Irán, Estados Unidos bombardeó 1.000 objetivos, una cantidad ingente de ataques en tan poco tiempo. El almirante Brad Cooper, jefe del Comando Central, lo describió como casi el doble de la magnitud del ataque estadounidense contra Irak en 2003.
Hawkins afirmó que «el uso de la IA por parte del ejército sigue un proceso riguroso», en consonancia con la política, la doctrina militar y la legislación estadounidenses. La inteligencia artificial ayuda a los analistas a identificar los aspectos clave, generando puntos de interés y facilitando la toma de decisiones en las operaciones en Irán. La IA también contribuye a extraer datos de los sistemas y a organizar la información para mayor claridad.
Entre las tecnologías de IA utilizadas en la campaña contra Irán se encuentra Maven Smart System, una plataforma digital de control de misiones producida por Palantir Technologies Inc., según fuentes familiarizadas con las operaciones estadounidenses que hablaron bajo condición de anonimato para evitar revelar información delicada. Esta plataforma surgió del mencionado Proyecto Maven, el proyecto impulsado por la DARPA para desarrollar la IA del campo de batalla.
Entre los principales modelos lingüísticos instalados en el sistema se encuentra la herramienta de IA Claude de Anthropic, según las fuentes, que afirman que se ha vuelto fundamental en las operaciones estadounidenses contra Irán y para acelerar el desarrollo de Maven. Curiosamente, Anthropic está en el centro de una disputa con el Departamento de Defensa por las limitaciones impuestas al software y la respuesta gubernamental de considerar a Anthropic «un riesgo para la cadena de suministro», una designación que normalmente se reserva para los adversarios de Estados Unidos.
La decisión, que la compañía ya ha anunciado que impugnará ante los tribunales, amenaza con perturbar tanto a la empresa como al ejército, dejando aún por determinar el futuro del experimento estadounidense de guerra con inteligencia artificial.
Los Riesgos y la Ética
El uso de inteligencia artificial o lo que llamamos la guerra asistida por IA tiene tantos críticos como promotores. Stop Killer Robots, una coalición de 270 grupos de derechos humanos, han contestado la estrategia en Irán, argumentando que los sistemas de apoyo a la toma de decisiones basados ??en inteligencia artificial reducen la separación entre recomendar y ejecutar un ataque a «una línea peligrosamente delgada».
Además, no está clara la efectividad de la IA en este tipo de conflictos. The New York Times aseguró la semana pasada que Estados Unidos fue el responsable de las muertes en el colegio iraní de primaria Shajarah Tayyebeh, que dejó unas 175 víctimas, la mayoría niñas, pero también maestros y padres. NYT lo achacó a «un error de selección por la información desactualizada proporcionada por la IA».
Decenas de senadores demócratas han exigido respuestas al gobierno de Trump, mientras las evidencias que apuntan a la responsabilidad de EE.UU. se acumulan. La carta de más de 45 senadores cuestiona al secretario de Defensa, Pete Hegseth, si Estados Unidos fue culpable del ataque y qué análisis previo del edificio se había realizado. Los senadores también expresaron preocupación de que el Pentágono haya reducido el personal de una oficina ordenada por el Congreso y creada específicamente para reducir las bajas civiles, mientras sigue impulsando la inversión en IA. El Pentágono dice estar investigando su responsabilidad en lo que podría ser la peor matanza de civiles causada por Estados Unidos desde 2003.
¿Dónde acabará todo esto? ¿Armas autónomas?
Los militares se esfuerzan en desmitificar las supuestas capacidades de «matar» de los nuevos algoritmos de reconocimiento de objetos, afirmando que cada paso que involucra a la IA termina con la validación humana. El Pentágono probó un motor de recomendación de IA que sugería planes de ataque y las mejores armas para usar durante las operaciones. Sin embargo, los resultados no estuvieron a la altura de los estándares humanos, según se informó.
Pero el Departamento de Defensa de EE.UU (y el resto de potencias) está dispuesto a seguir adelante con el despliegue de tecnología «inteligente» en el campo de batalla. El Pentágono ya comenzó a integrar modelos de lenguaje grande (LLM) en decisiones de combate reales. Y eso será un salto crítico del que seguramente no podamos volver.
Los avances en Inteligencia Artificial han sido enormes los últimos años y en múltiples campos. Algunos son extraordinariamente esperanzadores, como los de investigación médica que abordan problemas complejos con el desarrollo de algoritmos avanzados para la búsqueda de curas para enfermedades. Otros dan miedo, mucho miedo, como los relacionados con las armas autónomas y robots soldado.
La IA no va a parar de aprender y de crecer y medios críticos advierten de que hoy estamos más cerca que ayer de un desenlace como el descrito en la peli de ciencia ficción de Cameron, ‘Terminator’. No son pocas las voces autorizadas que siguen alertando de la falta de controles (técnicos, legales, éticos y de seguridad) de todo lo relacionado con la IA.
Expertos en tecnología e inteligencia artificial han firmado cartas abiertas y peticiones a Naciones Unidas para que se prohibieran por completo el uso de armas autónomas. «¿Debemos desarrollar mentes no humanas que podrían acabar superándonos en número, ser más inteligentes que nosotros, que nos dejen obsoletos y que nos reemplacen? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?», se preguntaban.
La primera prueba a gran escala de la guerra asistida por IA en Irán, lamentablemente avanza lo que está por venir. Al mundo le falta más «inteligencia humana».
-
A FondoHace 6 díasAMD amplía sus CPUs para sistemas integrados con Ryzen AI Embedded P100
-
A FondoHace 6 díasIntel presenta nuevos procesadores para embebidos y el edge IA
-
A FondoHace 5 díasAMI Labs: mil millones para una IA diferente sin alucinaciones
-
A FondoHace 6 díasMicrosoft cambia las reglas del juego agéntico empresarial con Copilot Cowork




