Conecta con nosotros

Noticias

OpenAI levanta el veto al uso militar y comienza a colaborar con el Departamento de Defensa de EEUU

Publicado el

OpenAI ha sorprendido a todo el mundo al anunciar la retirada de la prohibición del uso militar de ChatGPT y sus otras herramientas de IA. Esta circunstancia se produce tras el acuerdo alcanzado con el Departamento de Defensa de EEUU, poniendo a su disposición herramientas de IA y de ciberseguridad de código abierto para garantizar la integridad nacional.

Estas nuevas negociaciones con el Pentágono acaba con la prohibición previa de aportar su IA a los organismos militares.  Anna Makanju, vicepresidenta de asuntos globales de OpenAI, defiende que era necesario eliminar la referencia específica al ejército, aunque aún se recoge que su servicio no podrá emplearse para dañarse así mismo, a otros o desarrollar o usar armas.

Nuevos avances en materia de ciberseguridad

OpenAI y el Departamento de Defensa de EEUU están trabajando en el desarrollo de herramientas basadas en software de seguridad de código abierto, colaborando así con la Agencia de Proyectos de Investigación Avanzados de Defensa (DARPA) para su eficaz herramienta AI Cyber Challenge.

Además, OpenAI contribuirá a reducir el nivel de suicidio de veteranos en el ejército, tal y como ha explicado la propia Makanju en una entrevista concedida durante el Foro Económico Mundial de Davos.

Un cambio de política claro

A partir de ahora, OpenAI apuesta por aportar claridad y permitir casos de uso militar coherentes, ya que existen casos de uso en los que la seguridad nacional se alinea completamente con la misión que viene desarrollando OpenAI durante los últimos meses.

Esta noticia se suma a la aportada por Sam Altman (CEO de OpenAI), quien aseguró que ChatGPT era fundamental para las industrias de la salud, la educación y el desarrollo (coding).

En este sentido, Niko Felix, portavoz de OpenAI, ha señalado que el nuevo cambio de política de OpenAI recoge no dañar a los demás como imposición. Pese a que es un concepto amplio y aplicable a diversos contextos, señala que no admitirá el uso de herramientas para diseñar armas o generar daños físicos o materiales.

Una decisión no exenta de polémica

Supone una transformación drástica, ya que tiempos atrás se han vivido escenas de tensión por parte de trabajadores de grandes empresas tecnológicas que no podían afrontar contratos militares, tal y como le sucedió a Google, que recibió un proyecto del Pentágono que buscaba usar la IA de Google para analizar imágenes de vigilancia de drones.

Se han visto, junto al de Google, otros casos previos polémicos en cuanto al uso militar de la IA. Así fue como varios empleados de Microsoft protestaron por un contrato militar de 480 millones de dólares que buscaba aportar a los soldados cascos de realidad aumentada (RA).

Otra decisión estratégica fue la adoptada por más de 1.500 trabajadores de Amazon y Google, que firmaron una carta de protesta contra el contrato conjunto de 1.200 millones de dólares establecido con el Gobierno y el ejército israelí.

OpenAI adoptó estos importantes cambios en sus políticas el pasado 10 de enero, aunque intentaron que la noticia no trascendiese. Esta transformación normativa se produce justo en el momento del lanzamiento de GPTs. Ahora, los usuarios podrán crear sus propios chatbots aunque no se posean conocimientos avanzados en programación.

El objetivo de OpenAI es crear un conjunto de principios universales sencillos de recordar y de aplicar, ya que sus herramientas son utilizadas globalmente por usuarios cotidianos, incluso para construir sus propios GPTs.

Este cambio de orientación para OpenAI supondrá la posibilidad de trabajar con gobiernos de todo el mundo y obtener contratos multimillonarios. Al suprimir unos párrafos de las condiciones de contratación de sus productos, se deja la puerta abierta a que los algoritmos y protocolos de la empresa se empiezan a emplear en actividades militares. Habrá que ver, a corto-medio plazo, los daños colaterales impredecibles que genera esta decisión en OpenAI y en su nivel de ventas y reconocimiento mundial.

Las tecnologías cognitivas pueden ir a la guerra y pueden convertirse en un nuevo armamento eficiente para quienes sepan utilizar la IA de manera clara y contundente. El hecho de que herramientas clave como ChatGPT irrumpan en el campo de batalla, puedan enviar misiles o manejar drones contra enemigos, supone un riesgo latente. No obstante, los ejércitos podrán, a su vez, reforzar sus retaguardias en cualquier parte del mundo.

Lo más leído