Actualidad, Seguridad

Microsoft, Google, OpenAI o Meta se comprometen a crear una IA segura y transparente

ia-regulacion

El mundo ve la Inteligencia Artificial (IA) como una oportunidad enorme en mucho sentidos, pero también como una amenaza si no se controla de la forma adecuada. El mismo creador ChatGPT ya pidió hace unos meses una regulación para controlar la IA generativa y poner barreras a una tecnología fundamental en los años venideros. Y parece que se han puesto manos a la obra.

A finales de la semana pasada, la Casa Blanca junto con varias empresas anunciaron un acuerdo junto a referentes tecnológicos para poner límites a la IA. La administración de Estados Unidos asentaba así la primera piedra para construir una IA más confiable, segura y transparente.

Han sido siete las grandes tecnológicas que han firmado este acuerdo. Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI se han comprometido a invertir en una Inteligencia Artificial segura, confiable y transparente. Un compromiso un tanto vago en propósitos concretos, pero que ya es una declaración de intenciones.

Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI se han comprometido a invertir en una Inteligencia Artificial segura, confiable y transparente

En el acuerdo, los firmantes se comprometen al desarrollo de tecnologías emergentes seguras. Esto supone el impulso de auditorías internas y externas de seguridad y la divulgación de información para gestionar los posibles riesgos.

El acuerdo alenta también la investigación en ciberseguridad para proteger las propiedades y el compromiso de facilitar a terceros los descubrimientos e informes de vulnerabilidades relacionados con sus sistemas de IA.

En el plano de la transparencia, esta alianza busca el desarrollo de mecanismos que ayuden a los usuarios a saber cuándo un contenido está desarrollado con IA o no, crear marcos limitados de funcionalidades para evitar usos inapropiados, y el desarrollo de una Inteligencia Artificial que ayude en los retos de la humanidad.

Además, el gobierno de Biden-Harris lleva un tiempo trabajando con otros países en esta misma línea. El país ha firmado acuerdos con Brasil, Canadá, Chile, Francia, Alemania, India, Israle, Italia, Japón, Kenia, México, Países Bajos, Nueva Zelanda, Nigeria, Filipinas, Singapur, Corea del Sur, Emiratos Árabes y Reino Unido.

Primeros pasos hacia un marco regulatorio

El acuerdo de la administración con las referencias tecnológicas no deja de ser un primer paso de lo que debería llegar a no muy tardar. Una regulación global que construya un marco en el que mover una tecnología con tanto potencial como la IA.

Y es que estamos ante una tecnología que puede cambiar el mundo. Una tecnología que crece a un ritmo vertiginoso, incorporándose en soluciones de todo tipo para el beneficio común. Sin embargo, en las manos inadecuadas puede convertirse en un problema en muchos planos. Ya lo estamos viendo en la nueva generación de ciberamenazas, pero también en casos de propiedad intelectual o desinformación.

Bien lo saben los gigantes tecnológicos que ya trabajan en este punto. Microsoft, por su parte, está promoviendo sus propios estándares de lo que considera una IA segura, transparente y confiable. Pero siempre mirando a su beneficio, ya que no deja de ser una organización privada que vela por sus intereses.

Sabiendo esto, las administraciones, no solo la de Biden-Harris, deberían tomar cartas en el asunto rápidamente y de una forma mucho menos vaga. Llegar tarde es la norma gubernamental en lo que a tecnología se refiere, pero en esta ocasión todavía tenemos la oportunidad de regular a tiempo. ¿Lo harán?

 

Artículo AnteriorSiguiente Artículo
Coordinadora editorial de MuyCanal. Danzando día a día entre partners, mayoristas y fabricantes para profundizar en el canal de distribución tecnológico.