Conecta con nosotros

Noticias

La UE prepara un reglamento regulador sobre herramientas de IA

Publicado el

Aunque años atrás han consistido en indicaciones éticas y códigos de valor, todo hace indicar que 2023 será el año en el que los organismos legisladores de Europa presentarán la nueva normativa que controle el uso de la inteligencia artificial (IA) en la producción de imágenes y texto. Todo ello viene como consecuencia de la popularización de herramientas como LaMDA, Lensa, Stable Diffusion y ChatGPT y de los recientes ataques cibernéticos que han sufrido recientemente y que han puesto en peligro la seguridad y la privacidad de usuarios, empresas e instituciones públicas.

La IA ha sido vista en los últimos años como un espacio sin límites, accesible para cualquier persona sin necesidad de grandes conocimientos. Pero tanto las agencias gubernamentales de EEUU, como la Comisión Federal de Comercio, como la UE están reflexionando al respecto y consideran necesario implantar medidas urgentes.

La UE actualizará su Ley de IA, todo apunta a que en la segunda mitad del año, con reglas que obligan a las empresas a ser más transparentes en la explicación sobre el funcionamiento de sus herramientas. Y es que como consecuencia también pasa a ser un campo completamente desconocido el cómo se generan los contenidos maliciosos a través de dichas herramientas. A partir de aquí éstas deberán decidir si prefieren seguir la normativa para vender sus productos en el viejo continente, o si de lo contrario prefieren enfrentarse a multas de hasta el 6%.

No obstante, aún resulta impredecible saber cómo se podrán regular estos modelos de IA con la nueva legislación, pero desde luego lo que se frenar es que se utilicen modelos de lenguaje amplios como GPT-3 para chatbots de servicio al cliente y generar una desinformación a escala, o Stable Diffusion para crear imágenes pornográficas sin consentimiento.

Empresas como OpenAI, Google y DeepMind se han mostrado reacias hasta entonces a desvelar el ADN de sus herramientas, aunque todo hace indicar que se verán obligadas a ello por tal de cumplir con la normativa y de generar un futuro más esperanzador para el sector.

La solución que propone Europa es que las empresas informen detalladamente sobre sus acciones, es decir, monitoreando sus resultados y prohibiendo a los usuarios que abusen de la tecnología para propagar contenidos tóxicos.

Los orígenes de la iniciativa

La UE empezó a hablar sobre la necesidad de regular la IA a finales del año 2018, presentando por aquel entonces un plan coordinado con todos los estados miembros. Así fue como la Comisión Europea publicaría en 2019 las Directrices éticas para una Inteligencia Artificial de confianza y en 2020 el Libro Blanco sobre Inteligencia Artificial. Se impulsaba por tanto el liderazgo de Europa en el sector, pero respetando los derechos fundamentales del continente.

En marzo de 2021 entraría en juego la Ley de Inteligencia Artificial con el propósito de regular los usos de la IA, siendo pionero a escala mundial en el uso de ésta de un modo seguro.  De este modo, las obligaciones de las empresas quedaban recogidas en cuatro tipos de acciones: riesgo inaceptable (puntuación social, vigilancia masiva o manipulación del comportamiento) quedando prohibidos; alto riesgo (acceso a empleo, educación y componentes de seguridad de vehículos), donde se realizaba una evaluación de conformidad; riesgo limitado (suplantación de personalidad, chatbots, deep fakes, etc.), donde existe una obligación de transparencia y etiquetar cuando se trata de ‘deep fakes’; riesgo mínimo (para el resto de usos) y debiendo adoptar códigos de conducta voluntarios y de transparencia total.

Los modelos de IA que transforman los textos en imágenes como Dall-e de Open AI han generado un efecto revolucionario en el sector. Todo hace indicar que la IA evolucionará para crear imágenes a partir de textos en varios idiomas, controlar robots o producir nuevos medicamentos.

Los últimos avances al respecto vienen de la mano de compañías como Microsoft, que quiere usar ChatGPT de OpenAI para potenciar sus búsquedas y competir con Google. Apple también ha lanzado un catálogo de audiolibros con voz de IA. Por tanto, se puede afirmar que, a pesar de las regulaciones que lleguen, el sector atraviesa su mejor momento y no encontrará límites.

Lo más leído