A Fondo
Cascabeles para gatos y dragones: el reto de regular la IA
Aunque la inteligencia artificial (IA) no es ni mucho menos una novedad, la vertiginosa aceleración de su desarrollo que estamos viviendo en los últimos meses la ha convertido en protagonista de una disrupción sin precedentes. Gobiernos de todo el mundo anuncian medidas destinadas a limitar y controlar la evolución de la IA y sus herramientas, pero ¿es posible regular la inteligencia artificial? Analizamos con detalle que supone el complicado equilibrio entre el fomento de la innovación y la protección de nuestros derechos y valores fundamentales.
Cuando estudiamos historia solemos recurrir a la abstracción lineal de la evolución e imaginamos una sociedad donde las innovaciones tecnológicas se introducen poco a poco y las ventajas son tan claras que su adopción no supone grandes traumas. La realidad, como casi siempre, es bien diferente.
Antes de continuar, un ejemplo ilustrativo: en el siglo XIX, los médicos no recomendaban viajar en tren. Freud, neurólogo y “padre” del psicoanálisis llegó a decir que afectaba a la salud mental y se publicaron estudios en medios prestigiosos donde se advertía que “el cuerpo humano no estaba diseñado para viajar por encima de 45 kilómetros por hora”. Basta una búsqueda en Internet (o en una IA) para descubrir ejemplos parecidos al automóvil, la electricidad, la televisión o la imprenta.
Quizás no estemos tan lejos de lo que pensaron aquellos que veían al poderoso “caballo de hierro” cruzar las llanuras del Medio Oeste en lo que suponía un salto tecnológico de tal magnitud que resultaba incomprensible y amenazador. Y seguro que, en aquel momento, sintieron el sudor frío y la necesidad de limitar, controlar y regular aquello que venía a cambiar sus vidas para siempre.
Las posibilidades de la inteligencia artificial son abrumadoras y están siendo ampliamente comentadas. Pero, como ocurre en cualquier disrupción y más en una de esta magnitud, el movimiento no está exento de riesgos:
- Riesgos asociados al trabajo: la automatización impulsada por IA reemplazará a ciertas profesiones y millones de trabajadores. Esto podría generar desigualdades económicas y problemas asociados a la reconversión laboral.
- Sesgos y discriminación. Una IA entrenada con datos que contienen sesgos, como la discriminación racial o de género, puede redundar en decisiones discriminatorias en ámbitos como los recursos humanos, la medicina o las finanzas.
- Privacidad y seguridad. Entrenar una IA requiere cantidades ingentes de datos que, de no tratarse de la forma adecuada, podrían tener graves consecuencias para los afectados.
- Falta de transparencia, especialmente con modelos muy complejos de redes neuronales profundas que pueden ser difíciles de entender para los humanos. Si las decisiones de una IA no se pueden explicar, pueden derivarse importantes problemas éticos y legales.
- Control y superinteligencia. En un escenario donde la IA avance lo suficiente se podría desarrollar una inteligencia capaz de superarnos. ¿Cómo seríamos capaces de controlarla? ¿Qué mecanismos deberíamos implementar para evitar que suceda?
- Manipulación, control de masas y desinformación. La IA puede ser una poderosa herramienta de generación de contenido falso o confuso con el que manipular opiniones, decisiones o realizar ciberataques.
Velocidad y legislación son términos que rara vez están unidos y menos en estructuras tan complejas como la Unión Europea. Sin embargo, han sido nuestros legisladores los primeros que se han puesto manos a la obra preparando la base de lo que será la futura regulación de la Inteligencia Artificial en la Unión Europea.
Hace ya casi dos años, cuando ChatGPT no existía y el metaverso iba a revolucionar el mundo, la Comisión Europea ya propuso un borrador de regulación para una ley de inteligencia artificial. Entre otras cosas, establece una clasificación de las herramientas disponibles en función de su nivel del riesgo, de bajo a inaceptable. La votación, que se realiza a la hora de publicar estas líneas, ya es papel mojado.
Esta no es, por supuesto, la única iniciativa de la UE, pero si una de las más relevantes. En lo que se autodefine como una política activa se han aprobado estrategias, directrices éticas, se han destinado millones de euros en fondos y se promueve la cooperación internacional para el desarrollo de iniciativas IA.
Pongamos cifras a esta velocidad: Según datos publicados por Intel, el entrenamiento de la IA en el último año ha crecido cien millones de veces más rápido que la ley de Moore, el mítico postulado que afirma que la velocidad de procesamiento se duplicaría cada dos años y que hasta hace no mucho tiempo era la marca de lo esperable.
Alcanzar estas velocidades requieren de combustible y hay ingentes cantidades de dólares, euros o yuanes detrás de este crecimiento exponencial. IDC estima que el gasto global en IA este año alcanzará los 98.400 millones de dólares, con una tasa de crecimiento compuesta del 28.4% de 2018 a 2023. Según Research and Markets se espera que el mercado global de IA alcance los 190.000 millones de dólares para 2025. Cifras astronómicas que explican por qué vamos tan rápido.
En un intento por tomar algo de perspectiva, hace unos meses un grupo de 1.000 personas entre los que se encuentran científicos, ingenieros, intelectuales, empresarios, políticos y grandes nombres de la tecnología mundial, firmaron una carta abierta donde solicitan la suspensión durante seis meses del desarrollo de los mayores proyectos de Inteligencia Artificial, ante los «profundos riesgos para la sociedad y la humanidad» que pueden plantear sin el control y gestión adecuados.
Si el tiempo es un problema, también lo es el espacio: es evidente que una IA no entiende de fronteras geográficas y que una base legal aplicable únicamente en Europa no solo no resuelve casi ningún problema, sino que puede suponer un lastre importante en la carrera de la innovación. Un aspecto, recordemos, en el que estamos muy lejos del liderazgo.
En términos generales, la legislación propuesta está enfocada en temas como la protección de datos, la transparencia, la capacidad de supervisión humana y las derivadas de responsabilidad sobre el uso de la IA y de las herramientas que derivan de ella. Por supuesto, también hay implicaciones éticas muy complejas que escapan de la precisión del 0 y el 1 para adentrarse en las ciencias sociales, la psicología o la filosofía.
La política tiene prisa. La IA es percibida como una oportunidad, pero también como una amenaza para el poder establecido y, en concreto, una que va a ser muy complicada de controlar. El Índice de la inteligencia artificial 2023, elaborado por la Universidad de Stanford y publicado hace un mes, indica que Occidente y algunos países de Asia (principalmente los que aportan algún dato) están inmersos en una carrera para regularizar la IA. De 127 países analizados, 31 ya tienen al menos una ley para regular la IA.
Dos mundos, dos cascabeles, dos maneras de regular la IA
Si trazamos una línea en la frontera este de la Unión Europea podemos dibujar dos escenarios claramente diferenciados:
Al oeste, al otro lado del Atlántico, son conscientes de la importancia de no entorpecer el desarrollo de una tecnología que puede ser clave para el futuro de los EE.UU. Washington publicó unos principios que deben tenerse en cuenta a la hora de desarrollar herramientas y soluciones basadas en IA.
En el documento se expresa la necesidad de desarrollar soluciones seguras, eficaces, que respeten la privacidad de los datos que utilizan, que expliquen cómo funcionan y que siempre permitan la posibilidad de una intervenciómana en caso necesario.
En paralelo, el Congreso estadounidense trabaja en una legislación integral sobre IA compleja de desarrollar y de aprobar, dado que sería necesario acuerdo total entre demócratas y republicanos.
En los pasillos de Bruselas se está optando por la fragmentación, adaptando la legislación para proteger aspectos como los datos (el detonante de la prohibición de ChatGTP en Italia) o la regulación de propiedad intelectual de las imágenes, vídeos y música que puede generar una IA.
Si a este bloque sumamos el G7 (con países tan relevantes como Reino Unido, Canadá o Japón) tenemos un escenario geopolítico con muchos puntos en común y la protección a sus ciudadanos como denominador común, pero también con profundas diferencias que hacen que pensar en un gran acuerdo sea todavía poco más que una utopía.
Además, este conjunto de países son algunas de las principales economías del mundo y poseen un poder e influencias inmensos, pero no debemos olvidar que, en los últimos años, muchas cosas han cambiado: hay un dragón en la habitación o por qué nadie quiere hablar de China.
El gigante asiático, como sucede desde hace siglos, sigue sus propias normas. Para China, el desarrollo de la IA es una oportunidad que no van a dejar pasar, pero también supone una grave amenaza que deben controlar. En su caso, los límites están claros: la IA puede llegar justo donde termina el poder político, pero nunca más allá.
Para conseguirlo, van a combinar la experimentación regulatoria (hacer pruebas en determinadas zonas o provincias, por ejemplo, para el desarrollo de la conducción autónoma), la apuesta por los estándares y la regulación más estricta en caso necesario.
Por ahora, el enfoque de China no pasa por una regulación integral sino por normativas que resuelvan problemas concretos, de forma ágil y con la flexibilidad necesaria para adaptarse a cambios en tiempo real. No olvidemos que hablamos de un país que tardó 48 horas en restringir el acceso a ChatGTP a toda la población.
China no puede permitirse quedarse fuera de juego en la batalla por la IA, pero también es consciente de que no puede hacerlo sola. Necesita de la innovación – y el hardware – necesario para conseguirlo y no duda en pasar por los aros que sean necesarios… de momento.
Hablar de una regulación global de la IA sin contar con China (o Rusia) no tiene mucho sentido. Tampoco sabemos lo lejos que estamos ni qué pasará en el futuro, pero una sencilla analogía con la lucha con el cambio climático nos puede ayudar a afinar la bola de cristal.
Llegados a este punto, debemos tener en cuenta problemas como la diversidad de enfoques y prioridades, lo rápido que avanza la tecnología, las dificultades de implementación real (especialmente en términos de cooperación) y, especialmente, los diferentes intereses económicos y de competitividad de cada territorio.
Volviendo a nuestra línea imaginaria, tenemos una zona este donde prima el desarrollo tecnológico por encima de cualquier otro factor, llevándolo lo más lejos posible siempre que no comprometa a lo político. Además, parten de unas sociedades con una mayor aceptación de la vigilancia y el control por razones obvias. En el oeste preocupa cómo se puede proteger a los ciudadanos al mismo tiempo que hacemos una limitación “controlada” de la IA, garantizando su transparencia y estableciendo regulaciones sectoriales claras.
¿Es necesario regular la IA?
La Inteligencia Artificial, aún en el estado casi embrionario en el que se encuentra hoy no es una tecnología cualquiera. Como pasó con Internet, estamos muy lejos de saber qué consecuencias tendrá su desarrollo en los próximos años y cómo nos afectará, pero solo nos queda esperar para saber cuándo.
Por primera vez en la historia de la humanidad, estamos ante un avance que viene a mejorar o, quién sabe si a sustituir, nuestro atributo más preciado, aquel que nos ha permitido llegar donde estamos: la inteligencia.
Las leyes son una forma de regular nuestra convivencia. Controles externos a nuestra voluntad humana que nos facilita la vida en sociedad. Si hay máquinas que vayan a comportarse como personas, ¿tiene sentido que estas se sometan a un marco normativo?
El reto de la Unión Europea es mayúsculo: establecer un entorno regulatorio que proteja a los ciudadanos pero que, al mismo tiempo, no nos posicione en desventaja respecto al resto del mundo y permita la competitividad, innovación y atracción (o retención) de talento especializado. Quizás, el problema no es tanto poner el cascabel sino cuidar al gato y controlar al dragón.
-
A FondoHace 6 días
Viaje a los orígenes de Silicon Valley, o cómo todo empezó en el garaje de David Packard
-
NoticiasHace 7 días
Los propietarios de la compañía de impresoras Lexmark valoran su venta
-
NoticiasHace 6 días
Los ingresos por servicios e infraestructura cloud alcanzan 427.000 millones en seis meses
-
NoticiasHace 7 días
Microsoft anuncia más seguridad en Recall para intentar que los usuarios de PCs Copilot+ AI la activen