Conecta con nosotros

Opinión

Me opongo a que la IA decida sobre mí

Publicado el

El 65% de directivos no saben cómo toman decisiones los modelos de Inteligencia Artificial

Cada año, el día 28 de enero se celebra el Día Europeo de la Protección de Datos, una celebración que viene a recordarnos la importancia de los datos personales y su uso por parte de compañías privadas y organismos públicos.

Resulta interesante pararse a pensar precisamente en esa característica, el empleo o tratamiento de los datos, porque la protección de los datos personales no solo afecta a la custodia de quienes los obtiene por medios lícitos, sino también a cómo estos los emplean para tomar decisiones. No en vano, más allá de los procedimientos y medios técnicos necesarios para gestionar su protección, el tratamiento de los datos, en particular a través de técnicas de Inteligencia Artificial (IA), despierta un extraordinario interés entre las compañías.

Tratamiento de la información personal y herramientas de IA

En los últimos años, el tratamiento de los datos personales está adquiriendo un nuevo protagonismo debido a las emergentes herramientas de Inteligencia Artificial que día a día comienzan a utilizarse en el mercado. 

No somos ajenos al perfilado de características individuales que las compañías hacen con nuestros datos con objeto de hacernos llegar ofertas, productos de interés o, lo que es más relevante e inquietante, la obtención de un empleo o la concesión de un crédito financiero. De facto, en algunos países (obviamente fuera de la Unión Europea) los datos comienzan a utilizarse para valorar incluso el “nivel de ciudadanía” de una persona.

En todos estos casos, las herramientas de Inteligencia Artificial empiezan a ser una opción cada vez más extendida. Precisamente por esto, la Unión Europea lleva tiempo planteándose una nueva legislación en cuanto al uso de la IA en el tratamiento de información personal. 

Es evidente que el tratamiento de los datos personales, sean del nivel de criticidad que sea, tiene un protagonismo fundamental en la gestión diaria que hacen sus depositarios. Por eso, resulta indispensable pensar en si debemos permitir su utilización para determinados fines. Se trata de un derecho que el RGPD nos otorga; podemos, o no, aceptar ese uso, pero debemos manifestarlo explícitamente. 

Sin embargo, incluso en ese caso, el RGPD también nos reconoce otros derechos: el derecho a conocer la información personal que un tercero tiene de nosotros, el derecho de acceso a esos datos, el derecho a que los datos sean corregidos si es necesario, el derecho a retirar el consentimiento a su utilización, el derecho al olvido o el derecho a transferir los datos a terceras partes.

Derecho de oposición y derecho de oposición al tratamiento automático

Hemos dejado para el final otros dos derechos indispensables: el derecho de oposición y el derecho de oposición al tratamiento automático. Estos son precisamente los puntos donde las fricciones con el uso de la Inteligencia Artificial son mayores. 

La Agencia Española de Protección de Datos publicó en 2020 una guía en la que recogía cómo las herramientas de IA debían adecuarse al RGPD para evitar la discriminación, las decisiones injustas, o la denegación de un servicio o producto cuando una decisión era tomada por parte de una máquina. Sin embargo, hoy en día, la controversia en cuanto a la verdadera adecuación continúa latente.

El debate gira en torno al artículo 22 del RGPD que en su apartado primero dice: “Todo interesado tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar.”. 

Artículo 22 del RGPD y el derecho a una explicación

Aunque el artículo tiene matices posteriores que podrían legitimar a los depositarios para este tratamiento, algunos expertos han manifestado que la correcta interpretación de este artículo debe tener en cuenta un último derecho que no hemos mencionado hasta el momento: el derecho a una explicación. 

Este derecho podría poner en tela de juicio muchas de las herramientas de IA y cuyos algoritmos son difícilmente explicables por aquellos que los emplean. El Deep Learning o el Big Data forman parte de la componente tecnológica que sirve para esas decisiones y en muchas ocasiones resultan verdaderamente complejos (cuando no imposibles) de explicar. 

Para solventar esta dificultad, algunos expertos creen que la incorporación de la presencia humana en el proceso de decisión puede solventar el problema. De esta forma, las herramientas de IA se presentarían como ayudas durante el proceso cuya decisión final se otorgaría a una persona.

El papel del decisor humano

Sin embargo, no se puede obviar que la participación humana en este proceso debería ser significativa, y no solo un gesto simbólico. De hecho, esta debería llevarse a cabo por personas que tuvieran la autoridad y la competencia para cambiar la decisión. Pero no solo eso; además deberían ser capaces de explicarla. Algo que no resulta tan evidente cuando, por poner un ejemplo, un sistema de videovigilancia basado en técnicas de IA decide que una persona es sospechosa y sugiere al agente de la autoridad su registro o detención, o cuando un sistema crediticio propone conceder o denegar una línea de crédito o despedir a una persona. Los casos posibles son numerosos y la pregunta que siempre deberíamos hacernos es ¿por qué los decisores han llegado a una conclusión particular sobre nosotros? En la explicación precisamente puede estar una parte de su ilegalidad.

Sea cual sea el caso, no está de más recordar, hoy precisamente, que el RGPD recoge derechos que como ciudadanos no deberíamos olvidar. Derechos que deberíamos ejercer no únicamente porque está en juego nuestra privacidad sino también porque el tratamiento por terceras partes de esa, a veces infravalorada, información personal puede llegar a ser ilegal, y más aún cuando las decisiones que se tomen con ella resulten difícilmente explicables.

Firmado: Juanjo Galán, Business Strategy de All4Sec

Lo más leído