Conecta con nosotros

Noticias

Twitter y el camino hacia una IA sin prejuicios

Publicado el

Twitter pide a todos sus usuarios que cambien su contraseña debido a un bug

Nadie lo duda: machine learning e Inteligencia Artificial representan no solo el futuro de la tecnología sino que cada vez forman parte de un presente que los «gurús» observan con cierta preocupación.

Y es que aunque podría pensarse que los algoritmos de IA son precisamente eso, «artificiales», no hay que olvidar que en última instancia han sido programados y sobre todo, entrenados, por seres humanos…que de forma consciente o inconsciente acaban introduciendo en estos desarrollos los mismos estereotipos y sesgos (raza, género, edad, etc.) que se dan en las sociedades en las que viven.

El ejemplo paradigmático y que más se cita es el de «Tay», un chatbot desarrollado por Microsoft y que tras ser expuesto en redes sociales, tardó menos de una semana en convertirse en un bot racista y sexista, por lo que fue retirado de Internet.

Sin embargo esos sesgos que se dan en los algoritmos, normalmente se introducen de una forma mucho más sutil y menos evidente para los usuarios, perpetuando precisamente esas conductas que de forma pública sus desarrolladores dicen querer evitar. Una de los últimas empresas en sufrir las consecuencias de estos algoritmos «díscolos» ha sido Twitter.

Un algoritmo no tan inofensivo

Facilitar la vida a los usuarios. Esa era la intención original de Twitter cuando hace algo más de un año puso en marcha un algoritmo que, haciendo uso de la IA, favorecía la publicación de fotos en la red social, recortando y centrando automáticamente las imágenes que se subían a la misma.

Y todo parecía ir bien hasta que el pasado mes de mayo, se dispararon las alarmas: el agoritmo estaba recortando las imágenes para favorecer la promoción de mujeres blancas. Esto provocó que la compañía decidiera retirarlo de forma inmediata para repensar de qué forma se podía evitar que la IA no fuera víctima de este sesgo.

Para ello desde la red social convocaron el concurso – «the algorithm bias bounty challenge”– a través del cual se compartía el código fuente de este desarrollo entre todos los interesados en participar. ¿Qué se descubrió? Que además de en función de su sexo, esta IA también discrimina las imágenes en función del peso de las personas que se muestran y su edad. De la misma forma, favorece el uso de textos en inglés frente a otros idiomas.

En este sentido, Bogdan Kulynych, una investigadora del EPFL de Suiza y ganadora de un concurso premiado con 5.000 dólares, mostró a los expertos de Twitter cómo esta tecnología favorecía sistemáticamente la promoción de mujeres blancas, delgadas y jóvenes… en un experimento en el que utilizó no solo miles de fotografías, sino también distintas técnicas de deepfake con las que generar todo tipo de rostros.

El llegar a esta conclusión ha llevado a algunos expertos a sugerir que de la misma forma que las empresas organizan periódicamente concursos en los que animan a los usuarios a descubrir fallos de seguridad en sus aplicaciones, tal vez sería interesante hacer lo propio con los algoritmos, poniendo eso sí el foco en estos sesgos que deberían ser evitados. Premiar en definitiva, a aquellos usuarios que se muestren dispuestos a emplear parte de su tiempo en identificar esos comportamientos «artificiales» que replican conductas poco deseables.

Reconocen eso sí que la dificultad en este caso es superior que en el caso de los fallos de seguridad. A diferencia del malware, estos sesgos forman parte de nuestro codigo genético, de lo que nos hace ser personas. Y aunque por supuesto puede parecer sencillo determinar si un chatbot se está comportando de forma racista a la hora de mostrarnos imágenes, en ocasiones esos sesgos pueden ser mucho más complicados de percibir.

Incluso algunos como los que se utilizan para analizar las radiografías médicas, pueden interiorizar los prejuicios raciales de un modo que los humanos no pueden detectar fácilmente. Se abre pues un campo lleno de posibilidades y por qué no, de oportunidades profesionales, para el desarrollo de una IA mucho más ética y que al menos en algunos aspectos, tenga muchos menios prejuicios de los que tenemos los seres humanos

Periodista tecnológico con más de una década de experiencia en el sector. Editor de MuyComputerPro y coordinador de MuySeguridad, la publicación de seguridad informática de referencia.

Lo más leído