A Fondo
Seis sesgos que dejan en evidencia los prejuicios de la Inteligencia Artificial

Los sistemas de Inteligencia Artificial, cuya adopción a nivel empresarial y particular está creciendo con rapidez, no son neutrales. Tienen sesgos que reflejan tanto los de los datos con los que se entrenan sus modelos como las decisiones que toman quienes diseñan estos sistemas. Por eso es necesario comprender y abordar los sesgos de los algoritmos que afectan a la información, la toma de decisiones y los derechos digitales.
Así lo subrayan desde la UDIT, cuyos responsables avisan también sobre los riesgos de la hiperconectividad y el papel de la IA en la vida cotidiana, cada vez más relevante. También de que cuando los datos con los que se entrenan los sistemas de IA reproducen desigualdades históricas o prejuicios culturales, los modelos de dichos sistemas pueden amplificar estas distorsiones, lo que lleva a la existencia de resultados discriminatorios, que pueden perpetuar estereotipos e incluso invisibilizar colectivos.
Por eso es necesario identificar los sesgos más comunes a los que los usuarios de los sistemas de IA están expuestos cuando utilizan la Inteligencia Artificial. Solo de esta manera podrán contar con la información y herramientas necesarias para evitar sus consecuencias. Los principales son seis: falta de diversidad en los resultados, resultados repetitivos o extremos, desigualdad de trato o acceso, falta de transparencia, sesgo de confirmación algorítmico y sesgo de automatización.
Principales sesgos que dejan al descubierto los prejuicios de la IA
Cuando los algoritmos dan prioridad a perfiles, productos o ideas que responden siempre a un mismo patrón (personas blancas, jóvenes, hombres o de un contexto cultural concreto), hay señales de que los datos de entrenamiento de los modelos de IA del sistema tienen una diversidad de representación escasa.
Esta falta de diversidad en los datos de entrenamiento puede excluir a diversos colectivos, además de limitar el acceso a recursos y oportunidades de quienes no se ajustan al perfil predominante utilizado para entrenar el sistema.
En cuanto a la desigualdad de trato, en algunos servicios digitales o plataformas de comercio electrónico, los algoritmos pueden generar resultados distintos en función del perfil de usuario. Esto lleva a variaciones de precio, recomendaciones personalizadas o tiempos de espera más elevados para unos usuarios que para otros. Estas segmentaciones se diseñaron en principio con fines comerciales, pero pueden llegar a discriminar a determinados colectivos en función de su localización geográfica, su nivel socioeconómico o su actividad en la plataforma.
Hay que tener en cuenta, como hemos visto también, que muchos sistemas basados en IA funcionan como cajas negras, sin dar al público y a los usuarios una explicación clara y detallada de cómo toma las decisiones que pueden afectarlos. Esto puede ser problemático cuando se utilizan en procesos sensibles de tipo económico o laboral (concesión de préstamos, selección de personal, etc). En estos casos, la falta de información complica tanto la rendición de cuentas como la revisión de los procesos y procedimientos seguidos para la toma de decisiones.
En relación con el sesgo de confirmación algorítmico, hay que tener en cuenta que los algoritmos aprenden de comportamiento que hemos tenido en el pasado. Tanto lo que compramos como lo que leemos o vemos. Por tanto, saben qué nos interesa, por lo que cuando utilizamos algún servicio impulsado por IA tienen a mostrarnos elementos y contenidos que nos vayan a gustar.
De esta manera refuerzan lo que creemos y nos hacen sentir que un servicio o sistema tiene justo lo que nos gusta o necesitamos, y queda limitado el acceso a nueva información y contenido. No solo eso, sino que en según que circunstancias, la diversidad de perspectivas y puntos de vista de un tema sobre el que se busca información puede quedar reducido. También supone la creación de barreras para que los internautas puedan formarse una opinión crítica.
Por último, el sesgo de automatización influye en la percepción que podemos tener de la infalibilidad de los sistemas basados en IA. Tanto los usuarios de estos sistemas, como los profesionales que acuden a ellos en busca de apoyo para realizar su trabajo, pueden llegar a creer, erróneamente, que estos sistemas son infalibles, y a aceptar sus respuestas y resultados sin cuestionarlos ni comprobar su veracidad. Como consecuencia, quienes no hagan ningún tipo de comprobación de las respuestas de estos sistemas, y simplemente las den por válidas, pueden tomar decisiones erróneas por utilizar como base información que no es cierta.
Sandra Garrido, Coordinadora del área de tecnología de UDIT, recuerda que nos rodean todo tipo de dispositivos, plataformas y servicios que recogen datos de manera constante a partir de nuestros clicks, reproducciones o posición. Muchas veces, sin que nos demos cuenta de ello. Y señala que estos datos se suministran después a algoritmos de personalización que se utilizan para decidir «qué leemos, qué vemos e incluso qué pensamos«.
Para Garrido, esta personalización extrema a la que nos exponen condiciona nuestras decisiones, aunque también puede «reforzar burbujas digitales, alimentar la polarización y propagar la desinformación. Esto sucede gracias a una infraestructura invisible que, además, sustenta otro gran fenómeno de nuestro tiempo: la Inteligencia Artificial«. La directiva recuerda que hay herramientas que, ante este panorama, los usuarios pueden poner en marcha para hace un uso más consciente y crítico de la tecnología. Como la educación digital.
-
A FondoHace 4 días
Repsol mejora la experiencia de cliente con Salesforce Agentforce
-
A FondoHace 5 días
Qué esperamos del WWDC25 de Apple
-
NoticiasHace 1 día
AMD presenta las aceleradoras de IA, Instinct MI350
-
NoticiasHace 6 días
Colt, Honeywell y Nokia probarán criptografía cuántica segura con base en el espacio