Noticias
Amazon abandona un algoritmo de contratación por «sexista»
La inteligencia artificial ha demostrado tener un gran potencial que va más allá del sector tecnológico. Amazon es uno de los gigantes que más ha apostado por ella durante los últimos años, lo que le ha permitido dar forma a servicios tan interesantes como Amazon Go.
Sin embargo, ese gran potencial no está exento de problemas. En este artículo ya vimos que los sistemas de inteligencia artificial podían desarrollar prejuicios, y la compañía de Jeff Bezos ha podido experimentarlo con un caso real: el algoritmo que utilizaba su sistema de inteligencia artificial para elegir al personal que trabajaría en la empresa sentía animadversión por las mujeres.
La automatización ha jugado un papel clave en el desarrollo de Amazon y desde 2014 se empezó a adoptar también en su sistema de selección de personal. Los sistemas de inteligencia artificial que eran capaces de revisar las solicitudes de empleo y evaluar a los candidatos resultaban prometedoras, ya que agilizaban enormemente el trabajo y superaban el rendimiento que podía ofrecer un humano.
Esto llevó al gigante del canal minorista a probar un algoritmo para la selección de personal. Nada parecía ir mal, hasta que se dieron cuenta de que el sistema que utilizaban se autoinculcó que los candidatos masculinos eran preferibles. Sobre ese prejuicio estableció sistemas de penalización que marcaban de forma negativa cualquier expresión o frase con referencia directa o indirecta a «mujer» o a «mujeres» (por ejemplo «capitán de clubes de ajedrez para mujeres»). Su rechazo al sexo femenino llegó hasta tal punto que infravaloró los graduados de dos universidades para mujeres.
Amazon hizo cambios en el algoritmo para que volviera a tener una actitud neutral, pero esto no garantizaba que no volvieran a surgir problemas de discriminación, así que acabaron perdiendo toda la fe en el proyecto.
Muchos expertos coinciden en que la inteligencia artificial va a ser clave en la selección de personal, pero todavía hay mucho camino por recorrer, ya que es necesario garantizar que el algoritmo utilizado sea neutro y capaz de interpretar correctamente los valores de cada candidato.
-
NoticiasHace 5 díasGoogle libera Gemma 4, su modelo de IA de código abierto más avanzado
-
ContentHace 4 díasNunsys Group convierte el dato en un activo estratégico para AIMPLAS
-
NoticiasHace 6 díasASUS UGen300, el primer acelerador de IA en formato USB
-
A FondoHace 3 díasAnthropic lanza el Proyecto Glasswing para controlar la potencia de su propia IA en ciberataques

