Uno de los principales problemas que tienen los sistemas de Inteligencia Artificial es el sesgo de género. Esto lleva a numerosas consecuencias indeseadas, que van desde la discriminación a la reducción de transparencia, pasando por problemas de seguridad y privacidad. En los peores casos, las decisiones equivocadas que toma la IA puede llevar a sufrir daños en las carreras profesionales de las personas, e incluso puede costar vidas. Por eso es necesario abordar el problema del sesgo de género en la IA.
La IA solo es igual de buena que los conjuntos de datos con los que está entrenada. Muchos de esos datos están sesgados favorablemente hacia los hombres. Lo mismo sucede con el lenguaje utilizado en libros y artículos de noticias online. Y según una investigación, el entrenamiento de la IA con datos de Google News lleva a asociar a los hombres con roles como capitán o financiero, mientras que las mujeres están asociadas a términos como recepcionista y ama de casa.
Como resultado, muchos sistemas de Inteligencia Artificial, entrenados con esos datos sesgados, y con frecuencia desarrollados por equipos compuestos principalmente por hombres, han tenido problemas significativos con mujeres. Entre ellas, en áreas en las que las decisiones equivocadas pueden dañar el estado financiero o la salud de las personas.
Si a esto le añadimos que solo el 22% de los profesionales de IA y ciencia de datos son mujeres, según las investigaciones del Foro económico mundial, el problema está servido. Más que nada, porque a partir de ahora, las empresas se apoyarán cada vez más en la IA para extraer valor de sus datos. Y según el informe Datos para la humanidad de Lenovo, el 88% de los líderes de empresas dicen que la Inteligencia Artificial jugará un papel importante en la ayuda a su organización para sacar partido a sus datos en los próximos cinco años.
¿Cómo abordarán los líderes de empresas el problema del sesgo= Habría que empezar por asegurarse de que la manera en la que trabajan las empresas es justa, en lo que se refiere a la inclusión y a la representación de los géneros. También hay que prestar atención a cómo se recopilan y usan los datos.
Cuando empiezas a recoger datos, los procesas o los usas, siempre hay riesgo de que haya sesgo. Por tanto, será cada vez más importante que los líderes de las empresas piensen de dónde vienen los datos, cómo se usan y cómo luchar contra el sesgo. Las soluciones técnicas también jugarán un papel destacado en ello.
Hay varias soluciones: una es hacer que más personas prueben los modelos y detecten problemas. Pero la mejor es tener más herramientas que descubran el sesgo de manera eficiente. Ya sea en los datos que se suministran a la IA, o en el modelo que les sirve como base. También será importante contar con más transparencia sobre cómo trabaja la Inteligencia Artificial.
Tener en cuenta el contexto amplio también ayuda. Las herramientas que usamos en la actualidad ya están generando sesgo en los modelos que aplicaremos en el futuro. Puede que creamos que hemos solucionado un problema de sesgo en un momento dado, pero en 50 años, nuevas herramientas o pruebas puede que cambien la forma en que vemos ciertas cosas. Tanto a nivel social, como de salud, como laboral.
Los líderes de las empresas deben planificar cuidadosamente el uso de IA responsable, y crear su propia definición de lo que esto implica para su organización, identificando los riesgos y valorando dónde puede atacar el sesgo. Necesitan interactuar con los responsables de áreas para comprender problemas potenciales, e identificar cómo avanzar con las mejores prácticas. Es algo que requerirá atención constante por parte de las directivas de las empresas.
A cambio, la recompensa de usar la IA de manera responsable será considerable, y permitirá a las empresas mejorar su reputación en cuanto a confianza, equidad y responsabilidad. También aportará valor real a las organizaciones, a sus clientes y a la sociedad. en su conjunto.