Conecta con nosotros

Noticias

OpenAI mejoró ChatGPT pagando a trabajadores de Kenia menos de dos dólares la hora

Publicado el

OpenAI mejoró ChatGPT pagando a trabajadores de Kenia menos de dos dólares la hora

Sin duda, ChatGPT puede considerarse una de las innovaciones en tecnología más impresionantes y atractivas de todo el año pasado. Su popularidad es inmensa desde el mismo momento de su lanzamiento, producido el pasado mes de noviembre. En menos de una semana tenía un millón de usuarios, y todavía hoy sus usuarios saturan la plataforma.

Su creador, OpenAI, está en la actualidad en negociaciones para conseguir fondos que permitan subir su valoración hasta los 29.000 millones de euros. Entre estas inversiones hay rumores de que habrá una de Microsoft, por un valor de 10.000 millones de dólares. Pero esta historia de éxitos no solo tiene luces: también tiene varias sombras. Entre ellas, cómo OpenAI consiguió mejorar el nivel de toxicidad de ChatGPT subcontratando el trabajo necesario para conseguirlo a trabajadores de Kenia, a los que pagaba menos de dos dólares la hora, según Time.

Este trabajo, vital para OpenAI, consiguió que ChatGPT fuese mucho menos tóxica que GPT-3, caracterizada por su tendencia pasado un tiempo a hacer afirmaciones racistas, sexistas o violentas. Esto se debió a que la IA que incorporaba se había entrenado con cientos de miles de millones de palabras sacadas de Internet. Es decir, con lenguaje humano. Como resultado, GPT-3 tenía unas capacidades lingüísticas impresionantes, pero también un nivel de lenguaje tóxico muy elevado.

Eliminar este lenguaje resultó ser imposible, y se vio la necesidad de desarrollar un mecanismo de seguridad adicional, impulsado por IA, para conseguir crear un chatbot apropiado para el uso cotidiano, lo que es ChatGPT. Para crear esta IA, que integraría en ChatGPT, OpenAI se centró en alimentarla con ejemplos de violencia, discurso de odio y abusos de todo tipo. De esta manera, esta IA sería capaz de detectarlos todos al instante.

Pero hacerlo requería mucho trabajo, e inversión. Así que OpenAI envió decenas de miles de trozos de texto con todo tipo de abusos, que iban desde la bestialidad a la tortura y el asesinato, pasando por abusos a menores y de otros tipos, a una empresa externa de Kenia desde noviembre de 2021.

OpenAI subcontrató los servicios de una empresa para mejorar ChatGTP

Lo hizo con la colaboración de una empresa externa con sede en San Francisco, Sama. Esta compañía cuenta con empleados en Kenya, Uganda e India, que se encargan de etiquetar datos para grandes tecnológicas, como Google, Meta o Microsoft. Sama se considera una empresa de «Inteligencia Artificial ética», y asegura haber ayudado a sacar a más de 50.000 personas de la pobreza. Pero el personal que emplea recibió un salario por este trabajo de entre 1,32 y 2 dólares la hora dependiendo de su experiencia y rendimiento.

En una declaración, un portavoz de OpenAI ha confirmado que los empleados de Sama en Kenya han contribuido a entrenar una herramienta que estaban desarrollado para detectar contenido tóxico, y que se ha integrado en ChatGPT. En su texto también señalan que este trabajo contribuyó a los esfuerzos que realizan para eliminar datos tóxicos de los conjuntos de datos de entrenamiento de ChatGPT, recordado que, para ellos, su misión es «asegurar que la Inteligencia Artificial general beneficia a toda la humanidad«.

No obstante, a pesar de la importancia del trabajo, este se hizo en condiciones de explotación en países en vías de desarrollo, con trabajadores que trataban además con contenidos que pueden resultar perjudiciales para su salud mental. De hecho, la naturaleza traumática del trabajo que tenían que realizar los trabajadores en Kenya llevó a Sama a cancelar su trabajo con OpenAI en febrero de 2022, ocho mese antes de lo planeado.

En total, OpenAI firmó tres contratos por un total de 200.000 dólares con Sama a finales de 2021. En ellos se establece que el trabajo consiste en etiquetar descripciones textuales de abuso sexual, discurso de odio y violencia. A este trabajo se asignaron unas tres docenas de empleados, divididos en tres equipos. Cada equipo se centraba en uno de estos temas. Según algunos empleados, se esperaba que leyeran entre 150 y 250 pasajes de texto por cada turno de nueve horas. Estos trozos podían contener entre 100 y 1.000 páginas.

Todos los trabajadores que ha entrevistado TIME aseguran sufrir secuelas mentales del trabajo realizado. Aunque estaban obligados a acudir a sesiones con consejeros de bienestar, todos dijeron que estas sesiones no les ayudaron, y que eran muy esporádicas, debido a las presiones que tenían para ser más productivos en su trabajo. Dos de los entrevistados aseguran que solo se les dio opción de acudir a sesiones grupales, y uno de ellos recuerda que sus peticiones de ver a consejeros de manera privada fueron denegadas sistemáticamente por la dirección de Sama.

La compañía ha negado que los empleados tuviesen acceso solo a sesiones de grupo, y han asegurado que estaban previstas para ellos tanto sesiones individuales como en grupo, con «terapeutas de salud mental titulados y con experiencia profesional«, que estaban accesibles a cualquier hora.

Los contratos firmados establecen que OpenAI pagaría 12,50 dólares la hora a Sama por el trabajo, una cantidad mucho mayor que lo que recibían los empleados de Sama que hacían el trabajo. Los agentes, los etiquetadores de menor nivel que hacían el trabajo y que eran mayoría en los tres equipos formados para ello, recibían un salario de solo 170 dólares al mes, según han confirmado empleados de la compañía. Además recibieron un extra mensual de unos 70 dólares por la naturaleza de su trabajo, y habrían recibido comisiones por alcanzar ciertos niveles de rendimiento, como precisión y velocidad.

Como resultado, un agente que trabajase en turnos de nueve horas podría esperar un salario de 1,32 dólares después de impuestos por cada hora, que podía llegar a 1,44 dólares la hora si superaba todos sus objetivos. Los analistas de calidad, etiquetadores de mayor nivel cuyo trabajo era comprobar el trabajo de los agentes, recibieron un salario de 2 dólares la hora si cumplían todos sus objetivos.

Sama ha asegurado, no obstante, que los trabajadores tenían que etiquetar 70 trozos de texto por cada nueve horas de trabajo, no hasta 250, y que los trabajadores podían ganar entre 1,46 y 3,74 dólares cada hora después de impuestos.

Eso sí, no han especificado qué puestos son los que ganaban más de dos dólares la hora, añadiendo que «la tarifa de 12,50 dólares la hora cubre todos los costes, como los gastos en infraestructura, el salario y los beneficios para asociados y su equipo de analistas de asegurado de la calidad y líderes de equipo, con dedicación completa«. Desde Open AI han señalado también que no impusieron objetivos de productividad, y que Sama era responsable de gestionar el pago y todo lo relacionado con la salud mental de los empleados.

El fin del trabajo de Sama para OpenAI

En febrero de 2022, la relación entre Sama y OpenAI se estrechó solo durante un breve periodo de tiempo, para después romperse. Ese mes, Sama empezó a trabajar en un programa piloto para otro proyecto de OpenAI: recopilar imágenes sexuales y de violencia, algunas de ellas ilegales según las leyes de Estados Unidos, para entregárselas a OPenAI. El trabajo de etiquetado de imágenes en este producto parece estar completamente desligado de ChatGGPT, aunque no se sabe qué fines perseguía la empresa con ellas, aunque han señalado que su etiquetado era necesario para hacer que las herramientas de Inteligencia Artificial sean más seguras.

Así, en febrero, según una factura, Sama entregó a OpenAI una muestra de 1,400 imágenes, entre las que había imágenes de todo tipo de abusos y violencia. Pero en unas semanas Sama canceló todo su trabajo con OpenAI, en algunos casos antes de lo estipulado por contrato. Según Sama, su acuerdo de recopilar imágenes para OpenAI no incluía referencias a contenido ilegal, y después de tener el trabajo empezado OpenAI envió instrucciones adicionales refiriéndose a algunas categorías ilegales.

En ese momento, según la compañía, el equipo del Este de África comunicó su preocupación a los directivos de la empresa, Sama terminó con el piloto de clasificación de imágenes y envió un aviso de que cancelaría el resto de proyectos de OpenAI. «Las personas que trabajaban con el cliente no revisaron la petición a través de los canales adecuados. Después de revisar la situación, esas personas fueron despedidas y se pusieron en marcha nuevas salvaguardas y políticas de revisión del equipo de ventas«.

La versión de OpenAI al respecto solo hace referencia a que no necesitaban un tipo de las imágenes que les entregaron, relacionadas con el abuso de menores. La empresa asegura que da instrucciones a sus empleados de evitarlas de forma expresa.

La decisión de Sama de dejar de trabajar con OpenAI llevó a que sus empleados no tuviesen que ver contenidos dañinos, pero sí tuvo impacto en su vida. Algunos fueron despedidos, y otros transferidos a equipos de salarios aún más bajos. A ellos les dieron otras razones para la cancelación de los contratos con OpenAI.

En febrero de 2022, Time publicó una historia sobre las condiciones de trabajo de empresas externas en África para Facebook. En el reportaje salía Sama, con detalles de cómo eran los empleos de los moderadores de contenidos que tenían para la red social.

Estos trabajadores tenían que ver imágenes y vídeos de ejecuciones, abuso de menores y violaciones por un salario de solo 1,50 dólares la hora. Cuatro empleados de Sama aseguran que les dijeron que la investigación realizada para escribir dicha pieza hizo que la empresa decidiera dejar de trabajar con OpenAI, y por tanto, de mejorar la IA para ChatGPT. Porque otros clientes, a raíz del artículo, empezaron a pedirles explicaciones y a pedir a sus empresas externas que rescindiesen sus contratos con ellos. En concreto, lo hizo Lufthansa. Esto llevó a Sama a decidir dejar de trabajar en estos tipos de actividades y dedicarse a otras que no estuviesen relacionados con la revisión de contenidos dañinos.

Redactora de tecnología con más de 15 años de experiencia, salté del papel a la Red y ya no me muevo de ella. Inquieta y curiosa por naturaleza, siempre estoy al día de lo que pasa en el sector.

Lo más leído