Conecta con nosotros

Noticias

La cara humana de la inteligencia artificial de Microsoft

Publicado el

Lili Cheng

Microsoft ya lleva tiempo, mucho, trabajando en tecnologías de inteligencia artificial, machine learning y lenguaje natural, elementos que combinó en su fallido experimento Tay, un chatbot que, debido a los mensajes que recibió por buena parte de los usuarios, se volvió racista en menos de 24 horas. El problema es que la responsabilidad recae en Microsoft sólo en parte, ya que fue un uso malintencionado por parte de muchos de sus usuarios lo que hizo que el sistema «aprendiera» esos comportamientos y los reprodujera, pensando que eran normales y aceptables. Si de algo pecaron los de Redmond fue, sin duda, de inocencia. Y ahora, como ocurre siempre en estos casos, tras apagar el fuego toca reconstruir, y Lili Cheng, investigadora de Microsoft especializada en esta área, es una de las personas que más está dando la cara al respecto.

Hace algo menos de una semana, en el contexto de Build (un evento de la compañía celebrado en San Francisco), Cheng realizó una presentación en la que los asistentes pudieron comprobar, de primera mano, los avances efectuados por la compañía en este campo los últimos seis meses, y especialmente en lo relacionado con la combinación de inteligencia artificial y big data, una mezcla que puede arrojar unos fascinantes resultados. Preguntada por el problema con Toy por re/code, no dudó en reconocer que lo ocurrido les pilló totalmente fuera de juego. Fue un gran golpe para ellos (Microsoft), pero no deja de reflexionar sobre si el problema, en realidad, no recae tanto del lado de los bots que aprenden a partir de la interacción con humanos, como precisamente de estos y su actitud con los sistemas. Y el problema es que tiene razón, no hay más que comprobar que el principal temor que muestran muchas personas con respecto a la inteligencia artificial, es que un día ésta evolucione lo suficiente como para reproducir lo peor de nuestros hábitos. Dicho en otras palabras, probablemente seamos el peor ejemplo posible para esos sistemas.

Cheng, no obstante, ve un futuro muy positivo para la inteligencia artificial. Todavía hay que trabajar en algunos aspectos clave, como todo lo relacionado con privacidad y seguridad, la definición de cómo debe actuar un bot basado en inteligencia artificial frente a situaciones complejas y no definidas previamente o, un elemento muy importante, las reservas de muchos humanos para trabajar e interactuar con estos sistemas. Además, un aspecto crucial según esta investigadora es que las distintas empresas que trabajan hoy en el desarrollo de la inteligencia artificial dejen de actuar por separado, unifiquen esfuerzos y trabajo y, de esta manera, faciliten la creación de estándares, además de no trabajar todos ellos, por separado, en solucionar los mismos problemas.

 

Imagen: Joi Ito

 

 

Lo más leído