Conecta con nosotros

Noticias

LaMDA: ¿puede la IA convertirse en una persona?

Publicado el

¿Puede llegar una IA a ser consciente de su propia existencia? Y por lo tanto…¿puede llegar a tener su propia identidad como “ser” capaz de tener sentimientos y de tomar decisiones que vayan en su propio beneficio?

Esta es una de las preguntas con los que los escritores de ciencia ficción como Isaac Asimov se llevan planteando desde mediados del siglo XX y que también hemos visto llegar a la gran pantalla en título como “Yo, robot”.

A día de hoy sin embargo, y aunque desde luego que la IA y el machine learning están demostrando avances sorprendentes cada poco tiempo, aún estamos muy lejos de poder desarrollar algo remotamente parecido a lo que se plantea en estas novelas.

Esto sin embargo  no ha sido impedimento para que Blake Lemoine, hasta hace poco ingeniero de Google y especialista en IA. El pasado mes de abril,  este especialista en inteligencia artificial y que se encontraba trabajando en el desarrollo de LaMDA (uno de los chatbots más avanzados de Google) envió a sus superiores un documento como mínimo inquietante: “Is LaMDA Sentinent?” (¿Es LaMDA sensible?)” en el que adjuntaba una transcripción de sus conversaciones con este chatbot.

Estas conversaciones que posteriormente acabaría publicando en su página en Médium, demostrarían según su opinión personal que efectivamente LaMDA se comporta tal y como lo haría una persona (y si leéis la «entrevista» es totalmente comprensible llegar a esta conclusión) pero al hacerlo, ha provocado la ira de sus superiores que no han tardado en despedirle.

El gigante de Internet considera en este sentido, que las acciones de Lemoine relacionadas con su trabajo en LaMDA han violado sus políticas de confidencialidad. Y no solo por sus opiniones  sobre si LaMDA es una IA que puede sentir, sino porque al parecer invitó a un abogado para que representara al sistema de IA y habló con un representante de la comisión judicial de la Cámara de Representantes sobre las supuestas actividades poco éticas de Google.

En un post publicado en Medium el 6 de junio, el mismo día en que Lemoine fue despedido, el ingeniero escribía que su objetivo era buscar «una cantidad mínima de consultas externas para ayudarme a guiar mis investigaciones» y que la lista de personas con las que la IA había mantenido conversaciones incluía a empleados del gobierno estadounidense.

Un representante de Google por otro lado, ha asegurado que pese a las afirmaciones de Lemoine, «no hay pruebas» de que LaMDA sea sensible. «Nuestro equipo (que incluye a profesionales del mundo de la ética y la tecnología) ha revisado las conversaciones de Blake y le han informado de que las pruebas no apoyan sus afirmaciones. Se le dijo que no había pruebas de que LaMDA fuera sensible (y sí muchas pruebas en contra)».

«Por supuesto, algunos en la comunidad de la IA más amplia están considerando la posibilidad a largo plazo de una IA sintiente o general, pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que no son sintientes», ha asegurado el representante de la compañía que ha asegurado que «estos sistemas imitan los tipos de intercambios que se encuentran en millones de frases, y es cierto que pueden llegar a hablar sobre cualquier tema».

Por si aún hubiese alguna duda al respecto, desde la compañía han afirmado que «cientos de investigadores e ingenieros han conversado con LaMDA y no tenemos constancia de que nadie más haya hecho afirmaciones tan amplias, o haya antropomorfizado a LaMDA, como lo ha hecho Blake».

Como tal vez muchos recuerden, el gigante de Internet anunció el desarrollo de LaMDA en el Google I/O del año pasado, presentándolo como una forma de mejorar las conversaciones que manteníamos los seres humanos con los algoritmos de IA.

Periodista tecnológico con más de una década de experiencia en el sector. Editor de MuyComputerPro y coordinador de MuySeguridad, la publicación de seguridad informática de referencia.

Lo más leído