Conecta con nosotros

Noticias

Las 7 noticias de Inteligencia Artificial que han demostrado su avance en 2022

Publicado el

Las 7 noticias de Inteligencia Artificial que han demostrado su avance en 2022

En este año que está a punto de terminar, la Inteligencia Artificial ha ocupado un puesto destacado en cuanto a noticias y novedades. Incluso la acaban de nombrar «palabra del año». No solo por su abundancia, sino también por su importancia. Sin duda, este año hemos llegado a un nivel muy destacado en cuando a Inteligencia Artificial capaz de generar trabajos creativos con texto, imágenes, sonido y vídeo. La Inteligencia Artificial con deep learning ha salido a la palestra después de una década de investigaciones, y ha empezado a entrar en aplicaciones comerciales.

De esta manera, millones de personas han podido probar este tipo de tecnología por primera vez, consiguiendo creaciones maravillosas y polémicas, que han dejado indiferentes a pocos. Acompañadas por noticias sobre IA que han generado bastante polémica, estas son las siete novedades en Inteligencia Artificial del año 2022.

DALL-E 2: sueños en imágenes

El pasado mes de abril, OpenAI anunció el modelo de síntesis de imagen con deep learning DALL-E 2, capaz de generar imágenes a partir de peticiones realizadas a través de texto como si fuese magia. Entrenado con cientos de millones de imágenes sacadas de Internet, DALL-E 2 sabe cómo combinarlas gracias a una técnica llamada difusión latente.

Poco después de su salida, las redes sociales se llenaron de composiciones elaboradas por el modelo, que superaba todas las dificultades de su primera versión. En su lanzamiento, OpenAI solo permitió que lo probasen 200 betatesters, dotando además de filtros al sistema para bloquear peticiones violentas y de índole sexual. Poco a poco fue admitiendo más usuarios hasta llegar al millón de personas en una fase de prueba cerrada, hasta que anunció su disponibilidad general en septiembre pasado.

Un ingeniero de Google cree que LaMDA tiene consciencia

A principios del pasado mes de julio, al ingeniero Blake Lemoine, la empresa para la que trabajaba, Google, le suspendió de empleo (pero no de sueldo). Los de Mountain View tomaron la decisión después de que Lemoine asegurase creer que el modelo LaMDA (Language Model for Dialogue Applications), desarrollado por Google, es consciente, y que por tanto merece tener los mismos derechos que un humano.

Cuando trabajaba como parte de la división de Inteligencia Artificial responsable de Google, Lemoine empezó a chatear con LaMDA sobre filosofía y religión, y llegó a creer que había inteligencia verdadera detrás del texto. En declaraciones al Washington Post, señaló que veía una persona cuando hablaba con el modelo, y que «no importa si tienen un cerebro de carne en su cabeza. O si tiene un billón de líneas de código. Hablo con ellos y escucho lo que tienen que decir. Así es como decido lo que es y no una persona».

Google contestó que LaMDA solo estaba diciendo a Lemoine lo que quería escuchar y que no era, de hecho, un ser sintiente. Como la herramienta de generación de texto GPT-3, LaM;DA había recibido entrenamiento con millones de webs y libros. Contestaba a las entradas de texto de Lemoine prediciendo las palabras más probables que debería decir, sin ningún tipo de comprensión profunda.

Mientras tanto, Lemoine violó al parecer la política de confidencialidad de Google contando a terceros detalles sobre su grupo de trabajo. A finales de julio, Google despidió de hecho a Lemoine por violar sus políticas de seguridad de datos.

DeepMind AlphaFold predice casi todas las estructuras de proteínas conocidas

También el pasado mes de julio, DeepMind anunció que su modelo de Inteligencia Artificial AlphaFold había predicho la forma de prácticamente todas las proteínas conocidas de casi todos los organismos de la Tierra que tengan su genoma secuenciado. Este modelo ya se anunció en verano de 2021, cuando había predicho la forma de todas las proteínas humanas. Un año después, su base de datos de proteínas había aumentado hasta albergar más de 200 millones de estructuras de proteínas.

DeepMind ha puesto a disposición de cualquier que quiera examinarlas estas estructuras de proteínas. Están en una base de datos pública en el Instituto de Bioinformática Europeo del Laboratorio de biología molecular europeo (EMBL-EBI). La institución permite que investigadores de cualquier parte del mundo pueda acceder a ellas y utilizar sus datos para investigaciones relacionadas con la biología y la medicina.

La síntesis de imágenes, open source de la mano de Stable Diffusion

En agosto, Stability AI y CompVis lanzaron el modelo de síntesis de imágenes Stable Diffusion 1.4. Es parecido a DALL-E 2, pero mientras que este se lanzó como un modelo cerrado con multitud de restricciones, Stable Diffusion era un proyecto open source con código fuente y archivos de control. Su nivel de apertura permite generar, sin restricciones, cualquier contenido sintetizado. Además, se puede utilizar el local y de forma privada en ordenadores que cuenten con una GPU potente.

Este paso de Stability AI, no obstante, no ha sido recibido igual de bien por todos. Desde su anuncio hasta ahora ha recibido bastantes críticas sobre su potencial para la generación de desinformación de tipo político, pornografía no consensuada, material de abuso de menores e historias alternativas.

Los artistas se han quejado de que puede dejarles sin trabajo, y también se ha criticado el sesgo del campo de datos empleado en su entrenamiento. Además, las técnicas empleadas para desarrollar su campos de datos de imágenes han causado otras polémicas. Por ejemplo, cuando varias personas que sus fotos médicas privadas se habían sacado de Internet.

A pesar de todo, varios aficionados han adoptado el modelo y han creado un ecosistema open source en torno a él con mucha rapidez. Algunos productos han integrado ya su motor en sus apps y webs, mientras Stable Diffusion ha seguido evolucionando, y ya está disponible su versión 2.1.

El arte generado mediante IA gana un concurso en Colorado

También en agosto, un residente en Colorado (Estados Unidos), Jason Allen, presentó tres imágenes generadas mediante Inteligencia Artificial, con el modelo comercial Midjourney, al concurso de bellas artes de la Feria estatal de colorado.

A finales de mes, una de esas obras ganó el primer premio en la categoría de Fotografía manipulada digitalmente. Cuando la noticia se hizo pública, se armó un gran revuelo y se abrió un debate intenso en redes sociales sobre la naturaleza del arte y lo que significa ser artista.

Cicero, de Meta, gana jugando al Diplomacy

En noviembre Meta anunció el agente de Inteligencia Artificial Cicero, capaz de ganar a los humanos en el juego de tablero de estrategia Diplomacy en partidas online jugadas en webDiplomacy.net. Se trata de un juego que requiere de persuasión, cooperación y negociación con otros jugadores para poderse ganar. Pero Cicero lo hizo. Para ello, Meta desarrolló un bot que podía engañar a humanos y hacerles creen que jugaban contra otro humano.

Para conseguir sus habilidades de negociación, Meta entrenó al componente de modelo de lenguaje de Cicero, de gran envergadura, con textos sacados de Internet, y con transcripciones de 40.000 partidas de Diplomacy jugadas por humanos en la web mencionada. Además, Meta desarrolló un componente estratégico que podía observar el estado de una partida y predecir cómo podrían comportarse el resto de jugadores para actuar en consecuencia.

Meta cree que puede aplicar lo que ha aprendido con Cicero para una nueva generación de videojuegos con NPCs más inteligentes que puedan acabar con las barreras entre humanos e IA durante las conversaciones multisesión. La misma técnica aplicada a otros escenarios sociales, eso sí, podría manipular o engañar a los humanos cuando la IA simule ser una persona.

ChatGPT habla con el mundo

A finales de noviembre, OpenAI anunció ChatGPT, un chatbot basado en el modelo de lenguaje GPT-3. OpenAI lo puso a disposición del público gratis en su web, para poder recopilar datos y feedback del público sobre cómo ajustar el modelo para producir resultados más precisos y potencialmente menos dañinos. Cinco días después de su lanzamiento, ChatGPT ya tenía un millón de usuarios.

La gente lo ha utilizado para ayudar con tareas de programación, simular una sesión de consola de Linux, generar recetas y escribir poesía, entre otros usos. Impresiona por su aparente capacidad de comprender preguntas complejas, pero la fiabilidad de sus respuestas todavía tiene que mejorar. El CEO de OpenAI lo ha admitido, señalando que ChatGPT está en evolución. No obstante, ya nos ha dado una primera visión de cómo podría ser un futuro con la intervención de la Inteligencia Artificial.

Redactora de tecnología con más de 15 años de experiencia, salté del papel a la Red y ya no me muevo de ella. Inquieta y curiosa por naturaleza, siempre estoy al día de lo que pasa en el sector.

Lo más leído