Conecta con nosotros

Noticias

La Inteligencia Artificial de DeepMind aprende a generar modelos en 3D a partir de imágenes 2D

Publicado el

La Inteligencia Artificial de DeepMind aprende a generar modelos en 3D a partir de imágenes 2D

La creación de sistemas de reconocimiento visual para cualquier Inteligencia Artificial no es una tarea sencilla, puesto que hay que programarles para que sean capaces de realizar operaciones que el cerebro humano ya es capaz de realizar de manera automática, y de un vistazo. Por ejemplo, visualizar elementos y objetos en tres dimensiones. Sin importar el ángulo que tengan, el nivel de conocimiento que haya de la situación, ni los obstáculos que dificulten su vista. Para ello, utilizamos conocimientos previos que nos ayudan a llegar prácticamente de manera automática a una conclusión y a generar las imágenes. En DeepMind quieren dar con un sistema capaz de hacer lo mismo, por lo que están trabajando en una red neuronal que pueda realizar tareas similares.

Eso sí, como hemos comentado, no es fácil, y los investigadores responsables de este proyecto se han encontrado con varias dificultades a la hora de sacarlo adelante. Una es entrenar a la Inteligencia Artificial para conseguir que llegue a las mismas conclusiones que un cerebro humano cuando una persona entra en una estancia o zona. Sobre todo, si no es un lugar familiar. Para ello, los investigadores tienen que suministrar al sistema una ingente cantidad de datos debidamente etiquetados.

Aparte de esto, las redes neuronales suelen tener problemas a la hora de aplicar lo que han aprendido en una escena en otra. Para evitar todo esto, y hacer que el sistema desarrollado por DeepMind haya sido capaz de generar imágenes tridimensionales a partir de otras en 2D, era crear una red neuronal capaz de comprender los alrededores del punto en el que se encuentra en cada momento.

Así ha llegado la red General Query Network (GQN) de DeepMind. Esta red neuronal se diferencia de otras en que está programada para observar sus alrededores y entrenar únicamente con esos datos como base, no con otros que le suministren los investigadores. Y parece que los resultados han sido positivos. GQN esta aprendiendo a encontrar el sentido al mundo que le rodea y a aplicar estas observaciones a las escenas que descubre.

Ya con la GQN desarrollada, los investigadores comenzaron a exponerla a entornos controlados, para después, cuando los resultados conseguidos ya eran satisfactorios, exponerla a otros generados de manera aleatoria. Y entonces, esta red fue capaz de imaginar la misma escena a la que se le había expuesto desde distintos ángulos, y de generar un renderizado tridimensional a partir de una foto en 2D. También consiguió identificar y clasificar objetos sin que estuviesen etiquetados con información de lo que eran. También de llegar a conclusiones con base en lo que podía ver para «imaginarse» lo que no podía.

El equipo de investigadores ha publicado su descubrimiento en la revista Science, eso sí, advirtiendo de que la red neuronal GQN tiene todavía muchas limitaciones. Hasta ahora sólo ha recibido entrenamiento en escenarios artificiales, y no se sabe cómo podrá reaccionar con situaciones en el mundo real.

Redactora de tecnología con más de 15 años de experiencia, salté del papel a la Red y ya no me muevo de ella. Inquieta y curiosa por naturaleza, siempre estoy al día de lo que pasa en el sector.

Lo más leído