Conecta con nosotros

Noticias

Google y la Inteligencia artificial como la interfaz del futuro

Publicado el

Inteligencia Artificial

Hablaremos con las máquinas, y ellas nos entenderán. Hace no tantos años, este podría haber sido el principio de una novela de ciencia ficción, pero a día de hoy ya es una realidad de lo más común. Los asistentes de voz como Siri, Google Now o Cortana nos escuchan y, en gran parte de las ocasiones, nos proporcionan respuestas adecuadas a nuestras palabras. El futuro va por ese camino, pero en contra de lo que pudiera parecer, es un sendero en el que todavía queda recorrido por cruzar. Hoy Computerworld reflexiona sobre ello, y considera que Google es, a día de hoy, la compañía que más ha avabzado al respecto, y la que probablemente termine por ser la primera en definir un mundo en el que la interfaz de usuario de los sistemas sea la inteligencia artificial.

Para hacer esa consideración hay que partir de una base importante, y es que los sistemas de interacción que conocemos hoy en día, como los anteriormente citados, pese a que emplean elementos de inteligencia artificial no se basan por completo en la misma, y por lo tanto son, como el artículo mencionado los denomina, asistentes virtuales. La verdadera inteligencia virtual llegará cuando los sistemas realmente sean capaces de aprender todo lo necesario sobre nosotros y, al tiempo, sepan interpretar nuestras palabras basándose tanto en ese aprendizaje como en el contexto en el que se realiza la interacción.

¿Ejemplos? No es lo mismo si yo le pido a mi dispositivo que reproduzca una canción cuando voy en el coche, que si lo hago en caso. En el primer caso lo normal es que quiera utilizar el sistema de sonido del vehículo, mientras que en el segundo caso, lo más probable es que quiera hacerlo a través del sistema de sonido que tengo en mi hogar. Un sistema verdaderamente inteligente debe saber eso, y no basándose en las estadísticas de uso por parte del resto de usuarios, no. Debe conocer mis preferencias personales, y aplicarlas de manera constante.

En el evento de Google, celebrado la semana pasada, la empresa del buscador presentó un buen número de dispositivos, lo que ha hecho que muchos piensen que la nueva prioridad de la empresa es el hardware. Sin embargo, en realidad este parece ser solo el primer paso de un plan más complejo: rodearnos de dispositivos inteligentes, para que terminemos por emplear sus funciones de inteligencia artificial, que no hacen más que evolucionar. El hardware de Google no es el fin, sino el medio. El fin se llama Google Assistant, y según Sundar Pichai, CEO de la compañía, nos dirigimos hacia un mundo «AI-First», es decir, un futuro en el que la Inteligencia Artificial estará en todo y por encima de todo lo demás (en lo referido a interfaces, se entiende).

Lograr esto no es sencillo, la interpretación del lenguaje en las conversaciones entre humanos es posible gracias a la combinación de conocimientos y habilidades psicológicas, y un sistema puede ser alimentado con todos los datos del mundo, pero la capacidad de emula esas habilidades es algo más complicado. No obstante, la historia de las interfaces de usuario nos enseña que, desde su mismo origen, el objetivo ha sido acercarlas hacia medios en los que los seres humanos nos sintiéramos más cómodos, aún a base de que esto suponga más carga de trabajo para los sistemas. Este caso no tiene por qué ser una excepción.

La principal vía de Google para acelerar ese desarrollo es lo que van a llamar «Actions on Google», que no es otra cosa que abrir Assistant a los desarrolladores, para que estos puedan crear apps y bots que respondan de manera inteligente y personalizada a las peticiones de cada usuario. Estas acciones se dividen en dos grandes grupos: acciones directas y acciones de conversación, y aunque las primeras son interesantes, es en las segundas donde el modelo alcanza su máximo potencial.

En las acciones directas, el sistema directamente responderá al usuario. Por ejemplo, si preguntamos a qué hora llega determinado vuelo (o, si el asistente es más inteligente, algo más concreto como ¿a qué hora llega mamá al aeropuerto?), el sistema debe ser capaz de reconocer quién es mamá, saber qué vuelo tomaba y consultar a la aerolínea por el estado y la hora prevista de llegada del mismo.

Con las acciones de conversación, el desarrollo es más complejo, pero las posibilidades son mucho más amplias. Por ejemplo, y en la misma línea, supongamos que yo le pido al sistema que me de precios para volar el fin de semana de Madrid a Barcelona. En este caso el sistema, en base a la oferta existente y a mis preferencias personales, no solo debería ser capaz de ofrecerme la oferta de vuelos, sino de contarme también que hay ofertas combinadas de vuelos y hoteles, y que además una de ellas incluye un hotel de mi cadena favorita.

Lo más leído