Conecta con nosotros

Opinión

Chatbots, todas las claves de su éxito

Publicado el

chatbots

La Inteligencia Artificial (IA) ha llegado a nuestras vidas para quedarse. Según los últimos datos, en 2035, la IA duplicará las tasas anuales de crecimiento económico en los países más desarrollados y mejorará la productividad laboral al menos un 40%. Los chatbots se han convertido en uno de las protagonistas de esta revolución. Hemos oído hablar mucho de ellos pero, ¿los conocemos realmente?

Chatbot viene de la palabra bot, y un bot es un software de Inteligencia Artificial creado para realizar una serie de tareas por su cuenta, sin la ayuda del ser humano. Los chatbots son la evolución de estos, pues son robots capaces de simular una conversación como si de una persona se tratase, habiéndose convertido así en lo último en atención al cliente. Sus ventajas respecto a los tradicionales agentes de call center son muchas y muy importantes. Pueden trabajar las 24 horas del día los 365 días del año, hablar decenas de idiomas, interactuar con cientos de miles de humanos simultáneamente, su velocidad de respuesta es inmediata y son inmunes a los sentimientos.

Actualmente, vivimos en una era donde el cliente exige atención las 24 horas del día, los 365 días del año, respuestas rápidas y eficaces. Según los últimos estudios, más del 50% de los clientes creen que un buen servicio de customer care es aquel que está disponible en cualquier momento y lugar y sólo los chatbots pueden cubrir esta necesidad. Se estima que en 2020 el 80% de las transacciones online se realicen por bots y es que las máquinas no duermen o enferman, siempre están disponibles mientras los humanos disponen de unas necesidades que limitan su trabajo a unos horarios. Para las empresas, supone además un valor muy positivo pues refuerzan su relación con los clientes a la vez que reducen significativamente tiempos y costes.

Hacerse con un chatbot es fácil, pero con uno bueno es más complicado. Hay tres cualidades imprescindibles que debe tener un buen chatbot para cumplir su objetivo de manera exitosa:

1 – Procesamiento del lenguaje natural (PLN): un chatbot ha de ser capaz de entender cualquier consulta que se ejecute, no mediante el reconocimiento de palabras claves sino comprendiendo el significado real de la misma, es decir, su semántica. Mediante el PLN, también llamado lingüística computacional, los ordenadores pueden descifrar el lenguaje humano siendo así capaces de imitar una conversación. De esta manera, no importa cómo se formule la pregunta sino qué se pregunte, no importa que el interlocutor utilice frases complejas, sin estructurar, ambiguas, incompletas, con errores ortográficos o en cualquier idioma, el chatbot será capaz de responder eficazmente.

2 – Base de conocimiento: es importante que cuente con una amplia base de conocimiento que funcione como un cerebro diseñado para organizar unos contenidos específicos de cara a las posibles preguntas que los humanos puedan formular. Se asemeja a tener una serie de respuestas vivas en el interior del sitio esperando a que alguien formule una pregunta.

3 – Machine learning supervisado: este “cerebro” se alimenta de la capacidad los chatbots de aprender de manera automática a partir de la experiencia en las interacciones con los usuarios. De esta manera, este se hace más inteligente con el tiempo, es capaz de adaptarse y de ofrecer por tanto una respuesta mucho más precisa. Es importante, no obstante que esté bien entrenado y supervisado por un humano con el objetivo de que sólo aprenda aquello que resulte de utilidad para su función y evitar casos como el de Tay, el bot de Microfsoft que comenzó a mostrar un comportamiento racista y xenófobo al carecer de esta supervisión.

Con todo ello, los chatbots están llamados a convertirse en el futuro de la atención al cliente. De hecho, ya se prevé un crecimiento significativo y exponencial en los próximos años pues las tareas que actualmente ejecutan los tradicionales agentes de call center son susceptibles de ser automatizadas por máquinas un 100% a día de hoy. Este hecho, enmarcado dentro del auge de la Inteligencia Artificial en el mercado, dará lugar a una industria nueva en la que los bots serán los encargados de desarrollar las tareas más mecánicas y rutinarias mientras que se generarán nuevos puestos de trabajo en campos como ingeniería, software, hardware o lingüística. La IA, en cualquier caso, es imparable y serán las empresas que sepan ver en ella un aliado en su estrategia de negocio las que logren diferenciarse en este competitivo y globalizado mercado.

Julio Prada, director general de Inbenta en España y EMEA.

Periodista especializada en tecnologías corporate, encargada de las entrevistas en profundidad y los reportajes de investigación en MuyComputerPRO. En el ámbito del marketing digital, gestiono y ejecuto las campañas de leads generation y gestión de eventos.

Opinión

Nuestra vida en la economía digital, ¿cómo se mueven los engranajes que la hacen posible?

Cuando hablamos de economía digital nos referimos a una nueva forma de economía y de vida basada en las nuevas tecnologías digitales, ¿Cómo soportamos realmente este nuevo paradigma? ¿qué infraestructuras necesita para desarrollarse?

Publicado el

¿Quién de vosotros suele disfrutar de sus días de vacaciones en otro lugar? En mi caso, en mi escapada de Semana Santa, me he desplazado por carretera, siguiendo las recomendaciones de otros travellers a través de una app; además he utilizado un navegador, he ido en un coche que ofrece toda una serie de servicios de conectividad, y hasta mis hijos han viajado conectados a una aplicación que nos ha dado la oportunidad de disfrutar de un viaje tranquilo y agradable. Todo esto resulta maravilloso, pero pocas veces nos preguntamos, ¿qué hay detrás de esta postal que acabáis de imaginaros? Si cuando hablamos de economía digital nos referimos precisamente a esto, a una nueva forma de economía y de vida basada en las nuevas tecnologías digitales, ¿Cómo soportamos realmente este nuevo paradigma?

La economía digital evoluciona a marchas forzadas. El número de dispositivos de campo que recogen y almacenan nuestros datos no deja de aumentar y, con él, sus prestaciones en cuanto a velocidad y precisión. En paralelo a esta evolución, está aumentando la capacidad de trasladar estos datos desde los dispositivos a los centros encargados de su procesamiento, interpretación y análisis. Probablemente, en unos años la imagen que acabo de describir será más futurista e incluirá nuevas capacidades y una mayor velocidad a la hora de gestionar la información en nuestros dispositivos. Si el objetivo, tanto de cara al usuario como a las empresas es recortar el tiempo de disponibilidad de los datos y agilizar su tratamiento, no cabe duda de que es preciso mejorar la latencia (la suma de retardos temporales dentro de una red).

“¿Qué hay detrás de la economía digital? ¿Cómo se alimenta todo este paradigma?”

La persecución de este objetivo nos está llevando desde hace algún tiempo a adoptar la filosofía del edge computing, basada en el tratamiento y computación de los datos en el contorno del sistema sin tener que utilizar o enviar los datos a los grandes nodos o datacenters para agilizar el tratamiento de la información, al acercarlos a los dispositivos finales (y reducir así la latencia). Hasta aquí, todo parece tener sentido y marchar sobre ruedas, sin embargo, ¿cómo alimentar a estos nuevos pequeños datacenters de la forma más adecuada, favoreciendo al mismo tiempo los objetivos de sostenibilidad?

En mi opinión, es lógico que los nuevos pequeños datacenters deben alimentarse fundamentalmente de energías renovables. A día de hoy, éstas resultan enormemente competitivas y no agotables. Su problema es básicamente que no están disponibles todo el tiempo, sino que dependen de condiciones variables, pero afortunadamente para esto existe una solución, que pasa como no podía ser menos, por las bondades de la tecnología.

Existen tecnologías, como UPS-as-a-reserve, diseñadas para servir a este innovador propósito y permiten aprovechar los SAIs (o UPS en inglés) para aportar energía limpia al datacenter; y esto no es todo. Me parece esencial recalcar que es posible hacerlo en dos direcciones gracias al firmware desarrollado por Eaton para sus SAIs; tanto hacia los consumidores como, y siempre y cuando la ley lo permita, de vuelta a la propia red. Este segundo paso puede llevarse a cabo bien través de agregadores o bien directamente hacia las utilities para cubrir tipos de demanda energética. Estas tecnologías sirven también en forma de software para predecir y gestionar la demanda, así como para mantener la frecuencia estable de la red.

Un ejemplo puede ser cuando de noche se pongan a cargar múltiples coches en una determinada área, y en un momento vaya a ser preciso cubrir esa demanda con más energía. Este tipo de soluciones facilitan el traspaso de energía desde la batería de litio a través del SAI hasta la red, y lo hacen de forma ágil y operativa.

“Los datacenter actuales deben aspirar a ser 100% sostenibles en su alimentación energética”

Respecto a todo lo anterior, resulta especialmente interesante destacar que el progreso alrededor de las tecnologías del datacenter ha posibilitado su transformación digital desde una primera capa puramente tecnológica, centrada en la eficiencia del datacenter como consumidor energético casi “pasivo”, pasando por la segunda capa de eficiencia de negocio, sobre entornos de TI “virtualizados”, hasta la actualidad donde el datacenter innovador es capaz de ‘mirarse’ desde el exterior en 360º y culminar la tercera capa de eficiencia económica; datacenter en términos de “activo” energético, es decir, con el foco en cómo de “sostenible” es su alimentación energética y la de su entorno, vía soluciones como xStorage y el Software Intelligent Power Manager de Eaton.

Creo que, inmersos como estamos en la economía digital, contar con una tecnología que nos permita gestionar el almacenamiento de energía va a resultar esencial para gestionar el flujo y el aprovechamiento de las renovables de la manera no solo más eficiente sino más económica posible. Y como no puede ser de otra manera, gracias a esta tecnología de Eaton, se completa el ciclo de la economía circular haciendo a este planeta merecedor de un futuro más sostenible, y contribuyendo al reciclado de las baterías de los parques de movilidad basados en vehículos eléctricos en favor del ciudadano. Definitivamente, hay mucho trabajo y muchos agentes involucrados en permitir que la imagen que describía al principio siga siendo una realidad que facilite ante todo nuestra vida, y conserve al mismo tiempo la de nuestro plantea, y todos tenemos que seguir trabajando hacia este objetivo.

 

Juan Antonio Revuelta es licenciado en Química por la Univ. Complutense de Madrid y Diplomado Superior en Dirección Comercial y Admin. De Empresas por la Cámara de Comercio e Industria de Madrid. En sus 22 años de carrera ha formado parte de varias multinacionales especialistas en la gestión de la Energía y las Telecomunicaciones. Actualmente ocupa el cargo de Data Center Senior Executive Sales Reps. & Business Development en Eaton EMEA.

 

 

 

Continuar leyendo

Opinión

Cómo se fraguó Alexa, la Inteligencia Artificial de Amazon

Publicado el

En 2014, Srikanth Thirumalai se reunió con el CEO de Amazon, Jeff Bezos. Thirumalai, un informático que había dejado a IBM en 2005 para dirigir un equipo de Amazon, había llegado a proponer un nuevo plan para incorporar los últimos avances en Inteligencia Artificial en su división.

Llegó armado con un extenso documento explicativo, aunque Bezos había decretado hacía mucho tiempo que las propuestas de nuevos productos y servicios debían limitarse a un brevísimo papel explicativo. Sin embargo, lo que vio Bezos en el informe de Srikanth Thirumalai podía colocar a Amazon en la vanguardia de la Inteligencia Artificial.

Recomendaciones de productos de Amazon habían sido imbuidas de AI desde los primeros días de la empresa, pero en los últimos años ha habido una fuerte revolución y el Machine Learning se ha convertido en mucho más eficaz, especialmente en una forma sobrealimentada conocida como aprendizaje profundo. Ha llevado a aumentos fuertes en visión por computador, del habla y procesamiento del lenguaje natural.

En la primera parte de esta década, Amazon tenía todavía tiempo para aprovechar estos avances, pero Bezos reconoció que la necesidad de correr era urgente. La competencia más importante de esta época en AI eran Google, Facebook, Apple y Microsoft…. y Amazon fue quedando atrás.

¿Cómo imbuir de IA cada área de la empresa?

Thirumalai se lo tomó a pecho y ofreció a Bezos (para su reunión anual de planificación) ideas sobre cómo ser más agresivo en el Machine Learning. Pero Bezos quería más. El problema era que sus deseos requerían habilidades que su equipo no poseía, herramientas que no habían sido creadas y algoritmos que nadie había pensado todavía. Thirumalai rompió su papel y se puso a trabajar como vicepresidente de búsquedas de Amazon, convirtiéndose en uno de los líderes de la tarea de revisión de software con el Machine Learning más avanzado.

Thirumalai fue solo uno de una procesión de líderes de la compañía que proponían productos totalmente diferentes para muchos grupos de clientes. Pero esencialmente cada uno imaginó una variación del enfoque de Thirumalai: transformación de parte de Amazon con avanzado Machine Learning. Esto implicó repensar proyectos en curso, como los esfuerzos de robótica de la empresa y su negocio de grandes centros de datos, así como de Amazon Web Services (AWS).

Los resultados han tenido un impacto mucho más allá de lo esperado por Bezos. Thirumalai dice que las unidades de negocio de la empresa, en 2014, eran islas de AI en un vasto océano de ingeniería. El empuje para reformar la empresa con el Machine Learning cambió eso… radicalmente. Las unidades de negocio empezaron a trabajar juntas compartiendo la IA, al tiempo que Bezos insistía en que la cultura de la empresa exigía que las innovaciones se enmarcaran únicamente en el contexto de servir a sus clientes.

Amazon tiene una muy potente AI, procedente de Machine Learning. Los resultados de esta transformación pueden verse en toda la empresa, incluyendo un sistema de recomendaciones de productos que ahora funciona en una infraestructura de Machine Learning totalmente nueva. Amazon es más inteligente en lo que sugiere lo que debe leer el usuario a continuación, lo que se debería agregar a su compra, los artículos de la lista, y qué película usted puede ver esta noche. Y este año, Thirumalai comenzó un nuevo trabajo en el negocio de búsqueda de Amazon, donde él se prepone utilizar Machine Learning profundo en cada aspecto del servicio al cliente.

El efecto de Alexa

El producto estrella de empuje de Amazon es su altavoz elegante disidente, el eco y la plataforma de voz de Alexa que lo alimenta. Estos proyectos también surgieron de un memo entregado a Bezos en 2011 para un proceso de planificación anual llamado un “Plan Operativo”. El objetivo era crear “Un ordenador ubicuo de bajo coste, con todos sus cerebros en la nube, con el que se puede interactuar mediante voz “.

Pero ese sistema de construcción — literalmente un intento de realizar una obra de ciencia ficción, el ordenador hablador de Star Trek — requiere un nivel de destreza de la Inteligencia Artificial que la empresa no tenía a mano en el año 2011. Peor aún, de los pocos expertos que podrían construir un sistema, ninguno quería trabajar para Amazon, sino para Google y Facebook.

Amazon tenía un poco de una mala imagen, no agradable a las personas que provenían investigación orientada. Una empresa implacable con enfoque en el cliente y su cultura de dureza en el trato a los empleados, lo que daba cómodas ventajas a los competidores.

A falta de talento dentro, la compañía utilizó su músculo financiero para comprar empresas con experiencia en IA. “En los primeros días de Alexa, compramos muchas empresas”, dice Bezos. En septiembre de 2011 acapararían Yap, una empresa de voz a texto con experiencia en la traducción de la palabra hablada en lengua escrita. En enero de 2012, Amazon compró Evi, Cambridge, compañía cuyo software podría responder a las solicitudes habladas como Siri. Y en enero de 2013, hizo lo propio con Ivona, una empresa polaca especializada en texto a voz, que proporciona la tecnología que permitió a Echo hablar.

También atrajo el mejor talento, como Alex Smola, una superestrella en el campo de la IA que había trabajado en Yahoo y Google.”Literalmente es uno de los padrinos del aprendizaje profundo“, dice Bezos.

La parte más delicada del Eco: el problema que obligó a Amazon para abrir nuevos caminos en el proceso de su Machine Learning de jugar para ganar era algo que se llama ahora “reconocimiento de voz de campo”. Se trata de interpretar comandos de voz hablados a cierta distancia de los micrófonos, incluso cuando están contaminadas con ruido.

Un factor difícil era que el dispositivo no podía perder tiempo meditando sobre lo que había dicho. Había que enviar el audio a la nube y producir una respuesta con la suficiente rapidez para que pareciera una conversación y no como esos momentos difíciles cuando no estás seguro si todavía está respirando la persona con la que estás hablando. Construir un sistema de aprendizaje automático que pueda entender y responder a las preguntas en conversaciones en condiciones ruidosas requiere enormes cantidades de datos y tendría un montón de ejemplos de los tipos de personas las interacciones con sus ecos. No era evidente que Amazon podría obtener estos datos.

Varios dispositivos de Amazon y productos de terceros ahora utilizan el servicio de voz de Alexa. Datos recogidos a través de ella ayudan a mejorar el sistema y carga de esfuerzos más amplios de AI. La buena noticia es que todas las piezas estaban allí, en Amazon, un servicio en la nube sin precedentes, los centros de datos cargados con Machine Learning y nuevos algoritmos.

Las ramificaciones de Alexa

Equipos a través de la empresa comenzaron a darse cuenta de que Alexa también podría ser un servicio de voz útil para sus proyectos. “Así que todo lo que los datos y la tecnología aportan, vienen juntos, a pesar de son muy grandes sobre la propiedad de subproceso único“, añade Bezos. Otros productos de Amazon comenzaron a integrar Alexa: “Cuando usted habla en su dispositivo de Alexa, se puede acceder a música de Amazon, Prime Video, tus recomendaciones personales desde el sitio web de compras y otros servicios“. A continuación, la tecnología comenzó a saltos a través de otros dominios de Amazon.”Una vez que tuvimos la capacidad de discurso fundacional, hemos sido capaces de traer a Alexa productos como TV Fire, voz comercial, Amazon Fresh y, en última instancia, AWS”, dice Bezos.

Bezos fue de los primeros en darse cuenta de las implicaciones de negocio de integración de Inteligencia Artificial en servicios en la nube de la compañía. El plan era agregar servicios de machine learning a AWS.

En cierto sentido, la oferta de máquina de aprendizaje a las decenas de miles de clientes de Amazon cloud era inevitable. “Cuando primero armamos el plan de negocio original para AWS, la misión era llevar la tecnología que estaba sólo al alcance de un pequeño número de organizaciones bien financiadas y se distribuye tan ampliamente como sea posible“, dice Wood, el gestor de machine learning y AWS. Amazon Machine Learning de AWS, primero ofrecido en el año 2015, permite a los clientes como C-Span configurar un catálogo privado de caras; Zillow lo utiliza para estimar el precio de la vivienda. Pinterest lo emplea para la búsqueda visual y varias startups de conducción autónoma están utilizando Machine Learning AWS aprendiendo a mejorar productos a través de millones de kilómetros de la prueba de carretera simulada.

En 2016, la nueva Machine Learning-AWS había lanzado servicios que más directamente se basaban en las innovaciones de Alexa: un componente de texto a voz se llama Polly y un motor de procesamiento de lenguaje natural llamado Lex. Estas ofertas permiten a los clientes, que van desde gigantes como Pinterest y Netflix hasta pequeñas empresas, construir su propio mini Alexa.

Estos servicios de aprendizaje automático son un generador de ingresos de gran alcance y clave para la AI de Amazon, con clientes tan dispares como la NASA y la NFL que están pagando miles de millones para conseguir el Machine Learning de Amazon.

El papel dominante de AWS en el éter también le da una ventaja estratégica sobre los competidores, en particular sobre Google, que había esperado utilizar su liderazgo en Machine Learning para arrasar a AWS en cloud computing. Hasta ahora, Amazon-AWS-Alexa está ganando la batalla. No solo en distribución, sino en todos los ámbitos. Con más datos. Con más clientes. Con más plataformas. Con más talento.

Tipo listo, Bezos. Aunque inspira mucho respeto.

jorgeJorge Díaz-Cardiel. Socio director general de Advice Strategic Consultants. Economista, Sociólogo, Abogado, Historiador, Filósofo y Periodista. Autor de más de mil de artículos de economía y relaciones internacionales, ha publicado una veintena de libros.

 

Continuar leyendo

Opinión

Crónicas desde EE.UU.: la Inteligencia Artificial de Google

Publicado el

Google IO 2018

El 8 de mayo, Google inició su conferencia anual de desarrolladores con una extensa presentación de Sundar Pichai, CEO de Google, presentando una serie de nuevas características impulsadas por Inteligencia Artificial (IA) para su próxima actualización de Android P, al tiempo que se posicionó como una compañía comprometida con el bienestar de los consumidores.

Creo que Google deslumbró a los 7.000 asistentes a su conferencia anual en el Shoreline Amphitheatre, en Mountain View (California), al mostrar la tecnología disponible para desarrollar dispositivos con Inteligencia Artificial.

Sintetizadores y mecanismos para dibujar con esas nuevas tecnologías fueron algunas de las exhibiciones en el congreso. Las muestras fueron solo el preámbulo de la presentación de Sundar Pichai, que seguirá revelando nuevos planes sobre el desarrollo de la Inteligencia Artificial.

Unos de los posibles anuncios es que el asistente computerizado de Google, llamado Google Assistant, ahora podrá tener nuevas funciones como hacer reservas para un restaurante, sin intervención humana.

Google anunció mejoras de su sistema operativo Android para teléfonos inteligentes, también en su programa Google Maps con IA, y avances en la tecnología de realidad aumentada que superpone imágenes digitales sobre imágenes del mundo real.

Lo que Google ansía es que “su asistente computerizado se vuelva tan imprescindible, que la gente no pueda vivir sin él”, dijo Sunchai, de tal manera que los consumidores tendrán que ver la publicidad adherida (de la cual muchos huimos, hoy). También destacó los beneficios sociales de la IA y formas en que esa nueva tecnología digital puede mejorar la atención médica, preservar el medio ambiente y promover descubrimientos científicos.

Pichai no profundizó en la protección de la privacidad, tema que ha colocado en situaciones complicadas a otras compañías tecnológicas como Facebook y Twitter, “protagonistas” de las elecciones presidenciales de 2016 en Estados Unidos, a favor de Donald Trump gracias a la implicación de la llamada trama rusa, que supuestamente colocó en esas redes sociales cientos de miles de anuncios a favor del candidato republicano. En cambio, Google ofreció a los padres nuevas herramientas para supervisar los contenidos que sus hijos están viendo en la red y evitar serios problemas como el cyber-bullying, el acoso sexual, etc.

Nueva app para noticias que combina funciones de Google Play Newsstand con YouTube

Aún es demasiado pronto para que Google lance al mercado algún producto nuevo, aunque piensa hacerlo antes de la campaña de Navidad, cuando más se vende en el año. Sí anunció que Lenovo venderá audífonos para realidad virtual por 400 dólares que pueden funcionar sin necesidad de un smartphone. (Facebook anunció la semana pasada un producto parecido a mitad de precio -199 dólares-, con la marca Oculus Go…)

También, Google aumentó las funciones de sus relojes digitales alimentados por el software Wear OS. Por ejemplo, el dispositivo puede decirle a la persona lo que tiene en el calendario mediante los audífonos, sin que el usuario tenga que leer lo que está escrito.

Android P usa IA para ofrecer funciones que incluyen Adaptive Battery, Adaptive Brightness y App Actions, que hacen un seguimiento del comportamiento del usuario mediante el aprendizaje automático (machine learning, del que ya hemos hablado en MuyComputerPro en varias ocasiones). Adaptive Battery asigna automáticamente energía a las aplicaciones y servicios más utilizados, mientras que App Actions intenta ahorrar tiempo a los usuarios al ofrecer opciones basadas en lo que creen que los usuarios querrán hacer a continuación.

Por ejemplo, las App Actions pueden ofrecer una aplicación de ejercicio físico alrededor del tiempo que un usuario normalmente hace ejercicio, o sugerir una aplicación de música, si los auriculares están enchufados.

Las App Actions también incorporarán opciones de Slices, accesos directos a la funcionalidad de la aplicación clave. Google ahora permite a los desarrolladores integrarse en la interfaz de usuario más amplia de Android P. Estos accesos directos permitirán, por ejemplo, que un usuario coja un taxi a través de la función de búsqueda o use el asistente sin tener que abrir su aplicación.

Menos usos del teléfono

Pero, en lugar de tratar de atraer a los usuarios con estas nuevas características, Google insistió en que realmente está tratando de ayudar a los usuarios a pasar menos tiempo usando sus teléfonos.

Para demostrarlo, la compañía incluyó en la presentación una serie de características de “bienestar digital” en la actualización, incluido un panel que permite a los usuarios ver un desglose de cuánto tiempo pasan en diferentes aplicaciones.

Android P también permitirá a los usuarios configurar App Timers, que designan límites de uso para las aplicaciones y recordarles a los usuarios cuando se acaba el tiempo fijado como límite, e incluye un nuevo modo Wind Down que cambia la pantalla a escala de grises antes de acostarse para animar a los usuarios a desconectarse.

“El tema común en todo esto es que estamos trabajando duro para darles a los usuarios tiempo propio de calidad, sin tener por qué usar el smartphone”, afirmó en la conferencia el CEO de Google, Sundar Pichai: “Sabemos que las personas se sienten atadas -adictas- a sus dispositivos … creemos que, realmente, podemos ayudar a los usuarios a mejorar su bienestar digital. Este va a ser un esfuerzo continuo presente en todos nuestros productos y plataformas”, concluyó.

Actualmente, Android P está disponible en versión beta en Google Pixel, Sony Xperia XZ2, Xiaomi Mi Mix 2S, Nokia 7 Plus, Oppo R15 Pro, Vivo X21, OnePlus 6 y Essential PH-1.

El Asistente Personal de Google también recibió un impulso de IA, diseñado para ayudarlo a interactuar, usando una forma de hablar más natural con seis nuevas voces.

Conversaciones Continuas

Las actualizaciones incluyen la llamada capacidad de Conversaciones Continuas que usa claves de contexto para permitir a los usuarios hablar continuamente con el Asistente sin tener que repetir la frase “Hola Google”, y una función de Acciones Múltiples para ayudar al Asistente a atender múltiples solicitudes dentro de una sola frase.

Sunchair dijo que también está trabajando en una nueva capacidad de conversación llamada Google Duplex, que permitirá a los asistentes llamar a las empresas en nombre de los usuarios para que se encarguen de tareas como citas para “cortarse el pelo y reservas en restaurantes”. Estas llamadas se realizan en segundo plano sin la supervisión del usuario después de que se realiza una solicitud al Asistente de Google.

En una demostración de esta tecnología, Duplex usó una voz humana realista y no se identificó como un no-ser-humano para los otros participantes en la llamada. Tanto realismo generó preocupaciones éticas por parte de los analistas presentes en el evento. Personalmente, me acordé de los “Replicantes” de la película Blade Runner.

Sundar Pichai quiso despejar esas dudas y dijo que la transparencia será clave para hacer que el servicio tenga éxito: “Queremos ser claros sobre el propósito de la convocatoria para que las empresas entiendan el contexto. Vamos a ejercitarnos con el enfoque correcto en los próximos meses “. A mí me pareció una explicación un tanto enrevesada, pero me fui de la conferencia de Google en el Shoreline Amphitheatre de Mountain View con la idea clara de que Sundar Pichai, prometió tres cosas mediante la inteligencia artificial: proteger la privacidad, mejorar la vida de las personas y beneficios sociales para los consumidores.

Ahora, como dicen los refranes españoles, Google habrá de pasar “del dicho al hecho”, porque no “es lo mismo predicar que dar trigo”, ya que “obras son amores y no buenas razones”…

jorge diaz cardiel

 

 

Jorge Díaz-Cardiel. Socio director general de Advice Strategic Consultants. Economista, Sociólogo, Abogado, Historiador, Filósofo y Periodista. Autor de más de mil de artículos de economía y relaciones internacionales, ha publicado una veintena de libros.

Continuar leyendo

Lo más leído

Suscríbete gratis a MCPRO

La mejor información sobre tecnología para profesionales IT en su correo electrónico cada semana. Recibe gratis nuestra newsletter con actualidad, especiales, la opinión de los mejores expertos y mucho más.

¡Suscripción completada con éxito!