Conecta con nosotros

Opinión

Apple y la teoría de que todo lo que sube, baja

Publicado el

Noria

Ayer, un día antes de que Apple hiciera público sus resultados del segundo trimestre fiscal, le comentaba a la coordinadora de esta publicación que mis expectativas eran que obtuviera buenos resultados, en sí mismos, (en línea con lo que la propia compañía anticipó en el anuncio de resultados de su primer trimestre) pero los peores en una década en términos comparados, algo de lo que no hay precedente. Habría que remontarse a los tormentosos años ochenta y principios de los noventa, cuando Steve Jobs es expulsado de la compañía para ver que los resultados de su compañía fueron lo que los americanos llaman un roller coster (montaña rusa). Ella me contestó: “bueno, siempre hay una primera vez”. Y así ha sido.

En la última década, Apple ha creado productos que han impulsado fuertemente su crecimiento: iPod, iPhone, iPad, entre otros.

Pero ayer, tras trece años de crecimiento ininterrumpido y muy fuerte en su facturación, la buena racha se tomó un respiro, posiblemente, fruto de su ya inmenso tamaño, debilidad en mercados globales emergentes como China y la falta de nuevos productos atractivos para los clientes.

Hasta la salida a Bolsa de Aramco -la compañía saudí de petróleo- Apple, es y ha sido en los últimos cinco años la compañía con más valor en Bolsa del mundo. Anoche, anunció los resultados de su segundo trimestre fiscal (enero a marzo), que descendieron un 13%, consiguiendo la nada desdeñable cifra de 50.600 millones de dólares, en línea, como luego veremos, con sus estimaciones de enero. ¿La causa? Las ventas de su producto estrella, el iPhone, cayeron y ningún otro producto pudo sustituir esa falta de ingresos.

Casi la mitad de los teléfonos inteligentes que se venden en Estados Unidos son iPhones y Apple puede estar alcanzando el punto de saturación en mercados como el europeo. Competidores que usan el sistema operativo Android “hacen la cama” a Apple con productos a precios más baratos (más atractivos en tiempos de ahorro y menor consumo).

En definitiva, Apple vendió un 16% menos iPhones este trimestre en comparación con el mismo período del año anterior. El sentido común dice que tampoco se puede crecer eternamente a ritmos desorbitados: ya lo vimos la semana pasada con IBM, Google, Intel y Microsoft, por ejemplo.

Quien hace la ley, hace la trampa

Los beneficios netos descendieron un 22%, hasta los 10.5 billones de dólares. Para variar este hecho, “contravino las expectativas del consenso de analistas”, que ya vimos la semana pasada, basan sus bonus en las recomendaciones que hacen. Quien hace la ley, hace la trampa. En cualquier caso, la cotización de Apple ha caído un 8% o, lo que es lo mismo, se han evaporado 47.000 millones de capitalización bursátil en apenas ocho horas.

Las ventas cayeron fuertemente en China: un 26%, comparado con el año pasado. Las ventas en China continental se desplomaron un 11%, siendo este su segundo mercado tras el estadounidense. Su futuro en ese país es incierto porque el gobierno comunista, sin dar explicaciones. ha prohibido los servicios de ebook y digital movie services.

Apple predijo anoche que las ventas de su tercer trimestre se moverían en el intervalo de entre 41.000 y 43.000 millones: mucho peor que lo que los analistas predecían.

Primer trimestre, previsiones y realidades

En el primer trimestre de su año fiscal, Apple rompió moldes (registros trimestrales), con 18.400 millones de dólares en beneficios y 75.900 millones en ingresos, comparado con 18.000 millones en ganancias y 74.600 millones en ingresos. Su margen bruto fue de 40,1%. Estos resultados superaron las expectativas de Tim Cook para el trimestre, que preveía ingresos de entre 75.500 y 77.500 millones y un margen de beneficios de entre el 39 y 40 por ciento.

A principios de año, Apple predecía que obtendría entre 50.000 y 53.000 millones de dólares en ingresos en el segundo trimestre de 2016 fiscal con márgenes de entre 39 y 39,5 por ciento. En concreto, esto está un poco por debajo de los 58.000 millones de facturación que consiguió en el segundo trimestre de 2015; de ser así (si estas cifras son exactas) serían la primera vez que los de Apple disminuyen en más de una década.

La compañía señaló que sus ingresos se verían afectados negativamente por el tipo de cambio (de otra manera, habría obtenido 5.000 millones más este trimestre). Realista, la compañía de la manzana también explicó que este segundo trimestre es el más duro de este año fiscal, debido a la renqueante recuperación económica y porque, en el mismo período de 2015, la empresa se encontró con demanda acumulada del iPhone 6 provenientes del primer trimestre.

De todas formas, hay que tener en cuenta que Apple es una compañía obsesionada por el crecimiento y por satisfacer a los inversores, por lo que es importante recordar que establece una barra increíblemente alta para sí misma apoyándose en las ventas del iPhone 6.

Antes de la llegada del segundo trimestre fiscal de 2016, la compañía ha acumulado ingresos por un total de 234.000 millones de dólares en los últimos doce meses. Sería así la primera compañía del mundo, aunque si la petrolífera de Arabia Saudí sale a Bolsa por 1.800 millones de dólares, Aramco le arrebataría dicho honor.

La base de datos compilada por San Jose Mercury News, muestra también que Apple está generando actualmente tres veces más beneficio que Alphabet, empresa matriz de Google. Con 53.731 millones, el beneficio de los de Cupertino empequeñece los 15.877 millones de Alphabet. Incluso cuando se combina el beneficio de Google, Intel, HP Inc y HP Enterprise, las ganancias de Apple todavía superan a su competencia de Silicon Valley en 3.000 millones de dólares. Tan solo en impuestos, Apple pagó 18.941 millones, o lo que es lo mismo, 6 veces más que Alphabet (Google).

Ventas

Las ventas de 2015 de  Apple fueron superaron las combinadas de las 41 empresas que venden tecnología de la información a pymes y a otras empresas grandes. De la misma manera que sus beneficios de 2015 fueron similares a los ingresos agregados de las 14 empresas pertenecientes al sector de Internet, junto a las 30 empresas en el sector TIC tradicional, como Intel y Microsoft.

De todas formas, la acción de Apple está actualmente valorada en “solo” 581.000 millones, unos 100.000 más que Alphabet y casi el doble que Microsoft. Google e Intel juntos tienen una valoración bursátil superior a Apple, a pesar de que los ingresos combinados de ambas empresas es de 100.000 millones menos que los de Cupertino, y ganan menos de la mitad de los beneficios que consiguen estos.

Una vez más, los analistas y sus expectativas

Las previsiones de Apple apuntaban a una facturación de entre 50.000 y 53.000 millones de dólares en su segundo trimestre. Si se cumple su pronóstico, la mayor empresa del mundo por capitalización bursátil sufriría la primera caída de ingresos desde 2003.

Los analistas de Bloomberg también avanzaron una caída en los ingresos de la firma del 10,4%, hasta los 51.997 millones de dólares y un descenso más pronunciado del 18% en su beneficio, hasta los 11.047 millones. La propia Apple ya avanzó estas previsiones de descenso de su negocio en la presentación de resultados del último trimestre de 2015 (el primer trimestre de su año fiscal). En ese periodo, el iPhone apenas registró un crecimiento del 0,4%, con 74,8 millones de unidades vendidas.

Mientras JP Morgan situó las ventas del estos dispositivos en 54,6 millones de unidades, un 14% menos que en el mismo periodo del año anterior, otras fuentes más pesimistas pronosticaban la cifra en 51 millones, lo que hubiera supuesto un descenso del 17%. Las muestras de desgaste en las ventas del iPhone parecen claras. Los analistas también esperaban caídas en las ventas del iPad (un 28%) y en los Mac (un 1%). Solo crecerían los servicios y el Apple Watch.

Conclusión: con independencia de los analistas, Apple ya sabía en el primer trimestre lo que iba a vender en el segundo. Nadie conoce mejor su casa que uno mismo.

Jorge Díaz-CardielJorge Díaz-Cardiel. Socio Director General de Advice Strategic Consultants. Economista, Sociólogo, Abogado, Historiador, Filósofo y Periodista. Ha sido Director General de Ipsos Public Affairs, Socio Director General de Brodeur Worldwide y de Porter Novelli International; director de ventas y marketing de Intel Corporation y Director de Relaciones con Inversores de Shandwick Consultants. Autor de más de 5.000 artículos de economía y relaciones internacionales, ha publicado más de media docena de libros, como La victoria de América, Éxito con o sin crisis y Recuperación Económica y Grandes Empresas, Obama y el liderazgo pragmático, La Reinvención de Obama, Contexto Económico, Empresarial y Social de la Pyme en España, entre otros. Es Premio Economía 1991 por las Cámaras de Comercio de España.

 

Socio director general de Advice Strategic Consultants. Economista, Sociólogo, Abogado, Historiador, Filósofo y Periodista. Ha ocupado cargos de responsabilidad en empresas de comunicación, relaciones públicas y tecnología. Ha escrito más de mil de artículos de economía y relaciones internacionales y una veintena de libros.

Opinión

Nuestra vida en la economía digital, ¿cómo se mueven los engranajes que la hacen posible?

Cuando hablamos de economía digital nos referimos a una nueva forma de economía y de vida basada en las nuevas tecnologías digitales, ¿Cómo soportamos realmente este nuevo paradigma? ¿qué infraestructuras necesita para desarrollarse?

Publicado el

¿Quién de vosotros suele disfrutar de sus días de vacaciones en otro lugar? En mi caso, en mi escapada de Semana Santa, me he desplazado por carretera, siguiendo las recomendaciones de otros travellers a través de una app; además he utilizado un navegador, he ido en un coche que ofrece toda una serie de servicios de conectividad, y hasta mis hijos han viajado conectados a una aplicación que nos ha dado la oportunidad de disfrutar de un viaje tranquilo y agradable. Todo esto resulta maravilloso, pero pocas veces nos preguntamos, ¿qué hay detrás de esta postal que acabáis de imaginaros? Si cuando hablamos de economía digital nos referimos precisamente a esto, a una nueva forma de economía y de vida basada en las nuevas tecnologías digitales, ¿Cómo soportamos realmente este nuevo paradigma?

La economía digital evoluciona a marchas forzadas. El número de dispositivos de campo que recogen y almacenan nuestros datos no deja de aumentar y, con él, sus prestaciones en cuanto a velocidad y precisión. En paralelo a esta evolución, está aumentando la capacidad de trasladar estos datos desde los dispositivos a los centros encargados de su procesamiento, interpretación y análisis. Probablemente, en unos años la imagen que acabo de describir será más futurista e incluirá nuevas capacidades y una mayor velocidad a la hora de gestionar la información en nuestros dispositivos. Si el objetivo, tanto de cara al usuario como a las empresas es recortar el tiempo de disponibilidad de los datos y agilizar su tratamiento, no cabe duda de que es preciso mejorar la latencia (la suma de retardos temporales dentro de una red).

“¿Qué hay detrás de la economía digital? ¿Cómo se alimenta todo este paradigma?”

La persecución de este objetivo nos está llevando desde hace algún tiempo a adoptar la filosofía del edge computing, basada en el tratamiento y computación de los datos en el contorno del sistema sin tener que utilizar o enviar los datos a los grandes nodos o datacenters para agilizar el tratamiento de la información, al acercarlos a los dispositivos finales (y reducir así la latencia). Hasta aquí, todo parece tener sentido y marchar sobre ruedas, sin embargo, ¿cómo alimentar a estos nuevos pequeños datacenters de la forma más adecuada, favoreciendo al mismo tiempo los objetivos de sostenibilidad?

En mi opinión, es lógico que los nuevos pequeños datacenters deben alimentarse fundamentalmente de energías renovables. A día de hoy, éstas resultan enormemente competitivas y no agotables. Su problema es básicamente que no están disponibles todo el tiempo, sino que dependen de condiciones variables, pero afortunadamente para esto existe una solución, que pasa como no podía ser menos, por las bondades de la tecnología.

Existen tecnologías, como UPS-as-a-reserve, diseñadas para servir a este innovador propósito y permiten aprovechar los SAIs (o UPS en inglés) para aportar energía limpia al datacenter; y esto no es todo. Me parece esencial recalcar que es posible hacerlo en dos direcciones gracias al firmware desarrollado por Eaton para sus SAIs; tanto hacia los consumidores como, y siempre y cuando la ley lo permita, de vuelta a la propia red. Este segundo paso puede llevarse a cabo bien través de agregadores o bien directamente hacia las utilities para cubrir tipos de demanda energética. Estas tecnologías sirven también en forma de software para predecir y gestionar la demanda, así como para mantener la frecuencia estable de la red.

Un ejemplo puede ser cuando de noche se pongan a cargar múltiples coches en una determinada área, y en un momento vaya a ser preciso cubrir esa demanda con más energía. Este tipo de soluciones facilitan el traspaso de energía desde la batería de litio a través del SAI hasta la red, y lo hacen de forma ágil y operativa.

“Los datacenter actuales deben aspirar a ser 100% sostenibles en su alimentación energética”

Respecto a todo lo anterior, resulta especialmente interesante destacar que el progreso alrededor de las tecnologías del datacenter ha posibilitado su transformación digital desde una primera capa puramente tecnológica, centrada en la eficiencia del datacenter como consumidor energético casi “pasivo”, pasando por la segunda capa de eficiencia de negocio, sobre entornos de TI “virtualizados”, hasta la actualidad donde el datacenter innovador es capaz de ‘mirarse’ desde el exterior en 360º y culminar la tercera capa de eficiencia económica; datacenter en términos de “activo” energético, es decir, con el foco en cómo de “sostenible” es su alimentación energética y la de su entorno, vía soluciones como xStorage y el Software Intelligent Power Manager de Eaton.

Creo que, inmersos como estamos en la economía digital, contar con una tecnología que nos permita gestionar el almacenamiento de energía va a resultar esencial para gestionar el flujo y el aprovechamiento de las renovables de la manera no solo más eficiente sino más económica posible. Y como no puede ser de otra manera, gracias a esta tecnología de Eaton, se completa el ciclo de la economía circular haciendo a este planeta merecedor de un futuro más sostenible, y contribuyendo al reciclado de las baterías de los parques de movilidad basados en vehículos eléctricos en favor del ciudadano. Definitivamente, hay mucho trabajo y muchos agentes involucrados en permitir que la imagen que describía al principio siga siendo una realidad que facilite ante todo nuestra vida, y conserve al mismo tiempo la de nuestro plantea, y todos tenemos que seguir trabajando hacia este objetivo.

 

Juan Antonio Revuelta es licenciado en Química por la Univ. Complutense de Madrid y Diplomado Superior en Dirección Comercial y Admin. De Empresas por la Cámara de Comercio e Industria de Madrid. En sus 22 años de carrera ha formado parte de varias multinacionales especialistas en la gestión de la Energía y las Telecomunicaciones. Actualmente ocupa el cargo de Data Center Senior Executive Sales Reps. & Business Development en Eaton EMEA.

 

 

 

Continuar leyendo

Opinión

Cómo se fraguó Alexa, la Inteligencia Artificial de Amazon

Publicado el

En 2014, Srikanth Thirumalai se reunió con el CEO de Amazon, Jeff Bezos. Thirumalai, un informático que había dejado a IBM en 2005 para dirigir un equipo de Amazon, había llegado a proponer un nuevo plan para incorporar los últimos avances en Inteligencia Artificial en su división.

Llegó armado con un extenso documento explicativo, aunque Bezos había decretado hacía mucho tiempo que las propuestas de nuevos productos y servicios debían limitarse a un brevísimo papel explicativo. Sin embargo, lo que vio Bezos en el informe de Srikanth Thirumalai podía colocar a Amazon en la vanguardia de la Inteligencia Artificial.

Recomendaciones de productos de Amazon habían sido imbuidas de AI desde los primeros días de la empresa, pero en los últimos años ha habido una fuerte revolución y el Machine Learning se ha convertido en mucho más eficaz, especialmente en una forma sobrealimentada conocida como aprendizaje profundo. Ha llevado a aumentos fuertes en visión por computador, del habla y procesamiento del lenguaje natural.

En la primera parte de esta década, Amazon tenía todavía tiempo para aprovechar estos avances, pero Bezos reconoció que la necesidad de correr era urgente. La competencia más importante de esta época en AI eran Google, Facebook, Apple y Microsoft…. y Amazon fue quedando atrás.

¿Cómo imbuir de IA cada área de la empresa?

Thirumalai se lo tomó a pecho y ofreció a Bezos (para su reunión anual de planificación) ideas sobre cómo ser más agresivo en el Machine Learning. Pero Bezos quería más. El problema era que sus deseos requerían habilidades que su equipo no poseía, herramientas que no habían sido creadas y algoritmos que nadie había pensado todavía. Thirumalai rompió su papel y se puso a trabajar como vicepresidente de búsquedas de Amazon, convirtiéndose en uno de los líderes de la tarea de revisión de software con el Machine Learning más avanzado.

Thirumalai fue solo uno de una procesión de líderes de la compañía que proponían productos totalmente diferentes para muchos grupos de clientes. Pero esencialmente cada uno imaginó una variación del enfoque de Thirumalai: transformación de parte de Amazon con avanzado Machine Learning. Esto implicó repensar proyectos en curso, como los esfuerzos de robótica de la empresa y su negocio de grandes centros de datos, así como de Amazon Web Services (AWS).

Los resultados han tenido un impacto mucho más allá de lo esperado por Bezos. Thirumalai dice que las unidades de negocio de la empresa, en 2014, eran islas de AI en un vasto océano de ingeniería. El empuje para reformar la empresa con el Machine Learning cambió eso… radicalmente. Las unidades de negocio empezaron a trabajar juntas compartiendo la IA, al tiempo que Bezos insistía en que la cultura de la empresa exigía que las innovaciones se enmarcaran únicamente en el contexto de servir a sus clientes.

Amazon tiene una muy potente AI, procedente de Machine Learning. Los resultados de esta transformación pueden verse en toda la empresa, incluyendo un sistema de recomendaciones de productos que ahora funciona en una infraestructura de Machine Learning totalmente nueva. Amazon es más inteligente en lo que sugiere lo que debe leer el usuario a continuación, lo que se debería agregar a su compra, los artículos de la lista, y qué película usted puede ver esta noche. Y este año, Thirumalai comenzó un nuevo trabajo en el negocio de búsqueda de Amazon, donde él se prepone utilizar Machine Learning profundo en cada aspecto del servicio al cliente.

El efecto de Alexa

El producto estrella de empuje de Amazon es su altavoz elegante disidente, el eco y la plataforma de voz de Alexa que lo alimenta. Estos proyectos también surgieron de un memo entregado a Bezos en 2011 para un proceso de planificación anual llamado un “Plan Operativo”. El objetivo era crear “Un ordenador ubicuo de bajo coste, con todos sus cerebros en la nube, con el que se puede interactuar mediante voz “.

Pero ese sistema de construcción — literalmente un intento de realizar una obra de ciencia ficción, el ordenador hablador de Star Trek — requiere un nivel de destreza de la Inteligencia Artificial que la empresa no tenía a mano en el año 2011. Peor aún, de los pocos expertos que podrían construir un sistema, ninguno quería trabajar para Amazon, sino para Google y Facebook.

Amazon tenía un poco de una mala imagen, no agradable a las personas que provenían investigación orientada. Una empresa implacable con enfoque en el cliente y su cultura de dureza en el trato a los empleados, lo que daba cómodas ventajas a los competidores.

A falta de talento dentro, la compañía utilizó su músculo financiero para comprar empresas con experiencia en IA. “En los primeros días de Alexa, compramos muchas empresas”, dice Bezos. En septiembre de 2011 acapararían Yap, una empresa de voz a texto con experiencia en la traducción de la palabra hablada en lengua escrita. En enero de 2012, Amazon compró Evi, Cambridge, compañía cuyo software podría responder a las solicitudes habladas como Siri. Y en enero de 2013, hizo lo propio con Ivona, una empresa polaca especializada en texto a voz, que proporciona la tecnología que permitió a Echo hablar.

También atrajo el mejor talento, como Alex Smola, una superestrella en el campo de la IA que había trabajado en Yahoo y Google.”Literalmente es uno de los padrinos del aprendizaje profundo“, dice Bezos.

La parte más delicada del Eco: el problema que obligó a Amazon para abrir nuevos caminos en el proceso de su Machine Learning de jugar para ganar era algo que se llama ahora “reconocimiento de voz de campo”. Se trata de interpretar comandos de voz hablados a cierta distancia de los micrófonos, incluso cuando están contaminadas con ruido.

Un factor difícil era que el dispositivo no podía perder tiempo meditando sobre lo que había dicho. Había que enviar el audio a la nube y producir una respuesta con la suficiente rapidez para que pareciera una conversación y no como esos momentos difíciles cuando no estás seguro si todavía está respirando la persona con la que estás hablando. Construir un sistema de aprendizaje automático que pueda entender y responder a las preguntas en conversaciones en condiciones ruidosas requiere enormes cantidades de datos y tendría un montón de ejemplos de los tipos de personas las interacciones con sus ecos. No era evidente que Amazon podría obtener estos datos.

Varios dispositivos de Amazon y productos de terceros ahora utilizan el servicio de voz de Alexa. Datos recogidos a través de ella ayudan a mejorar el sistema y carga de esfuerzos más amplios de AI. La buena noticia es que todas las piezas estaban allí, en Amazon, un servicio en la nube sin precedentes, los centros de datos cargados con Machine Learning y nuevos algoritmos.

Las ramificaciones de Alexa

Equipos a través de la empresa comenzaron a darse cuenta de que Alexa también podría ser un servicio de voz útil para sus proyectos. “Así que todo lo que los datos y la tecnología aportan, vienen juntos, a pesar de son muy grandes sobre la propiedad de subproceso único“, añade Bezos. Otros productos de Amazon comenzaron a integrar Alexa: “Cuando usted habla en su dispositivo de Alexa, se puede acceder a música de Amazon, Prime Video, tus recomendaciones personales desde el sitio web de compras y otros servicios“. A continuación, la tecnología comenzó a saltos a través de otros dominios de Amazon.”Una vez que tuvimos la capacidad de discurso fundacional, hemos sido capaces de traer a Alexa productos como TV Fire, voz comercial, Amazon Fresh y, en última instancia, AWS”, dice Bezos.

Bezos fue de los primeros en darse cuenta de las implicaciones de negocio de integración de Inteligencia Artificial en servicios en la nube de la compañía. El plan era agregar servicios de machine learning a AWS.

En cierto sentido, la oferta de máquina de aprendizaje a las decenas de miles de clientes de Amazon cloud era inevitable. “Cuando primero armamos el plan de negocio original para AWS, la misión era llevar la tecnología que estaba sólo al alcance de un pequeño número de organizaciones bien financiadas y se distribuye tan ampliamente como sea posible“, dice Wood, el gestor de machine learning y AWS. Amazon Machine Learning de AWS, primero ofrecido en el año 2015, permite a los clientes como C-Span configurar un catálogo privado de caras; Zillow lo utiliza para estimar el precio de la vivienda. Pinterest lo emplea para la búsqueda visual y varias startups de conducción autónoma están utilizando Machine Learning AWS aprendiendo a mejorar productos a través de millones de kilómetros de la prueba de carretera simulada.

En 2016, la nueva Machine Learning-AWS había lanzado servicios que más directamente se basaban en las innovaciones de Alexa: un componente de texto a voz se llama Polly y un motor de procesamiento de lenguaje natural llamado Lex. Estas ofertas permiten a los clientes, que van desde gigantes como Pinterest y Netflix hasta pequeñas empresas, construir su propio mini Alexa.

Estos servicios de aprendizaje automático son un generador de ingresos de gran alcance y clave para la AI de Amazon, con clientes tan dispares como la NASA y la NFL que están pagando miles de millones para conseguir el Machine Learning de Amazon.

El papel dominante de AWS en el éter también le da una ventaja estratégica sobre los competidores, en particular sobre Google, que había esperado utilizar su liderazgo en Machine Learning para arrasar a AWS en cloud computing. Hasta ahora, Amazon-AWS-Alexa está ganando la batalla. No solo en distribución, sino en todos los ámbitos. Con más datos. Con más clientes. Con más plataformas. Con más talento.

Tipo listo, Bezos. Aunque inspira mucho respeto.

jorgeJorge Díaz-Cardiel. Socio director general de Advice Strategic Consultants. Economista, Sociólogo, Abogado, Historiador, Filósofo y Periodista. Autor de más de mil de artículos de economía y relaciones internacionales, ha publicado una veintena de libros.

 

Continuar leyendo

Opinión

Crónicas desde EE.UU.: la Inteligencia Artificial de Google

Publicado el

Google IO 2018

El 8 de mayo, Google inició su conferencia anual de desarrolladores con una extensa presentación de Sundar Pichai, CEO de Google, presentando una serie de nuevas características impulsadas por Inteligencia Artificial (IA) para su próxima actualización de Android P, al tiempo que se posicionó como una compañía comprometida con el bienestar de los consumidores.

Creo que Google deslumbró a los 7.000 asistentes a su conferencia anual en el Shoreline Amphitheatre, en Mountain View (California), al mostrar la tecnología disponible para desarrollar dispositivos con Inteligencia Artificial.

Sintetizadores y mecanismos para dibujar con esas nuevas tecnologías fueron algunas de las exhibiciones en el congreso. Las muestras fueron solo el preámbulo de la presentación de Sundar Pichai, que seguirá revelando nuevos planes sobre el desarrollo de la Inteligencia Artificial.

Unos de los posibles anuncios es que el asistente computerizado de Google, llamado Google Assistant, ahora podrá tener nuevas funciones como hacer reservas para un restaurante, sin intervención humana.

Google anunció mejoras de su sistema operativo Android para teléfonos inteligentes, también en su programa Google Maps con IA, y avances en la tecnología de realidad aumentada que superpone imágenes digitales sobre imágenes del mundo real.

Lo que Google ansía es que “su asistente computerizado se vuelva tan imprescindible, que la gente no pueda vivir sin él”, dijo Sunchai, de tal manera que los consumidores tendrán que ver la publicidad adherida (de la cual muchos huimos, hoy). También destacó los beneficios sociales de la IA y formas en que esa nueva tecnología digital puede mejorar la atención médica, preservar el medio ambiente y promover descubrimientos científicos.

Pichai no profundizó en la protección de la privacidad, tema que ha colocado en situaciones complicadas a otras compañías tecnológicas como Facebook y Twitter, “protagonistas” de las elecciones presidenciales de 2016 en Estados Unidos, a favor de Donald Trump gracias a la implicación de la llamada trama rusa, que supuestamente colocó en esas redes sociales cientos de miles de anuncios a favor del candidato republicano. En cambio, Google ofreció a los padres nuevas herramientas para supervisar los contenidos que sus hijos están viendo en la red y evitar serios problemas como el cyber-bullying, el acoso sexual, etc.

Nueva app para noticias que combina funciones de Google Play Newsstand con YouTube

Aún es demasiado pronto para que Google lance al mercado algún producto nuevo, aunque piensa hacerlo antes de la campaña de Navidad, cuando más se vende en el año. Sí anunció que Lenovo venderá audífonos para realidad virtual por 400 dólares que pueden funcionar sin necesidad de un smartphone. (Facebook anunció la semana pasada un producto parecido a mitad de precio -199 dólares-, con la marca Oculus Go…)

También, Google aumentó las funciones de sus relojes digitales alimentados por el software Wear OS. Por ejemplo, el dispositivo puede decirle a la persona lo que tiene en el calendario mediante los audífonos, sin que el usuario tenga que leer lo que está escrito.

Android P usa IA para ofrecer funciones que incluyen Adaptive Battery, Adaptive Brightness y App Actions, que hacen un seguimiento del comportamiento del usuario mediante el aprendizaje automático (machine learning, del que ya hemos hablado en MuyComputerPro en varias ocasiones). Adaptive Battery asigna automáticamente energía a las aplicaciones y servicios más utilizados, mientras que App Actions intenta ahorrar tiempo a los usuarios al ofrecer opciones basadas en lo que creen que los usuarios querrán hacer a continuación.

Por ejemplo, las App Actions pueden ofrecer una aplicación de ejercicio físico alrededor del tiempo que un usuario normalmente hace ejercicio, o sugerir una aplicación de música, si los auriculares están enchufados.

Las App Actions también incorporarán opciones de Slices, accesos directos a la funcionalidad de la aplicación clave. Google ahora permite a los desarrolladores integrarse en la interfaz de usuario más amplia de Android P. Estos accesos directos permitirán, por ejemplo, que un usuario coja un taxi a través de la función de búsqueda o use el asistente sin tener que abrir su aplicación.

Menos usos del teléfono

Pero, en lugar de tratar de atraer a los usuarios con estas nuevas características, Google insistió en que realmente está tratando de ayudar a los usuarios a pasar menos tiempo usando sus teléfonos.

Para demostrarlo, la compañía incluyó en la presentación una serie de características de “bienestar digital” en la actualización, incluido un panel que permite a los usuarios ver un desglose de cuánto tiempo pasan en diferentes aplicaciones.

Android P también permitirá a los usuarios configurar App Timers, que designan límites de uso para las aplicaciones y recordarles a los usuarios cuando se acaba el tiempo fijado como límite, e incluye un nuevo modo Wind Down que cambia la pantalla a escala de grises antes de acostarse para animar a los usuarios a desconectarse.

“El tema común en todo esto es que estamos trabajando duro para darles a los usuarios tiempo propio de calidad, sin tener por qué usar el smartphone”, afirmó en la conferencia el CEO de Google, Sundar Pichai: “Sabemos que las personas se sienten atadas -adictas- a sus dispositivos … creemos que, realmente, podemos ayudar a los usuarios a mejorar su bienestar digital. Este va a ser un esfuerzo continuo presente en todos nuestros productos y plataformas”, concluyó.

Actualmente, Android P está disponible en versión beta en Google Pixel, Sony Xperia XZ2, Xiaomi Mi Mix 2S, Nokia 7 Plus, Oppo R15 Pro, Vivo X21, OnePlus 6 y Essential PH-1.

El Asistente Personal de Google también recibió un impulso de IA, diseñado para ayudarlo a interactuar, usando una forma de hablar más natural con seis nuevas voces.

Conversaciones Continuas

Las actualizaciones incluyen la llamada capacidad de Conversaciones Continuas que usa claves de contexto para permitir a los usuarios hablar continuamente con el Asistente sin tener que repetir la frase “Hola Google”, y una función de Acciones Múltiples para ayudar al Asistente a atender múltiples solicitudes dentro de una sola frase.

Sunchair dijo que también está trabajando en una nueva capacidad de conversación llamada Google Duplex, que permitirá a los asistentes llamar a las empresas en nombre de los usuarios para que se encarguen de tareas como citas para “cortarse el pelo y reservas en restaurantes”. Estas llamadas se realizan en segundo plano sin la supervisión del usuario después de que se realiza una solicitud al Asistente de Google.

En una demostración de esta tecnología, Duplex usó una voz humana realista y no se identificó como un no-ser-humano para los otros participantes en la llamada. Tanto realismo generó preocupaciones éticas por parte de los analistas presentes en el evento. Personalmente, me acordé de los “Replicantes” de la película Blade Runner.

Sundar Pichai quiso despejar esas dudas y dijo que la transparencia será clave para hacer que el servicio tenga éxito: “Queremos ser claros sobre el propósito de la convocatoria para que las empresas entiendan el contexto. Vamos a ejercitarnos con el enfoque correcto en los próximos meses “. A mí me pareció una explicación un tanto enrevesada, pero me fui de la conferencia de Google en el Shoreline Amphitheatre de Mountain View con la idea clara de que Sundar Pichai, prometió tres cosas mediante la inteligencia artificial: proteger la privacidad, mejorar la vida de las personas y beneficios sociales para los consumidores.

Ahora, como dicen los refranes españoles, Google habrá de pasar “del dicho al hecho”, porque no “es lo mismo predicar que dar trigo”, ya que “obras son amores y no buenas razones”…

jorge diaz cardiel

 

 

Jorge Díaz-Cardiel. Socio director general de Advice Strategic Consultants. Economista, Sociólogo, Abogado, Historiador, Filósofo y Periodista. Autor de más de mil de artículos de economía y relaciones internacionales, ha publicado una veintena de libros.

Continuar leyendo

Lo más leído

Suscríbete gratis a MCPRO

La mejor información sobre tecnología para profesionales IT en su correo electrónico cada semana. Recibe gratis nuestra newsletter con actualidad, especiales, la opinión de los mejores expertos y mucho más.

¡Suscripción completada con éxito!