Conecta con nosotros

Opinión

Una empresa de medicina de precisión basada en análisis

Publicado el

Molecular Health, una pequeña empresa de genética alemana, proporciona servicios de análisis basados en datos al sector de la asistencia sanitaria que transforman las decisiones de tratamiento contra el cáncer, aceleran el desarrollo de fármacos y mejoran los resultados de los pacientes.

Al comparar los datos moleculares de pacientes con vastas fuentes de datos publicados, sus servicios de análisis basados en la nube están revolucionando el trabajo de clínicas oncológicas, hospitales, laboratorios de genética y empresas farmacéuticas, ayudando en última instancia a los pacientes.

Molecular Health descubrió recientemente que el proceso de tratamiento más habitual no habría resultado eficaz para un paciente específico con cáncer de pulmón. En su lugar, identificó un nuevo fármaco que resultaría eficaz y halló un estudio clínico en vivo de este medicamento en el que dicho paciente podría participar. Seis meses más tarde, este paciente sigue recibiendo un tratamiento efectivo a partir de esta medicación y no sufre efectos secundarios.

La historia de Molecular Health

Molecular Health se fundó en 2004 y, desde entonces, ha transformado los macrodatos en decisiones precisas y prácticas para todas las partes interesadas de la asistencia sanitaria.
Fomentar la toma de decisiones basadas en datos en el sector de la asistencia sanitaria

La empresa se describe como una «empresa de medicina de precisión basada en análisis y datos que recoge, integra y analiza conocimientos clínicos y datos de resultados moleculares con el fin de identificar de forma precisa tratamientos orientados a mecanismos específicos de enfermedades».

«Los avances tecnológicos y la reducción del coste de la secuenciación genómica están contribuyendo a los esfuerzos por identificar más de tres mil millones de letras de nuestro modelo genómico relacionado con diferentes enfermedades, así como por reunir pruebas sobre los fármacos que pueden tratarlas de forma efectiva. La explosión de datos resultante revolucionará el sector de la asistencia sanitaria».

¿Cómo lo hace?

Su plataforma de tecnología Dataome basada en la nube analiza los datos moleculares y clínicos de pacientes individuales comparándolos con el conocimiento médico, biológico y farmacológico de todo el mundo con el fin de impulsar decisiones más precisas en materia de diagnóstico, terapia y seguridad de los fármacos.

La plataforma extrae y estructura millones de fuentes de datos clínicos y moleculares basados en pruebas. Los profesionales de la asistencia sanitaria pueden profundizar en una base de conocimiento que contiene información detallada sobre la respuesta a fármacos, la resistencia a medicamentos y la toxicidad de la medicación basada en más de seis millones de casos de pacientes.

Esta plataforma ofrece una rápida interpretación de los datos que tiene relevancia en la industria de la asistencia sanitaria, desde anticiparse a la respuesta a los fármacos de la cohorte de pacientes hasta identificar opciones de tratamiento personalizadas para los pacientes, pasando por la predicción de la toxicidad de la medicación y de los efectos secundarios basándose en pruebas genómicas y moleculares.

En todo este proceso, Molecular Health considera esencial asegurarse de que las plataformas en la nube que utilicen cumplan la compleja y múltiple normativa en materia de seguridad y protección de datos que no solo afecta a la propia empresa, sino a todos los tipos de clientes repartidos por el sector.

¿Cómo contribuye?

Los oncólogos (médicos especializados en el cáncer) pueden utilizar los servicios de Molecular Health para estar al tanto de los últimos descubrimientos en genómica y acceder a datos clínicos moleculares para informarse acerca de tratamientos exitosos contra el cáncer. Así pues, pueden consultar opciones de tratamiento que se priorizan en función de las pruebas y se incluyen en informes clínicos personalizables.

Los hospitales que desean acceder a la secuenciación genómica del cáncer y necesitan una plataforma de tecnología fiable para su programa oncológico de precisión pueden utilizar los servicios de Molecular Health para interpretar datos de secuenciación sin procesar, así como usar informes interactivos sobre la eficacia de los fármacos, en los que se muestran incompatibilidades fármaco-fármaco y fármaco- paciente, para evitar opciones de tratamiento peligrosas.

Los laboratorios que hacen frente a la creciente demanda de secuenciación de un mayor número de genomas de pacientes para la interpretación clínica de los datos de diagnóstico molecular pueden analizar e interpretar casos de pacientes, en los que se establecen correspondencias entre las variantes y una creciente cantidad de datos, para proporcionar informes clínicos completos y personalizables.

Las empresas farmacéuticas pueden mejorar la eficacia del desarrollo de fármacos. La solución interpretativa y analítica de macrodatos de Molecular Health puede identificar biomarcadores predictivos y de pronóstico para aumentar la eficacia de la selección de ensayos clínicos, así como predecir de forma más efectiva el éxito de los fármacos en una fase temprana de su desarrollo.

La cuestión más amplia

Los análisis de datos basados en la nube abren nuevas posibilidades en el sector de la asistencia sanitaria. En el debate sobre la cuarta revolución industrial que tuvo lugar en el Foro Económico Mundial del año 2016, Arnaud Bernaert, responsable de Industrias Globales de Asistencia Sanitaria y Salud, y miembro del Comité Ejecutivo del Foro Económico Mundial, escribió: «Las tecnologías, tales como la genómica, ofrecen un enfoque clínico bastante diferente del planteamiento secuencial ciego en el que se prueba, se falla y se prueba otra cosa hasta que el resultado es positivo. Estas tecnologías también albergan la promesa de evitar el malgaste de recursos escasos, lo que sin lugar a dudas mejora los resultados en general».

«Piense en un mundo donde la ciencia reparase las causas de las enfermedades en lugar de reducir los efectos de los síntomas. Imagine un mundo en el que la ciencia de la regeneración celular ayudase a los pacientes que sufren diabetes o insuficiencia renal a disfrutar de vidas libres de enfermedades y a beneficiarse de trasplantes tempranos de páncreas y riñones artificiales».

«Estas son las promesas de la cuarta revolución industrial cuando se trata de la asistencia sanitaria. Cuando esto ocurra, se contendrán los costes, ya que se eliminará el derroche y solo se prescribirán tratamientos relevantes».

La nube ofrece escalabilidad y ahorro

Molecular Health es un gran ejemplo de una nueva empresa que ofrece servicios de medicina de precisión que contribuyen a la reinvención, no de sí misma, sino de sus clientes bien consolidados en el sector de la asistencia sanitaria. El proceso de analizar datos clínicos comparándolos con las publicaciones médicas es una ciencia muy basada en datos, y la nube híbrida, que es conforme con múltiples entornos normativos, resulta ser la plataforma elegida para ello.

El modelo en la nube es perfecto para este tipo de medicina de investigación. Los laboratorios pueden investigar un área terapéutica, admitir los datos para analizar muestras genéticas o moleculares y, a continuación, desacreditarlos a medida que se mueven a otras áreas. Poder aceptar y rechazar una cantidad masiva de datos y almacenamiento a voluntad es tremendamente atractivo, tanto con fines operativos como comerciales.

No obstante, como siempre, una consideración crítica para organizaciones como Molecular Health es asegurarse de que las plataformas y los proveedores que utilicen les permitan seguir cumpliendo los múltiples entornos normativos.

La nube debe ser conforme con la normativa

Una empresa como Molecular Health actúa como puente entre una empresa farmacéutica y biotecnológica tradicional y clínicas y hospitales reales, lo que significa que cuenta con múltiples autoridades normativas y de privacidad que desean asegurarse de que se implementen los controles adecuados en sus datos. Por tanto, es su responsabilidad asegurarse de que las nubes que se utilicen cumplan los estándares internacionales de datos, privacidad y seguridad.

Deberá garantizarse el cifrado de los datos almacenados y en línea, así como la autorización adecuada para el acceso a sistemas, la formación para el personal y los registros de auditoría. Estos requisitos abarcan no solo la propia plataforma en la nube real, sino también las redes, la seguridad y los servicios de aplicación relacionados.

Las nubes que empresas similares a Molecular Health utilicen deberán ser conformes con la ley estadounidense de responsabilidad y transferibilidad de seguros médicos (HIPAA, por sus siglas en inglés). Por ello, el sector tiende a inclinarse hacia proveedores de la nube privados para empresas, como Dimension Data, cuyas plataformas cuentan con las certificaciones apropiadas.

En particular, las empresas europeas, como Molecular Health, ubicadas en Alemania están sujetas a la Directiva de protección de datos de la Unión Europea, que requiere que los datos no salgan del país, lo que establece requisitos más estrictos para las plataformas en la nube que pueden utilizar.

Normativa farmacéutica

Aunque Molecular Health no es una empresa farmacéutica, los servicios que proporciona se consumen, en algunos casos, por empresas farmacéuticas, por lo que debe asegurarse de que es un proveedor que cumple la normativa en este sector.

La normativa farmacéutica es muy específica en lo que respecta a asegurarse de que un ensayo clínico o los datos de los resultados de las investigaciones no se puedan manipular, tanto si se trata de información almacenada o en línea. Existen requisitos de cifrado similares a los de la información sanitaria protegida (PHI, por sus siglas en inglés), pero las empresas también deben asegurarse de que no se manipulen las bases de datos y el tráfico de red, y de que los procedimientos operativos estándar se sigan de forma estricta.

Si una empresa de la talla de Molecular Health desea asociarse con las principales empresas farmacéuticas, debe cumplir estos requisitos en materia de infraestructura física, acceso a datos y seguridad.

Opinamos que la nube promueve la colaboración. La industria de la asistencia sanitaria se basa en un ecosistema conectado de socios para innovar. El trabajo en red y la colaboración entre diferentes partes es fundamental. En el área de I+D, existe un complejo proceso de investigación de fármacos entre el científico farmacéutico, los centros médicos académicos y los directores de los ensayos clínicos. Estas partes están casi siempre distribuidas a nivel global, por lo que se suelen adoptar comunicaciones unificadas y plataformas de colaboración que son fáciles de usar y muy funcionales.

La plataforma de colaboración debe estar disponible todo el tiempo y se debe facilitar que nuevos usuarios accedan a ella. No obstante, también deben existir una estricta seguridad y un cumplimiento normativo, tal como se ha descrito anteriormente. Este requisito se aplica a las videoconferencias, al uso compartido de documentos y al modelado 3D de fármacos.

Reducción del plazo de comercialización

Las empresas farmacéuticas de mayor envergadura ya no desarrollan nuevos fármacos por sí solas. Es cada vez más probable que adquieran empresas que ya hayan comercializado o estén a punto de comercializar fármacos.

Muchas de las grandes empresas farmacéuticas no asumen el riesgo y el coste de desarrollar fármacos por cuenta propia. La regla de oro es que se necesitan más de 1.000 millones de dólares estadounidenses, y a menudo 10 años o más, en comercializar un fármaco, además de la investigación a la que deben someterse otros miles de componentes en el proceso. Las empresas farmacéuticas obtienen la mayoría de ingresos en el período posterior a la aprobación de la FDA y mientras que el fármaco está patentado. En general, el límite de protección mediante patente en Estados Unidos es de 20 años, por lo que la comercialización eficaz del fármaco puede ser igual o inferior a 10 años.

La forma en la que una empresa como Molecular Health se adapta a esta situación es mediante el suministro a la empresa farmacéutica de mejor información sobre los datos del paciente y el funcionamiento de un fármaco, lo que, por tanto, permite reducir el plazo de comercialización del desarrollo farmacéutico.

Un ecosistema de socios basado en la nube

La adquisición de datos de asistencia sanitaria es actualmente un punto clave para el sector. Normalmente, la parte más larga del desarrollo de fármacos es en realidad la adquisición de pacientes para ensayos clínicos. Puede costar más de 500.000 dólares estadounidenses iniciar una instalación y, por lo general, las instalaciones deben cerrar porque no consiguen suficientes pacientes.

A través de aplicaciones de modelado 3D, los investigadores y los especialistas temáticos de diversos continentes pueden colaborar en tiempo real en complejos modelos sobre el funcionamiento de los fármacos. Pueden visualizar los mecanismos de llave y cerradura moleculares de cómo la medicación entra en el sistema digestivo, pasa al torrente sanguíneo y penetra en las membranas celulares para, en última instancia, hacer cosas increíbles en beneficio de la humanidad.

Sprout Pharmaceuticals, ubicada en Raleigh (Carolina del Norte, Estados Unidos), desarrolló una «viagra para mujeres». La semana después de recibir la aprobación de la Administración de Alimentos y Medicamentos de Estados Unidos (FDA, por sus siglas en inglés), vendieron la empresa por 1.000 millones de dólares estadounidenses a una farmacéutica canadiense, y solo trabajaban 34 personas en la misma.

Encontrar pacientes para ensayos clínicos puede convertirse en un proceso manual bastante caótico. Aunque los registros sanitarios son cada vez más electrónicos, desgraciadamente los registros de las diferentes instalaciones apenas están normalizados, lo que dificulta la comparación.

Esta actividad es demasiado costosa para que la asuman las pequeñas empresas; solo las grandes empresas pueden permitirse invertir en plataformas capaces de manejar enormes volúmenes de datos sujetos a múltiples conjuntos de normativas. Las grandes empresas farmacéuticas están optando por proporcionar plataformas de análisis de datos basados en la nube que no pueden permitirse sus socios de menor tamaño para, a continuación, vendérselas a estas pequeñas empresas con el fin de utilizarlas en su nombre. Otra vía es la tomada por nuestra filial NTT Data, que suministra bajo licencia este tipo de datos para que otros actores del sector los utilicen.

Siguientes pasos para la genética

Olvídese de las historias de miedo de la ciencia ficción sobre la ingeniería genética. El presente es lo suficientemente asombroso. La realidad de la genética actual se encuentra en empresas como Molecular Health, que utilizan análisis basados en la nube para proporcionar mejores resultados a sus clientes del sector de la asistencia sanitaria, así como una mejor calidad de vida para los pacientes que sufren cáncer.

Peter Lutz, Arquitecto Principal Global de Dimension Data, una compañía del Grupo NTT. Dimension Data aprovecha el poder de la tecnología para ayudar a las organizaciones a lograr grandes objetivos en la era digital.

Opinión

Nuestra vida en la economía digital, ¿cómo se mueven los engranajes que la hacen posible?

Cuando hablamos de economía digital nos referimos a una nueva forma de economía y de vida basada en las nuevas tecnologías digitales, ¿Cómo soportamos realmente este nuevo paradigma? ¿qué infraestructuras necesita para desarrollarse?

Publicado el

¿Quién de vosotros suele disfrutar de sus días de vacaciones en otro lugar? En mi caso, en mi escapada de Semana Santa, me he desplazado por carretera, siguiendo las recomendaciones de otros travellers a través de una app; además he utilizado un navegador, he ido en un coche que ofrece toda una serie de servicios de conectividad, y hasta mis hijos han viajado conectados a una aplicación que nos ha dado la oportunidad de disfrutar de un viaje tranquilo y agradable. Todo esto resulta maravilloso, pero pocas veces nos preguntamos, ¿qué hay detrás de esta postal que acabáis de imaginaros? Si cuando hablamos de economía digital nos referimos precisamente a esto, a una nueva forma de economía y de vida basada en las nuevas tecnologías digitales, ¿Cómo soportamos realmente este nuevo paradigma?

La economía digital evoluciona a marchas forzadas. El número de dispositivos de campo que recogen y almacenan nuestros datos no deja de aumentar y, con él, sus prestaciones en cuanto a velocidad y precisión. En paralelo a esta evolución, está aumentando la capacidad de trasladar estos datos desde los dispositivos a los centros encargados de su procesamiento, interpretación y análisis. Probablemente, en unos años la imagen que acabo de describir será más futurista e incluirá nuevas capacidades y una mayor velocidad a la hora de gestionar la información en nuestros dispositivos. Si el objetivo, tanto de cara al usuario como a las empresas es recortar el tiempo de disponibilidad de los datos y agilizar su tratamiento, no cabe duda de que es preciso mejorar la latencia (la suma de retardos temporales dentro de una red).

“¿Qué hay detrás de la economía digital? ¿Cómo se alimenta todo este paradigma?”

La persecución de este objetivo nos está llevando desde hace algún tiempo a adoptar la filosofía del edge computing, basada en el tratamiento y computación de los datos en el contorno del sistema sin tener que utilizar o enviar los datos a los grandes nodos o datacenters para agilizar el tratamiento de la información, al acercarlos a los dispositivos finales (y reducir así la latencia). Hasta aquí, todo parece tener sentido y marchar sobre ruedas, sin embargo, ¿cómo alimentar a estos nuevos pequeños datacenters de la forma más adecuada, favoreciendo al mismo tiempo los objetivos de sostenibilidad?

En mi opinión, es lógico que los nuevos pequeños datacenters deben alimentarse fundamentalmente de energías renovables. A día de hoy, éstas resultan enormemente competitivas y no agotables. Su problema es básicamente que no están disponibles todo el tiempo, sino que dependen de condiciones variables, pero afortunadamente para esto existe una solución, que pasa como no podía ser menos, por las bondades de la tecnología.

Existen tecnologías, como UPS-as-a-reserve, diseñadas para servir a este innovador propósito y permiten aprovechar los SAIs (o UPS en inglés) para aportar energía limpia al datacenter; y esto no es todo. Me parece esencial recalcar que es posible hacerlo en dos direcciones gracias al firmware desarrollado por Eaton para sus SAIs; tanto hacia los consumidores como, y siempre y cuando la ley lo permita, de vuelta a la propia red. Este segundo paso puede llevarse a cabo bien través de agregadores o bien directamente hacia las utilities para cubrir tipos de demanda energética. Estas tecnologías sirven también en forma de software para predecir y gestionar la demanda, así como para mantener la frecuencia estable de la red.

Un ejemplo puede ser cuando de noche se pongan a cargar múltiples coches en una determinada área, y en un momento vaya a ser preciso cubrir esa demanda con más energía. Este tipo de soluciones facilitan el traspaso de energía desde la batería de litio a través del SAI hasta la red, y lo hacen de forma ágil y operativa.

“Los datacenter actuales deben aspirar a ser 100% sostenibles en su alimentación energética”

Respecto a todo lo anterior, resulta especialmente interesante destacar que el progreso alrededor de las tecnologías del datacenter ha posibilitado su transformación digital desde una primera capa puramente tecnológica, centrada en la eficiencia del datacenter como consumidor energético casi “pasivo”, pasando por la segunda capa de eficiencia de negocio, sobre entornos de TI “virtualizados”, hasta la actualidad donde el datacenter innovador es capaz de ‘mirarse’ desde el exterior en 360º y culminar la tercera capa de eficiencia económica; datacenter en términos de “activo” energético, es decir, con el foco en cómo de “sostenible” es su alimentación energética y la de su entorno, vía soluciones como xStorage y el Software Intelligent Power Manager de Eaton.

Creo que, inmersos como estamos en la economía digital, contar con una tecnología que nos permita gestionar el almacenamiento de energía va a resultar esencial para gestionar el flujo y el aprovechamiento de las renovables de la manera no solo más eficiente sino más económica posible. Y como no puede ser de otra manera, gracias a esta tecnología de Eaton, se completa el ciclo de la economía circular haciendo a este planeta merecedor de un futuro más sostenible, y contribuyendo al reciclado de las baterías de los parques de movilidad basados en vehículos eléctricos en favor del ciudadano. Definitivamente, hay mucho trabajo y muchos agentes involucrados en permitir que la imagen que describía al principio siga siendo una realidad que facilite ante todo nuestra vida, y conserve al mismo tiempo la de nuestro plantea, y todos tenemos que seguir trabajando hacia este objetivo.

 

Juan Antonio Revuelta es licenciado en Química por la Univ. Complutense de Madrid y Diplomado Superior en Dirección Comercial y Admin. De Empresas por la Cámara de Comercio e Industria de Madrid. En sus 22 años de carrera ha formado parte de varias multinacionales especialistas en la gestión de la Energía y las Telecomunicaciones. Actualmente ocupa el cargo de Data Center Senior Executive Sales Reps. & Business Development en Eaton EMEA.

 

 

 

Continuar leyendo

Opinión

Cómo se fraguó Alexa, la Inteligencia Artificial de Amazon

Publicado el

En 2014, Srikanth Thirumalai se reunió con el CEO de Amazon, Jeff Bezos. Thirumalai, un informático que había dejado a IBM en 2005 para dirigir un equipo de Amazon, había llegado a proponer un nuevo plan para incorporar los últimos avances en Inteligencia Artificial en su división.

Llegó armado con un extenso documento explicativo, aunque Bezos había decretado hacía mucho tiempo que las propuestas de nuevos productos y servicios debían limitarse a un brevísimo papel explicativo. Sin embargo, lo que vio Bezos en el informe de Srikanth Thirumalai podía colocar a Amazon en la vanguardia de la Inteligencia Artificial.

Recomendaciones de productos de Amazon habían sido imbuidas de AI desde los primeros días de la empresa, pero en los últimos años ha habido una fuerte revolución y el Machine Learning se ha convertido en mucho más eficaz, especialmente en una forma sobrealimentada conocida como aprendizaje profundo. Ha llevado a aumentos fuertes en visión por computador, del habla y procesamiento del lenguaje natural.

En la primera parte de esta década, Amazon tenía todavía tiempo para aprovechar estos avances, pero Bezos reconoció que la necesidad de correr era urgente. La competencia más importante de esta época en AI eran Google, Facebook, Apple y Microsoft…. y Amazon fue quedando atrás.

¿Cómo imbuir de IA cada área de la empresa?

Thirumalai se lo tomó a pecho y ofreció a Bezos (para su reunión anual de planificación) ideas sobre cómo ser más agresivo en el Machine Learning. Pero Bezos quería más. El problema era que sus deseos requerían habilidades que su equipo no poseía, herramientas que no habían sido creadas y algoritmos que nadie había pensado todavía. Thirumalai rompió su papel y se puso a trabajar como vicepresidente de búsquedas de Amazon, convirtiéndose en uno de los líderes de la tarea de revisión de software con el Machine Learning más avanzado.

Thirumalai fue solo uno de una procesión de líderes de la compañía que proponían productos totalmente diferentes para muchos grupos de clientes. Pero esencialmente cada uno imaginó una variación del enfoque de Thirumalai: transformación de parte de Amazon con avanzado Machine Learning. Esto implicó repensar proyectos en curso, como los esfuerzos de robótica de la empresa y su negocio de grandes centros de datos, así como de Amazon Web Services (AWS).

Los resultados han tenido un impacto mucho más allá de lo esperado por Bezos. Thirumalai dice que las unidades de negocio de la empresa, en 2014, eran islas de AI en un vasto océano de ingeniería. El empuje para reformar la empresa con el Machine Learning cambió eso… radicalmente. Las unidades de negocio empezaron a trabajar juntas compartiendo la IA, al tiempo que Bezos insistía en que la cultura de la empresa exigía que las innovaciones se enmarcaran únicamente en el contexto de servir a sus clientes.

Amazon tiene una muy potente AI, procedente de Machine Learning. Los resultados de esta transformación pueden verse en toda la empresa, incluyendo un sistema de recomendaciones de productos que ahora funciona en una infraestructura de Machine Learning totalmente nueva. Amazon es más inteligente en lo que sugiere lo que debe leer el usuario a continuación, lo que se debería agregar a su compra, los artículos de la lista, y qué película usted puede ver esta noche. Y este año, Thirumalai comenzó un nuevo trabajo en el negocio de búsqueda de Amazon, donde él se prepone utilizar Machine Learning profundo en cada aspecto del servicio al cliente.

El efecto de Alexa

El producto estrella de empuje de Amazon es su altavoz elegante disidente, el eco y la plataforma de voz de Alexa que lo alimenta. Estos proyectos también surgieron de un memo entregado a Bezos en 2011 para un proceso de planificación anual llamado un “Plan Operativo”. El objetivo era crear “Un ordenador ubicuo de bajo coste, con todos sus cerebros en la nube, con el que se puede interactuar mediante voz “.

Pero ese sistema de construcción — literalmente un intento de realizar una obra de ciencia ficción, el ordenador hablador de Star Trek — requiere un nivel de destreza de la Inteligencia Artificial que la empresa no tenía a mano en el año 2011. Peor aún, de los pocos expertos que podrían construir un sistema, ninguno quería trabajar para Amazon, sino para Google y Facebook.

Amazon tenía un poco de una mala imagen, no agradable a las personas que provenían investigación orientada. Una empresa implacable con enfoque en el cliente y su cultura de dureza en el trato a los empleados, lo que daba cómodas ventajas a los competidores.

A falta de talento dentro, la compañía utilizó su músculo financiero para comprar empresas con experiencia en IA. “En los primeros días de Alexa, compramos muchas empresas”, dice Bezos. En septiembre de 2011 acapararían Yap, una empresa de voz a texto con experiencia en la traducción de la palabra hablada en lengua escrita. En enero de 2012, Amazon compró Evi, Cambridge, compañía cuyo software podría responder a las solicitudes habladas como Siri. Y en enero de 2013, hizo lo propio con Ivona, una empresa polaca especializada en texto a voz, que proporciona la tecnología que permitió a Echo hablar.

También atrajo el mejor talento, como Alex Smola, una superestrella en el campo de la IA que había trabajado en Yahoo y Google.”Literalmente es uno de los padrinos del aprendizaje profundo“, dice Bezos.

La parte más delicada del Eco: el problema que obligó a Amazon para abrir nuevos caminos en el proceso de su Machine Learning de jugar para ganar era algo que se llama ahora “reconocimiento de voz de campo”. Se trata de interpretar comandos de voz hablados a cierta distancia de los micrófonos, incluso cuando están contaminadas con ruido.

Un factor difícil era que el dispositivo no podía perder tiempo meditando sobre lo que había dicho. Había que enviar el audio a la nube y producir una respuesta con la suficiente rapidez para que pareciera una conversación y no como esos momentos difíciles cuando no estás seguro si todavía está respirando la persona con la que estás hablando. Construir un sistema de aprendizaje automático que pueda entender y responder a las preguntas en conversaciones en condiciones ruidosas requiere enormes cantidades de datos y tendría un montón de ejemplos de los tipos de personas las interacciones con sus ecos. No era evidente que Amazon podría obtener estos datos.

Varios dispositivos de Amazon y productos de terceros ahora utilizan el servicio de voz de Alexa. Datos recogidos a través de ella ayudan a mejorar el sistema y carga de esfuerzos más amplios de AI. La buena noticia es que todas las piezas estaban allí, en Amazon, un servicio en la nube sin precedentes, los centros de datos cargados con Machine Learning y nuevos algoritmos.

Las ramificaciones de Alexa

Equipos a través de la empresa comenzaron a darse cuenta de que Alexa también podría ser un servicio de voz útil para sus proyectos. “Así que todo lo que los datos y la tecnología aportan, vienen juntos, a pesar de son muy grandes sobre la propiedad de subproceso único“, añade Bezos. Otros productos de Amazon comenzaron a integrar Alexa: “Cuando usted habla en su dispositivo de Alexa, se puede acceder a música de Amazon, Prime Video, tus recomendaciones personales desde el sitio web de compras y otros servicios“. A continuación, la tecnología comenzó a saltos a través de otros dominios de Amazon.”Una vez que tuvimos la capacidad de discurso fundacional, hemos sido capaces de traer a Alexa productos como TV Fire, voz comercial, Amazon Fresh y, en última instancia, AWS”, dice Bezos.

Bezos fue de los primeros en darse cuenta de las implicaciones de negocio de integración de Inteligencia Artificial en servicios en la nube de la compañía. El plan era agregar servicios de machine learning a AWS.

En cierto sentido, la oferta de máquina de aprendizaje a las decenas de miles de clientes de Amazon cloud era inevitable. “Cuando primero armamos el plan de negocio original para AWS, la misión era llevar la tecnología que estaba sólo al alcance de un pequeño número de organizaciones bien financiadas y se distribuye tan ampliamente como sea posible“, dice Wood, el gestor de machine learning y AWS. Amazon Machine Learning de AWS, primero ofrecido en el año 2015, permite a los clientes como C-Span configurar un catálogo privado de caras; Zillow lo utiliza para estimar el precio de la vivienda. Pinterest lo emplea para la búsqueda visual y varias startups de conducción autónoma están utilizando Machine Learning AWS aprendiendo a mejorar productos a través de millones de kilómetros de la prueba de carretera simulada.

En 2016, la nueva Machine Learning-AWS había lanzado servicios que más directamente se basaban en las innovaciones de Alexa: un componente de texto a voz se llama Polly y un motor de procesamiento de lenguaje natural llamado Lex. Estas ofertas permiten a los clientes, que van desde gigantes como Pinterest y Netflix hasta pequeñas empresas, construir su propio mini Alexa.

Estos servicios de aprendizaje automático son un generador de ingresos de gran alcance y clave para la AI de Amazon, con clientes tan dispares como la NASA y la NFL que están pagando miles de millones para conseguir el Machine Learning de Amazon.

El papel dominante de AWS en el éter también le da una ventaja estratégica sobre los competidores, en particular sobre Google, que había esperado utilizar su liderazgo en Machine Learning para arrasar a AWS en cloud computing. Hasta ahora, Amazon-AWS-Alexa está ganando la batalla. No solo en distribución, sino en todos los ámbitos. Con más datos. Con más clientes. Con más plataformas. Con más talento.

Tipo listo, Bezos. Aunque inspira mucho respeto.

jorgeJorge Díaz-Cardiel. Socio director general de Advice Strategic Consultants. Economista, Sociólogo, Abogado, Historiador, Filósofo y Periodista. Autor de más de mil de artículos de economía y relaciones internacionales, ha publicado una veintena de libros.

 

Continuar leyendo

Opinión

Crónicas desde EE.UU.: la Inteligencia Artificial de Google

Publicado el

Google IO 2018

El 8 de mayo, Google inició su conferencia anual de desarrolladores con una extensa presentación de Sundar Pichai, CEO de Google, presentando una serie de nuevas características impulsadas por Inteligencia Artificial (IA) para su próxima actualización de Android P, al tiempo que se posicionó como una compañía comprometida con el bienestar de los consumidores.

Creo que Google deslumbró a los 7.000 asistentes a su conferencia anual en el Shoreline Amphitheatre, en Mountain View (California), al mostrar la tecnología disponible para desarrollar dispositivos con Inteligencia Artificial.

Sintetizadores y mecanismos para dibujar con esas nuevas tecnologías fueron algunas de las exhibiciones en el congreso. Las muestras fueron solo el preámbulo de la presentación de Sundar Pichai, que seguirá revelando nuevos planes sobre el desarrollo de la Inteligencia Artificial.

Unos de los posibles anuncios es que el asistente computerizado de Google, llamado Google Assistant, ahora podrá tener nuevas funciones como hacer reservas para un restaurante, sin intervención humana.

Google anunció mejoras de su sistema operativo Android para teléfonos inteligentes, también en su programa Google Maps con IA, y avances en la tecnología de realidad aumentada que superpone imágenes digitales sobre imágenes del mundo real.

Lo que Google ansía es que “su asistente computerizado se vuelva tan imprescindible, que la gente no pueda vivir sin él”, dijo Sunchai, de tal manera que los consumidores tendrán que ver la publicidad adherida (de la cual muchos huimos, hoy). También destacó los beneficios sociales de la IA y formas en que esa nueva tecnología digital puede mejorar la atención médica, preservar el medio ambiente y promover descubrimientos científicos.

Pichai no profundizó en la protección de la privacidad, tema que ha colocado en situaciones complicadas a otras compañías tecnológicas como Facebook y Twitter, “protagonistas” de las elecciones presidenciales de 2016 en Estados Unidos, a favor de Donald Trump gracias a la implicación de la llamada trama rusa, que supuestamente colocó en esas redes sociales cientos de miles de anuncios a favor del candidato republicano. En cambio, Google ofreció a los padres nuevas herramientas para supervisar los contenidos que sus hijos están viendo en la red y evitar serios problemas como el cyber-bullying, el acoso sexual, etc.

Nueva app para noticias que combina funciones de Google Play Newsstand con YouTube

Aún es demasiado pronto para que Google lance al mercado algún producto nuevo, aunque piensa hacerlo antes de la campaña de Navidad, cuando más se vende en el año. Sí anunció que Lenovo venderá audífonos para realidad virtual por 400 dólares que pueden funcionar sin necesidad de un smartphone. (Facebook anunció la semana pasada un producto parecido a mitad de precio -199 dólares-, con la marca Oculus Go…)

También, Google aumentó las funciones de sus relojes digitales alimentados por el software Wear OS. Por ejemplo, el dispositivo puede decirle a la persona lo que tiene en el calendario mediante los audífonos, sin que el usuario tenga que leer lo que está escrito.

Android P usa IA para ofrecer funciones que incluyen Adaptive Battery, Adaptive Brightness y App Actions, que hacen un seguimiento del comportamiento del usuario mediante el aprendizaje automático (machine learning, del que ya hemos hablado en MuyComputerPro en varias ocasiones). Adaptive Battery asigna automáticamente energía a las aplicaciones y servicios más utilizados, mientras que App Actions intenta ahorrar tiempo a los usuarios al ofrecer opciones basadas en lo que creen que los usuarios querrán hacer a continuación.

Por ejemplo, las App Actions pueden ofrecer una aplicación de ejercicio físico alrededor del tiempo que un usuario normalmente hace ejercicio, o sugerir una aplicación de música, si los auriculares están enchufados.

Las App Actions también incorporarán opciones de Slices, accesos directos a la funcionalidad de la aplicación clave. Google ahora permite a los desarrolladores integrarse en la interfaz de usuario más amplia de Android P. Estos accesos directos permitirán, por ejemplo, que un usuario coja un taxi a través de la función de búsqueda o use el asistente sin tener que abrir su aplicación.

Menos usos del teléfono

Pero, en lugar de tratar de atraer a los usuarios con estas nuevas características, Google insistió en que realmente está tratando de ayudar a los usuarios a pasar menos tiempo usando sus teléfonos.

Para demostrarlo, la compañía incluyó en la presentación una serie de características de “bienestar digital” en la actualización, incluido un panel que permite a los usuarios ver un desglose de cuánto tiempo pasan en diferentes aplicaciones.

Android P también permitirá a los usuarios configurar App Timers, que designan límites de uso para las aplicaciones y recordarles a los usuarios cuando se acaba el tiempo fijado como límite, e incluye un nuevo modo Wind Down que cambia la pantalla a escala de grises antes de acostarse para animar a los usuarios a desconectarse.

“El tema común en todo esto es que estamos trabajando duro para darles a los usuarios tiempo propio de calidad, sin tener por qué usar el smartphone”, afirmó en la conferencia el CEO de Google, Sundar Pichai: “Sabemos que las personas se sienten atadas -adictas- a sus dispositivos … creemos que, realmente, podemos ayudar a los usuarios a mejorar su bienestar digital. Este va a ser un esfuerzo continuo presente en todos nuestros productos y plataformas”, concluyó.

Actualmente, Android P está disponible en versión beta en Google Pixel, Sony Xperia XZ2, Xiaomi Mi Mix 2S, Nokia 7 Plus, Oppo R15 Pro, Vivo X21, OnePlus 6 y Essential PH-1.

El Asistente Personal de Google también recibió un impulso de IA, diseñado para ayudarlo a interactuar, usando una forma de hablar más natural con seis nuevas voces.

Conversaciones Continuas

Las actualizaciones incluyen la llamada capacidad de Conversaciones Continuas que usa claves de contexto para permitir a los usuarios hablar continuamente con el Asistente sin tener que repetir la frase “Hola Google”, y una función de Acciones Múltiples para ayudar al Asistente a atender múltiples solicitudes dentro de una sola frase.

Sunchair dijo que también está trabajando en una nueva capacidad de conversación llamada Google Duplex, que permitirá a los asistentes llamar a las empresas en nombre de los usuarios para que se encarguen de tareas como citas para “cortarse el pelo y reservas en restaurantes”. Estas llamadas se realizan en segundo plano sin la supervisión del usuario después de que se realiza una solicitud al Asistente de Google.

En una demostración de esta tecnología, Duplex usó una voz humana realista y no se identificó como un no-ser-humano para los otros participantes en la llamada. Tanto realismo generó preocupaciones éticas por parte de los analistas presentes en el evento. Personalmente, me acordé de los “Replicantes” de la película Blade Runner.

Sundar Pichai quiso despejar esas dudas y dijo que la transparencia será clave para hacer que el servicio tenga éxito: “Queremos ser claros sobre el propósito de la convocatoria para que las empresas entiendan el contexto. Vamos a ejercitarnos con el enfoque correcto en los próximos meses “. A mí me pareció una explicación un tanto enrevesada, pero me fui de la conferencia de Google en el Shoreline Amphitheatre de Mountain View con la idea clara de que Sundar Pichai, prometió tres cosas mediante la inteligencia artificial: proteger la privacidad, mejorar la vida de las personas y beneficios sociales para los consumidores.

Ahora, como dicen los refranes españoles, Google habrá de pasar “del dicho al hecho”, porque no “es lo mismo predicar que dar trigo”, ya que “obras son amores y no buenas razones”…

jorge diaz cardiel

 

 

Jorge Díaz-Cardiel. Socio director general de Advice Strategic Consultants. Economista, Sociólogo, Abogado, Historiador, Filósofo y Periodista. Autor de más de mil de artículos de economía y relaciones internacionales, ha publicado una veintena de libros.

Continuar leyendo

Lo más leído

Suscríbete gratis a MCPRO

La mejor información sobre tecnología para profesionales IT en su correo electrónico cada semana. Recibe gratis nuestra newsletter con actualidad, especiales, la opinión de los mejores expertos y mucho más.

¡Suscripción completada con éxito!