Conecta con nosotros

A Fondo

Método Foren: el tándem perfecto entre RV, Machine Learning y medicina

Publicado el
Foren

Cuando Charo Ortín, doctora especializada en rehabilitación neurológica, apostó por aplicar Realidad Virtual (RV) a las técnicas de recuperación de sus pacientes, esta herramienta aún andaba “en pañales”. Aunque solo haga dos años de aquello, las previsiones de negocio de esta tecnología han subido como la espuma, estimándose que se han movido 6.000 millones de euros a nivel mundial, en 2017.

Ser pioneros en utilizar una tecnología demasiado joven, pertenecer a una startup sanitaria y la falta de financiación son los principales handicaps del denominado Método Foren. Por contra, su precursora, Charo Ortín (Madrid, 35 años) añade al proyecto ambición, ganas y mucha energía.

Desde la clínica Foren (Tres Cantos, Madrid) Ortín lleva años dedicándose a la rehabilitación neuronal de pacientes que han sufrido pérdidas de movimiento por diversas causas: ictus, enfermedades degenerativas, accidentes de tráfico…  Su obsesión desde el principio era encontrar una herramienta que les ayudara más en su progreso, que complementara la labor de los fisioterapeutas y los ejercicios convencionales. Fue en 2015 cuando conoció a la startup tecnológica, the vrain, con los que emprendería un camino que hoy les ha llevado a atesorar multitud de reconocimientos, nacionales e internacionales.

Charo Ortín

“Desde la clínica Foren estudiamos cómo se comporta el tejido nervioso y trabajamos para estimularlo, que crezca y se regenere de manera favorable. Sabemos que es un tejido que precisa de mucha intensidad en la repetición, si queremos que las neuronas vuelvan a crecer hacia un músculo en concreto, hay que conseguir que éste les demande cien veces cien”.

Aquí es donde se asienta la base médica que dará lugar al binomio científico-tecnológico que es el Método Foren y cuyo objetivo es “engañar al cerebro” y que el paciente “sea capaz de enviar cien veces cien esa orden de movimiento al músculo, es decir, que se den la mano la intención de orden del paciente con la respuesta muscular para que, repetido muchas veces, el tejido nervioso que subyace al músculo esquelético, crezca y el movimiento se automatice”.

En este trabajo, las gafas de RV son un instrumento más, “cuando un paciente viene, se le valora, se le diseña un plan de intervención y se ve si es candidato a usarlas o no. La tecnología hay que entenderla”. Es decir, que la Realidad Virtual aplicada a a la rehabilitación, por sí sola, no cura, sino que es una ayuda para mejorar. Utilizando las gafas, los usuarios se cansan menos, es más estimulante. “Los pacientes hacen muchas horas de rehabilitación: van a la piscina, hacen trabajo de suelo, pilates, etc… si solo haces gafas no te sirve para nada, igual que si solo haces pilates“, indica la doctora. “Lo que hace la Realidad Virtual es poner en el cerebro dañado ‘cosas’ que antes se habían borrado, estimulando ese crecimiento del tejido nervioso”.

Especializada en las denominadas “neuronas espejo“, Charo Ortín ha sabido aprovechar su característica principal: son visomotoras, es decir que se excitan igual cuando ven una acción que cuando las hacen. Esta es la base del trabajo médico que realizan en la clínica: “ver esa acción motora del modo que hemos patentado produce en el sistema nervioso del paciente una excitación neurológica que apoya el trabajo de recuperación de las motoneuronas dañadas”. 

En conclusión, el cerebro del paciente acaba creyendo que es él quien está en movimiento así que, con ayuda de unas descargas controladas en las piernas, el movimiento sale casi solo.

El hardware

Uno de los componentes más revolucionarios del Método Foren son las gafas de Realidad Virtual Samgung Gear VR, dispositivos cuya última versión fue presentada a mediados de 2016 y que se caracterizan por tener un campo de visión de 101 grados y la presencia de un conector de última generación USB Type C. Las Gear VR tienen un peso de 345 gramos en unas dimensiones de 207 x 122 x 98,5 mm, y cuentan con sensores de proximidad, acelerómetro y giroscopio.

Otro de los elementos del hardware es uno de los últimos y más potentes smartphones de Samsung, el modelo S8 plus, un móvil con diseño “todo pantalla” (Infinita) sin botones físicos en el frontal, diseño sin marcos con panel curvado “edge”, protección Corning Gorilla Plus y resolución nativa de 2.960 x 1.440 píxeles. Posee pantalla Super AMOLED con diagonal de 6,2 pulgadas de primera división, que es la primera del mercado con certificación MOBILE HDR PREMIUM otorgada por la UHD Alliance.

El software

Óscar Hormigos, fundador de the vrain, la empresa partner de Charo Ortín, nos cuenta que su equipo se ha encargado de la parte de la Realidad Virtual per se, es decir, de la imagen real que ven los pacientes al ponerse las gafas. Se basa en la técnica denominada estereoscopía, capaz de recoger información visual tridimensional, creando ilusión de profundidad.

“No se trata solo de un contenido 360 grados sino de un vídeo 360 esteroscópico, que genera una sensación mayor de inmersión y consigue uno de los objetivos: engañar mejor al cerebro. Es necesario que el cerebro de los pacientes piensen que lo que están viendo es totalmente real”.

Jesús, uno de los pacientes con los que hemos hablado, es usuario habitual de esta tecnología en su rehabilitación y nos indicó que efectivamente se producía una gran sincronización entre lo observado y lo realizado, y que él está convencido de que camina bien cuando utiliza las gafas.

Foren

El algoritmo

El elemento estrella del método Foren es el algoritmo tecnológico, que ya han patentado Charo Ortin y Pablo Espinosa y que, basado en técnicas de Machine Learning, tiene un enorme potencial de crecimiento. El desarrollo del mismo aún está dentro de la primera fase del proyecto, es decir, la recogida de datos de los usuarios de las gafas, clave a la hora de personalizar el tratamiento.

Dependiendo de variables como edad, peso, lesión, gravedad etc. de cada usuario, los impulsos que se mandan a los músculos son totalmente diferentes. Actualmente, estos impulsos son enviados “manualmente” y configurados por el fisioterapeuta a través de unos dispositivos de electroestimulación, parecidos a los mandos a distancia del que salen unos cables que se adhieren a los músculos del paciente para provocarle el movimiento.

El reto ahora es poder llevar a cabo la segunda parte del método que consistiría en convertir este proceso en algo automático. Aprovechando las herramientas de Machine Learning, conseguir que todo lo descrito anteriormente se haga de forma automática, que haya “una sincronización perfecta entre lo que el usuario ve con las gafas y la señal que se envía al músculo. Lo que hace el algoritmo es aprender de la base de datos que se ha creado a base de ser utilizado por muchos pacientes, de manera que, de forma autónoma y automática, se mande esa estimulación eléctrica y totalmente personalizada”. Ahora se hace manualmente.

Sin embargo, tanto Charo Ortín como the vrain se están encontrando con multitud de obstáculos para seguir avanzando. En primer lugar, la falta de financiación para seguir investigando, la eterna queja española del “quiero y no puedo” que tanto daño está haciendo al desarrollo del talento.

En segundo lugar, la burocracia que rodea a todo lo que tenga el sello medical device. “Cuando un proyecto adquiere esta categoría, tiene que pasar por una serie de certificaciones añadidas. Además, si se incurre en un riesgo para la salud, como es el hecho de utilizar estimulaciones eléctricas, te lo miran con lupa”, indicó Hormigos.

Según un informe de la Organización Mundial de la Salud (OMS), los trastornos neurológicos afectan en todo el mundo a unos mil millones de personas, dependiendo de la enfermedad se estaría hablando de entre el 8 y el 14% de la población mundial. “Si existiera un producto como el nuestro en el mercado, que se pudiera comercializar, tendría un impacto muy grande en la vida de las personas, porque ayudaría mucho en su rehabilitación”.

“La investigación de todo esto es muy costosa, tanto por la parte del personal como de los componentes tecnológicos. En estos momentos no podemos seguir nosotros solos, tenemos que avanzar con la investigación con ayuda“, pide Hormigos.




Periodista especializada en tecnologías corporate, encargada de las entrevistas en profundidad y los reportajes de investigación en MuyComputerPRO. En el ámbito del marketing digital, gestiono y ejecuto las campañas de leads generation y gestión de eventos.

Click para comentar

A Fondo

En busca de la energía eficiente o la energía inteligente

Publicado

el

Cada 21 de octubre, se celebra en todo el mundo el Día del Ahorro de Energía con un doble objetivo: por una parte, que la sociedad reflexione sobre su consumo energético y, por otra, que adopte una serie pequeños hábitos que redundarán en el bien del planeta. Como ocurre en otros sectores industriales, la tecnología se está convirtiendo en un gran aliado de la energía para lograr esa eficiencia que todos buscamos.

Ya vimos hace unos días en el evento sobre Smart Energy, organizado por Executive Forum, que la reducción de emisiones y una eficiencia energética productiva y sostenible son los pilares fundamentales sobre los que trabaja la evolución de las nuevas tecnologías adaptadas al consumo. Para conocer proyectos concretos y las funciones que realizan herramientas como el Big Data en este importantísimo brazo económico, escuchamos con atención las ponencias del responsable de Marketing y Desarrollo comercial de Endesa, José Carlos Fernández Rey, (al que pudimos entrevistar en exclusiva) y Pedro Tejedor, responsable de Desarrollo de Negocio para el área de Energy Predictive Analytics en el Instituto de Ingeniería del Conocimiento (IIC).

A todo esto hay que añadir el esfuerzo de la administración para adaptar la normativa a las nuevas reglas del juego del consumo energético, a nivel corporativo. A finales de 2016 expiraba el plazo de adaptación del Real Decreto 56/2016, por el que se transpone la Directiva 2012/27/UE relativa a la eficiencia energética, y cuyo objetivo es promover el establecimiento de un marco normativo que desarrolle e impulse actuaciones dirigidas a la mejora de la misma en las corporaciones, a la promoción del ahorro energético y a la reducción de las emisiones de gases de efecto invernadero.

Quedan claras cuáles son las prioridades que organismos y empresas han de aplicarse si quieren que las infraestructuras puedan dar abasto, de una forma sostenible, a las nuevas necesidades que van surgiendo en la sociedad. Al mismo tiempo que se imponen estas iniciativas, y según el II Informe del Comportamiento Energético de las Empresas Españolas de Endesa, es vital un cambio cultural respecto a la energía que promueva un nuevo modelo energético, basado en la generación energética sostenible y en un consumo más eficiente y responsable. No obstante, según estas fuentes, si bien el consumo energético de la Unión Europea en 2015 fue de 80,5 Mtoe, un 18% inferior al del 2005, el de 2015 ha aumentado respecto al año anterior.

¿Qué estamos haciendo mal?

El sector que ha sufrido un mayor incremento del consumo ha sido el de los servicios que, según el informe de Endesa, ha aumentado en un 45% su peso entre los años 2005 y 2015, seguido del sector residencial, que ha subido un 19%. Esto justificaría que las políticas energéticas actuales se focalizaran en estos dos sectores como prioritarios.

Según la compañía española, es necesario que las empresas cambien su comportamiento energético para lograr un desarrollo sostenible y competitivo. De hecho, este vector debería ser considerado un parámetro de competitividad en cualquier planteamiento estratégico, para ello Endesa ofrece tres ideas:

  • La energía económica y limpia es la base de todas las actividades empresariales.
  • Las estrategias se basan en el ahorro de consumo de combustibles fósiles y la reducción de la dependencia de importación de recursos.
  • La mejora energética se observa como beneficio económico y aumento de la competitividad.

endesaSi estos ingredientes se mezclan con soluciones tecnológicas como Big Data, al final el resultado es el de una potente y atractiva receta llamada Smart Energy. “Se trata del uso inteligente de la energía para hacer cosas útiles, ya sea no dejarte una bombilla encendida o canalizar bien la temperatura de una habitación. No se trata de reducir necesariamente la energía, sino usarla bien”, nos contó en exclusiva José Carlos Fernández Rey, responsable de Marketing & Commercial Development B2B / B2G en Enel X, de Endesa.

Al final, el objetivo de la compañía es que sus clientes pasen a ser algo diferente. “Que nos vean como un socio, como un partner que les ayuda a conseguir sus objetivos. Mostrar a nuestros clientes que su beneficio también es el nuestro y la relación comercial es ventajosa por ambas partes”.

¿Qué hace inteligente a la energía?

Sobre el papel, hacer un buen uso de la energía o un uso eficiente (que, al final, es sobre lo que gira el término smart) supone la combinación de varios factores, en la que intervienen tanto el consumidor como la suministradora. En primer lugar, el usuario debe saber cómo consume, dónde tiene que consumir y cuánto; en segundo, ha de usar tecnologías adecuadas, equipos eficientes, bien gestionados operados y regulados. “En tercer lugar, se debe tener una medición continúa de los usos y costumbres para saber, en caso de que haya algún problema (como un parámetro que se desconfigure o alguna necesidad de adaptación en el proceso productivo o en los hábitos), que se pueda gestionar o arreglar para evitar las fugas”, indicó Fernández Rey.

Por último, habría que darle continuidad a todo lo anterior. “La energía no es algo que cojo, lo miro, lo mido y lo dejo tal cual los próximos 20 años. Las tecnologías productivas se cambian cada año porque cada vez hay TI mejores y los propios procesos productivos de las empresas también evolucionan: las fábricas no siempre producen igual, el grado de ocupación de los hoteles no siempre es el mismo, como tampoco lo es la temperatura exterior. Todo se convierte en un ciclo virtual que hay que gestionar día a día. Esto diferencia a la transformación en smart energy y no solo en pagar facturas”.

Todos los pasos anteriores pueden aplicarse tanto al consumo personal como a la de las empresas; no obstante, el concepto smart está más bien ligado al cómo y no al quién. Aunque los datos a nivel europeo arrojan un despunte en el gasto el año pasado, a nivel local, Fernández Rey cree que también existe un amplio grado de mejora en la empresa española, ya que estas han ido implantando medidas de eficiencia, aunque no en el grado en el que debieran. “Lo que sí se ve es que cada vez estamos más concienciados y hay pequeños grados de avance en el comportamiento y en las medidas implantadas. Vamos por el buen camino pero no a la velocidad adecuada”.

Energía as a service

No es lo mismo energía que energía inteligente. Habría que diferenciar, por tanto, entre una máquina que produzca electricidad a una gestión eficiente de esa electricidad. Intervienen tecnologías distintas, ambas necesarias, pero tan diferentes como la noche y el día. Más allá de los aparatos que nos permiten disfrutar de gas, luz o agua, lo que los hace ser inteligentes son los datos (el Big Data) y, por extensión, en Internet de las Cosas.

Estas dos tendencias son las que están revolucionando este sector tan potente en nuestras vidas y en nuestra economía, tanto que, compañías como Endesa están centrando muchos de sus servicios en mejorar algo tan poco relacionado con el producto final como es la gestión de los procesos internos de las empresas.Analizamos cómo te estás comportando, identificando dónde eres mejorable. Vemos a muchas empresas, conocemos los procesos, proponemos las mejoras y ayudamos a su implantación, haciendo seguimiento“, nos contó Fernández Rey, acuñando un nuevo concepto que nos suena ligeramente familiar: energía as a service.

Al final todo esto genera información, como indicó durante su intervención Pedro Tejedor, del IIC. “En los últimos dos años se han producido más datos que en toda la historia de la humanidad, cada segundo producimos millones de ellos“. Y su gestión nos puede ayudar a convertir la realidad, o en este caso la energía, en algo distinto.

Porque es el valor de esos datos lo que va a hacer cambiar las cosas, “podemos tener muchos datos y muy variados, pero la mayoría de ellos no sirven para nada sin sacarles el valor”, indicó Tejedor. Pero, ¿cómo encontrar ese valor para el negocio o para la vida? Existen una serie de pasos que comienzan con entender el problema, pasando por hablar con los expertos, encontrar qué fuentes de datos hay, construir los algoritmos que van a extraer ese valor y, por último, implantarlo en el negocio. “A lo largo de los años hemos visto que esta metodología es simple pero funciona muy bien”.

Tipos de analítica y su aplicación al campo energético

El negocio energético, como cualquier otro, necesita poder anticiparse a lo que va a pasar para rentabilizar sus recursos y dar un servicio óptimo. Esta especie de “bola de cristal” la encuentran en la analítica predictiva, paso previo a la hora de tomar la decisión correcta (o lo que es lo mismo, aplicación de otro tipo de analítica, la prescriptiva). No hay que olvidar que se trata de operaciones donde las empresas se juegan muchísimo dinero en cada paso. Por ello, es necesario utilizar un tercer tipo de analítica, la descriptiva de la realidad del mercado en el que se mueven.

Según un informe de Gartner, la descriptiva es la analítica que más se hace actualmente a nivel mundial (no obstante, fue la primera en aparecer), mientras que la predictiva está creciendo aunque “es la más difícil de hacer“. Esta labor es tan importante porque las energéticas pueden predecir y optimizar su producción, detectar más fraude, conseguir un mejor funcionamiento de las máquinas, reducir del precio de las averías y, sobre todo, adaptar la generación de energía a las necesidades de la demanda.

Sin embargo, como ocurre en muchos otros sectores, el talón de Aquiles del desarrollo de negocio es la falta de talento. El energético es especialmente deficitario en científico de datos, según Tejedor: “esto significa que estamos en un entorno al que todavía le falta mucho por avanzar en la extracción del valor de los datos. Los que conocemos el negocio de las eléctricas sabemos que se lo piensan todo mucho, tienen gran cuidado a la hora de tomar decisiones en su negocio porque está muy asentado, pero que, cuando cogen carrerilla, corren mucho“.

energia eolica

Proyectos a desarrollar usando Big Data

1 – Renovables

Una de las principales áreas energéticas que se ven especialmente beneficiadas con el Big Data es el de las renovables. “No podemos controlar el viento, que sople o deje de soplar, pero podemos predecirlo. Llevamos ya muchos años intentando saber cuál será la producción eólica y hemos conseguido llegar a unos niveles de afinamiento tales que ahora esta energía ha conseguido entrar en los mercados de ajuste, es decir, que tenemos una visión muy fina de lo que va a pasar en las próximas horas”.

A través de sistemas automáticos de predicciones de producción se miden y cruzan datos de los molinos de vientos, generando unas conclusiones que son utilizadas por los agentes de las renovables para poder ir al mercado y vender su producto; además, es lo que necesitan compañías como REE para poder hacer su tasación.

Otra opción es cruzar los datos anteriores con las predicciones de otras empresas, generando lo que se denomina “una combinación de agentes”, consiguiendo una precisión mayor para que la energía eólica sea “lo más beneficiosa posible para todos“.

2 – Detección de fraude

Hasta ahora, para localizar las irregularidades, las energéticas se ayudaban del cruce de diferentes variables numéricas para dirigir campañas de inspección a diferentes sectores. “Con el nivel de fraude que hay hoy en día, este sistema se antoja carísimo e inabordable, además el resultado en cuanto a detección de fraude deja mucho que desear“, indicó Tejedor.

Por eso, es necesario un sistema más eficaz, para “dar más en la diana“, a través del juego de varias analíticas.

3 – Predicción de la demanda

Como hemos visto antes, los datos nos pueden dar predicciones aproximadas sobre lo que va a pasar, algo muy útil para hacer una producción eficiente de la energía. En el corto plazo, esto puede ayudar a hacer una tasación ajustada a la oferta y la demanda, sabiendo de antemano cómo se va a balancear el mercado. “A día de hoy, nos movemos entre una tarifa de tiempo de uso y una tarifa horaria. Para las empresas puede ser muy útil tener una visión horaria en el tiempo de lo que va a pasar“.

A largo plazo, también se obtienen beneficios, ya que las compañías de generación y distribución de energía necesitan saber qué va a pasar para construir una red que nos dé servicio a todos. “Para lograr esto hay que trabajar mucho, ya que cada vez se usa más electricidad y, en algunos puntos, nuestra red está llegando a la saturación“.

4 – El vehículo eléctrico

Ante la más que probable popularización del coche eléctrico a medio plazo, las energéticas tienen que estar preparadas para un aumento de la demanda de suministros. Aunque algunas ya están probando con diferentes tarifas, lo cierto es que aún no saben cómo gestionar esa electricidad. “Hay que prever con antelación cuánto se va a consumir, qué demanda va ha haber para evitar la saturación de la red”.

Al final, y frente a los beneficios de este nuevo medio de transporte, la infraestructura se va a ver afectada “gravemente“, necesitando unos mecanismos de precisión muy certeros para que esto funcione y no haya problemas.

5 – La evolución del IoT

El Internet de las Cosas, además de conectar objetos, es una gran fuente de recopilación de información, algo que no pueden pasar por alto las empresas energéticas ya que, gracias a ellos, de nuevo, se va a conseguir “un control más exhaustivo sobre el consumo y la producción”.

El uso de beacons, drones, etc.. está entrando por la puerta grande en empresas de todos los tamaños porque marca el camino para la eficiencia energética.

Conclusiones

El peso que la energía tiene en la economía de cualquier país, ya que es un pilar básico tanto en el hogar como en la industria, la hacen especialmente interesante para aplicar soluciones tecnológicas que la hagan más eficiente. Bajo el paraguas del concepto Smart, empresas y consumidores deben caminar juntos en aras de equilibrar oferta y demanda, lo que redundará en beneficios para todos: disfrutar más de la energía, evitar la sobrecarga de la red y reducir costes innecesarios.

El Big Data y la analítica, apoyados por hardware como los sensores de IoT  y los drones, son factores claves para lograr una energía más inteligente, ya que son capaces de predecir cuándo, dónde y cuánta se va a necesitar, permitiendo el desarrollo de energías más limpias, como las renovables y haciendo frente, sin problemas, a desafíos como el que planteará, dentro de muy poco, el uso masivo del coche eléctrico.

 




Continuar leyendo

A Fondo

Microsoft reorganiza su dirección, incluyendo la salida de Terry Myerson

Publicado

el

Satya Nadella ha anunciado una nueva reorganización de la dirección de Microsoft. Y no es ordinaria porque va a conllevar grandes cambios en el ejecutivo incluyendo la salida de Terry Myerson, actual vicepresidente y responsable del Windows and Devices Group (WDG).

Terry Myerson saldrá de Microsoft dentro de unos meses después de 21 años de servicios. Se unió a la compañía en 1997 cuando el gigante del software adquirió su compañía Interse y ha pasado por múltiples departamentos, desde la dirección del grupo de Windows y dispositivos o anteriormente liderando los equipos de ingeniería y software detrás de Microsoft Exchange. Como cualquier ejecutivo, deja un legado de luces y sombras, con aciertos en la apuesta del grupo Surface y desastres como el de Windows Phone que también dirigió.

dirección de Microsoft

La salida de Myerson es lo más noticiable de los cambios en la dirección de Microsoft, pero no lo más importante. Si hasta hace unos años Microsoft era una compañía que ponía casi todos sus huevos en la cesta de Windows, la nueva reorganización deja claro que eso ya no existe. De hecho, el grupo de Windows y Dispositivos desaparece a favor de dos grupos de ingeniería de nueva creación y el movimiento de algunos de sus componentes a otros departamentos.

El principal será una nueva unidad denominada “Experiences & Devices” que será liderada por el vicepresidente ejecutivo Rajesh Jha, actual responsable de productos de Microsoft Office que expande responsabilidades y se convierte en nuevo ‘hombre fuerte’ en Microsoft. Otros componentes se moverán al nuevo grupo de “Cloud + AI” dirigido por Scott Guthrie, mientras que las tecnologías de Realidad Mixta de HoloLens se trasladan a otro nuevo grupo denominado “AI Perception and Mixed Reality Services“, dirigido por Alex Kipman.

Todos ellos reportarán a Rajesh Jha, al igual que Panos Panay, que seguirá liderando Surface con un nuevo cargo de jefe de producto; Joe Belfiore al frente de experiencias de Windows; Brad Anderson, responsable de Enterprise Mobility and Management y Jason Zander que será promovido a vicepresidente ejecutivo de Azure.

En el anuncio, Nadella dice que los movimientos son parte del objetivo de Microsoft de centrarse en el nuevo grito de guerra de la compañía, “la nube inteligente”. Todo apunta que los usuarios finales de OneDrive y los empresariales como Intune, serán fundamentales para monetizar Windows en el futuro, y podemos esperar un mayor desarrollo y promoción de paquetes como Microsoft 365, que combina Office 365 con Windows 10 y administración móvil.

No se esperan despidos como parte de la reorganización. Myerson no se irá de inmediato, sino que seguirá unos meses para realizar la transición junto a Satya Nadella. La estructura de informes utilizada en las finanzas tampoco cambiará. Se espera que Microsoft explique estos cambios al detalle la próxima semana en su sesión de “Preguntas y Respuestas”. Te dejamos con un resumen del organigrama.

Dirección de Microsoft tras la reorganización

  • Terry Myerson, sale de la compañía dentro de unos meses.
  • Rajesh Jha, EVP de MS Office liderará el gran grupo de Experiences & Devices.
  • Scott Guthrie liderará la plataforma Cloud + AI.
  • Jason Zander será nuevo EVP de Azure.
  • Panos Panay será el nuevo Chief Product Officer, responsable del hardware de Microsoft.
  • Joe Belfiore liderará el equipo de Windows Experiences.
  • Kudo Tsunoda sigue al frente del grupo de New Experiences and Technology.
  • Brad Anderson continua dirigiendo los esfuerzos en Enterprise Mobility and Management.
  • Alex Kipman liderará el equipo AI Perception & Mixed Reality (MR).
  • Eric Boyd estará al frente del grupo AI Cognitive Services & Platform.
  • Harry Shum continua en el equipo AI + Research.
  • Harry and Brad Smith siguen en el comité Microsoft’s AI and Ethics in Engineering and Research (AETHER).

Más información | Anuncios de Nadella y Myerson




Continuar leyendo

A Fondo

Lenovo Thinkpad A475, análisis

Publicado

el

Hace muchos años que la serie Thinkpad es sinónimo de soluciones profesionales pero, hasta ahora, no habíamos tenido la oportunidad de probar uno basado en arquitectura AMD. El Lenovo Thinkpad A475 se presenta como un equipo muy equilibrado y apuesta una excelente relación entre rendimiento, precio y prestaciones; lo hemos probado durante unas semanas y estas son nuestras impresiones.

Cuando pensamos en comprar un nuevo portátil una de las grandes decisiones a tomar es la diagonal de la pantalla que, normalmente, determina el peso y las dimensiones del equipo. Una pantalla de 15,6, por ejemplo, nos permite trabajar de forma muy cómoda sentados en un escritorio pero supone un incordio a la hora de trasportarla. Optar por un 13″ o inferior nos garantiza máxima portabilidad, pero a cambio se hace casi obligatorio disponer de un monitor externo para trabajar durante más de un par de horas.

Lenovo opta por una decisión poco convencional en este caso y monta un panel de 14 pulgadas, que ofrece una resolución de 1.366 x 768 píxeles. La pantalla, con tecnología TN, tiene acabado en mate y ofrece un buen equilibrio entre comodidad, tamaño y consumo de energía muy interesante para el público objetivo al que va dirigido.

Construido en plástico y fibra de vidrio, este Lenovo Thinkpad A475 es robusto y resistente, perfecto para llevarlo durante toda la jornada sin grandes preocupaciones. Está certificado para trabajar en temperaturas extremas (hasta -20 ºC) y puede resistir salpicaduras en el teclado o polvo; en definitiva, un equipo práctico y pensado para trabajar.

Aunque no es uno de los ordenadores más atractivos que hemos visto, sí mantiene el espíritu de los Thinkpad originales incluyendo el trackpoint y un teclado de generoso tamaño lo suficientemente cómodo para usarlo durante horas. En su parte derecha integra un discreto lector de huellas digitales que añade una capa de seguridad biométrica al uso del ordenador, mucho más segura que cualquier contraseña.

En su interior, la APU AMD PRO A-12 9800 (cuatro núcleos, 2,7 GHz) junto a 8 Gbytes de RAM y una SSD de 256 Gbytes de capacidad ofrecen una plataforma ideal para Windows 10 y cualquier aplicación empresarial. El equipo es muy rápido (al nivel de cualquier portátil de gama alta que ronde los 1.500 euros) y se desenvuelve con gran fluidez en cualquier escenario, incluyendo la multitarea intensiva.

De nuestra sesión de pruebas con herramientas de benchmark destacamos los 2,502 puntos obtenidos en PCMark10, una de nuestras preferidas a la hora de evaluar el rendimiento general de un equipo y que lo situa en la línea de propuestas basadas en Intel Core i5 7200U.

De los gráficos se encarga la solución integrada AMD Radeon R7, que no destaca por su rendimiento (inferior a las nuevas generaciones de Intel y a cualquier dedicada de NVIDIA, obviamente) pero sí guarda un buen equilibrio entre potencia, consumo y generación de calor. Así, ofrece potencia más que suficiente para la mayoría de aplicaciones, reproducción de contenido multimedia y codificación, que deberían ser los usos de una propuesta como esta.

Mención especial para la excelente unidad SSD firmada por Samsung y con conexión SSD. Hemos medido hasta 1,364 MB/s en lectura y 993 MB/s en escritura secuencial, ofreciendo un rendimiento fantástico que redunda en la agilidad general que muestra el equipo en uso real.

Autonomía y calor, derribando viejos mitos

Los portátiles AMD no suelen tener buena fama en términos de autonomía, calor y ruido. Tradicionalmente, sus APUs necesitaban sistemas de disipación y refrigeración de gran potencia, que consumían mucha energía y provocaban un calor excesivo en determinadas zonas del equipo, ruidos y posibilidad de fallos mecánicos.

Los tiempos han cambiado mucho y no hemos visto nada de eso en este equipo: en un escenario normal el chipset no pasa de los 40 grados e, incluso cuando lo llevamos al máximo con pruebas de estrés se queda en 57 como máximo, valores muy razonables que, en la práctica, implican que en ventilador solo se pone en marcha en contadas ocasiones.

De serie, Lenovo entrega el equipo con una batería de 23 Wh que, opcionalmente, podemos ampliar a 71 Wh con una segunda batería externa que se puede intercambiar en caliente, sin necesidad de apagar el equipo. En nuestras pruebas alcanzamos las 4 horas de uso intensivo y hasta nueve manteniendo bajo control el brillo de la pantalla y el WiFi; tendremos que seguir cargando con el cargador si la jornada es muy larga, pero no seremos esclavos del cable.

Los que necesiten máxima movilidad apreciarán la posibilidad de añadir una segunda batería que promete alargar la autonomía hasta las 16 horas, según el fabricante. En definitiva, AMD compensa la diferencia de rendimiento respecto a micros Intel similares con una eficiencia excelente y que será bien valorada en entornos corporativos.

Conclusiones

El Lenovo Thinkpad A475  demuestra que no solo es posible hacer un gran portátil profesional basado en AMD, sino que es una opción muy equilibrada y eficiente. Este equipo se situa por debajo los mejores Intel en potencia bruta, pero muy por encima de las soluciones de ultra-bajo consumo de la compañía norteamericana. Así, es una gran opción para los que buscan lo mejor de los dos mundos.

Más allá del hardware, Lenovo mantiene intacta la esencia Thinkpad y presenta un equipo diseñado para trabajar, robusto, con una gran autonomía y una configuración realmente equilibrada. De nada vale una pantalla 4K si ello supone perder tres horas de batería o, al menos, eso deberían pensar la mayoría de profesionales que estén buscando un equipo de este tipo.

En definitiva, una gran opción que ya está a la venta desde 929 euros, en función de la configuración elegida. El modelo que hemos probado se va a los 1070 euros pero, en nuestra opinión, los 8 Gbytes de RAM y el SSD son imprescindibles para ofrecer una buena experiencia de uso y garantías de futuro.

recomendado mcpro




Continuar leyendo

Lo más leído

Suscríbete gratis a MCPRO

La mejor información sobre tecnología para profesionales IT en su correo electrónico cada semana. Recibe gratis nuestra newsletter con actualidad, especiales, la opinión de los mejores expertos y mucho más.

¡Suscripción completada con éxito!