Conecta con nosotros

Noticias

Groupon, valorado en 17.773 millones de euros

Publicado el

Groupon

La compañía ha mantenido conversaciones con los bancos sobre una posible oferta pública inicial (OPI) que la valoraría en 25.000 millones de dólares (17.773 millones de euros), según informan en Bloomberg. La salida a bolsa de Groupon podría tener lugar este año y parece poco probable que la compañía tenga un valor inicial de menos de 15.000 millones de dólares.

La empresa se revalorizó tras su expansión a varias ciudades y duplicar su base de suscriptores en los últimos tres meses, ahora tiene 70 millones de usuarios y llega a más de 500 mercados, unas cifras ligeramente superiores a cuando rechazó la oferta de compra de Google.

Claire Enders, fundador de la consultora Enders, afirmó que este tipo de empresas “están siendo muy valoradas, hasta el punto de que se dice que serán el próximo Google, Ebay o Amazon”. “Pero sus modelos de negocio pueden alcanzar techo más rápidamente, o no ser capaz de alcanzar tantos mercados”.

Hace unos días, Groupon anunció su alianza con la plataforma de liveshopping en España, Oooferton , tras lo que aumentará su base de usuarios.

Periodista especializada en tecnologías corporate, encargada de las entrevistas en profundidad y los reportajes de investigación en MuyComputerPRO. En el ámbito del marketing digital, gestiono y ejecuto las campañas de leads generation y gestión de eventos.

Noticias

HPE presenta Astra, el mayor superordenador del mundo basado en ARM

Publicado el

HPE presenta Astra, el mayor superordenador del mundo basado en ARM

HPE, en colaboración con el Departamento de Energía de Estados Unidos, ha desarrollado el superordenador más potente del mundo basado en ARM. Según manifiesta la propia compañía, su destino serán los Laboratorios Nacionales Sandia, en Estados Unidos, unas instalaciones que pertenecen a la Administración de seguridad nuclear nacional, y se utilizarán para ejecutar modelos avanzados, así como para poner en ejecución simulaciones de cargas de trabajo.

Todas sus operaciones estarán relacionadas con asuntos como la seguridad nacional, la ciencia y la energía. Y la NNSA también lo utilizará, ya con más concreción, para mejorar el análisis en experimentos de ciencias que hacen un uso intensivo de los datos.

Según manifiestan desde HPE; este nuevo superordenador puede alcanzar un rendimiento pico de más de 2,3 petaflops, así como de ofrece un rendimiento de memoria un 33% mejor y una mayor densidad del sistema. Y se integrará en el HPE Apollo 70, que cuenta con 145.000 cores en 2.592 servidores de procesador dual.

Tal como apunta HPE, en el mundo hay una demanda insaciable para contar con cada vez mayor poder de computación. Esto se debe a que cada vez hay más empresas alrededor del mundo que buscan ejecutar tareas de investigación que requieren mucha potencia de computación, dado que precisan procesar y analizar grandes conjuntos de datos. Por tanto, los fabricantes de hardware, que tratan de satisfacer sus demandas, ya están buscando ir un paso más allá en cuanto a supercomputadores, y buscan desarrollar ya un sistema de computación a exascala.

Tal como lo ve Mike Vildibill, Vicepresidente del Grupo de tecnologías avanzadas de HPE, “al integrar procesadores ARM en el HPE Apollo 70, una arquitectura de HPC desarrollada de manera personalizada, estamos llevando componentes potentes, como el rendimiento óptimo de memoria y una mayor densidad, a superordenadores que no pueden igualar las tecnologías que hay en el mercado. Los Laboratorios Nacionales Sandia han sido un socio activo en el desarrollo de la plataforma basada en ARM desde las primeras etapas de su desarrollo, y su integración en el desarrollo del mayor superordenador del mundo basado en ARM es una inversión estratégica para el Departamento de energía y hacia la industria en general, mientras avanzamos hacia la computación a exascala“.

Continuar leyendo

Noticias

IBM compra Oniqua Holdings, compañía de optimización de activos con apoyo de IoT

Publicado el

IBM

IBM ha confirmado la compra de la compañía Oniqua Holdings, dedicada a la optimización de activos en sectores que los utilizan de manera intensiva. Por ejemplo, en el gasístico, el petrolífero, los transportes, las fábricas y los servicios públicos. Se desconocen los términos de la compra, así como la cantidad que IBM ha pagado por la compañía.

Como hemos mencionado, Oniqua está especializada en el desarrollo de software de optimización de inventario para ciertos sectores e industrias. Sus productos se centran sobre todo en los sistemas de mantenimiento y reparación que suelen emplear sectores como los que hemos mencionado. Y su papel es controlar y vigilar la eficacia operacional de las máquinas, el equipo y los diversos componentes necesarios para su funcionamiento.

De esta manera, mediante sus sistemas, los clientes de Oniqua pueden monitorizar sus sistemas para predecir una avería antes de que se produzca o detectarlas de manera temprana, lo que les permite reducir al máximo el tiempo que las máquinas estarán sin funcionar. Y planificar cuándo tienen que pararlas para hacer cambios y reparaciones.

IBM también cuenta con una oferta propia para este tipo de sistemas, una plataforma de nombre Maximo. Pero con esta compra, van a cambiar algunas cosas. Los planes de IBM pasan por fusionar la plataforma y los servicios de Oniqua con Maximo, con el objetivo de que IBM cuente con un peso mayor en el sector de Internet de las cosas Industrial.

En el comunicado en el que se confirma la compra de la compañía, Jay Bellissimo, Responsable global de empresas locales  IBM, ha manifestado que “combinando la solución de optimización de activos líder del mundo Maximo con la solución de optimización de inventario MRO de Oniqua, ofreceremos una plataforma de “soluciones como servicio” de nueva generación que permita a las empresas conectar con facilidad con los datos que necesitan para que puedan predecir fallos de equipamiento, optimizar los componentes sueltos, rebajar el tiempo de mantenimiento planeado y optimizar el mantenimiento de activos“.

Continuar leyendo

Noticias

Investigadores desarrollan modelo que evita vulnerabilidades como Meltdown y Spectre

Publicado el

Investigadores desarrollan modelo que evita vulnerabilidades como Meltdown y Spectre

Un grupo de seis expertos en computación de la Universidad de California, el Centro William and Mary y la Universidad Binghamton ha desarrollado un modelo con un nuevo principio de diseño que, de utilizarse, evitaría problemas y vulnerabilidades como Meltdown y Spectre. Esto se debe, según Betanews, a que está pensado para acabar con las vulnerabilidades de ejecución especulativa.

Los investigadores que han desarrollado el modelo aseguran que este modelo, al que han denominado SafeSpec, es compatible con la especulación, pero de una forma que es “inmune a las filtraciones necesarias para que se den ataques como Meltdown y Spectre“. Además, este nuevo diseño también evita los problemas asociados a los parches utilizados para corregir ambas vulnerabilidades.

Para conseguir el desarrollo de este modelo, los investigadores han explorado “si la especulación puede o no darse de manera que esté exenta de filtraciones, permitiendo que la CPU retenga las ventajas de rendimiento de la especulación, al mismo tiempo que se eliminan las vulnerabilidades a las que expone la especulación“. Por lo tanto, desarrollaron el modelo SafeSpec para que se almacenase el estado especulativo “en estructuras temporales a las que no pueden acceder las instrucciones comunicadas”.

En el estudio en el que detallan su investigación, los investigadores aseguran que este nuevo método de diseño no solo acaba con las variantes conocidas de Meltdown y Spectre. También con las nuevas variantes que puedan aparecer. Para asegurarse, los investigadores han desarrollado nuevas variantes de ambas vulnerabilidades, y han comprobado que no tienen efecto. No sólo esto, sino que aplicando este diseño se mejora el rendimiento de la CPU.

Tal como han comentado los investigadores en el trabajo en el que han detallado su descubrimiento, aplicaron este principio de diseño “a la protección de las cachés y las TLB (memorias caché) de la CPU, que son los principales vectores de filtraciones que se utilizan en los ataques especulativos publicados. Nuestro diseño cierra completamente los tres ataques publicados, así como las nuevas variantes que desarrollamos para filtrar a través de la I-cache de las TLBs. Hemos demostrado que se necesita un diseño cuidadoso para prevenir una forma de filtración que puede darse mientras las instrucciones comparten el estado especulativo. Hemos mitigado esta filtración mediante una calibración conservadora del estado especulativo. Si se hace de esta manera, los ataques transitorios se convierten en impracticables“.

No obstante, no esperes a ver cómo desaparecen las vulnerabilidades de ejecución especulativa de un plumazo. Todavía queda mucho que hacer en este campo, aunque los investigadores que han participado en este estudio creen que este diseño que han desarrollado es un paso muy importante hacia su final.

Continuar leyendo

Lo más leído

Suscríbete gratis a MCPRO

La mejor información sobre tecnología para profesionales IT en su correo electrónico cada semana. Recibe gratis nuestra newsletter con actualidad, especiales, la opinión de los mejores expertos y mucho más.

¡Suscripción completada con éxito!