Conecta con nosotros

Noticias

HPE y los 18 ceros: la carrera hacia el primer sistema Exascale

El enfoque de Hewlett Packard Enterprise y el US DOE para crear un sistema Exascale es mantener constantemente el exaflop, y lograrlo, además, con un consumo energético moderado.

Publicado el

EXASCALE

Hace solo unos días, y al hilo de la colaboración suscrita entre Hewlett Packard Enterprise y el Departamento de Energía de Estados Unidos, un acuerdo del que ya te hablamos hace unos meses y que sitúa a HPE en la vanguardia de la Computación Exascale, The Atlantic ha publicado un interesante vídeo en el que analiza, más en profundidad, el desafío que esto supone, sus implicaciones y hasta dónde nos puede llevar este gran salto en la capacidad de computación de los grandes sistemas. Un vídeo que, por su interés, podrás encontrar al final de esta noticia, y del que nos gustaría destacar algunos aspectos especialmente significativos.

Antes de empezar, hay que recordar que la Computación Exascale o Exaescala es la referida a aquellos (futuros) sistemas capaces de realizar 1.000.000.000.000.000.000 (1018 ) operaciones de coma flotante (flop, floating point operations) por segundo. De ahí el título del vídeo, «Eighteen zeros» (18 ceros), tres más de los que ya ofrece la computación petascale (1015 flops). Y aquí es importante remarcar que no hablamos de un simple incremento más en el rendimiento de los sistemas, no. En este salto, tal y como se reseña en Wikipedia, podríamos estar hablando del punto en el que se llega al superar la potencia bruta de proceso de datos del cerebro humano, en el plano neuronal.

Pero, claro, un logro tan formidable, y con las implicaciones que tiene (que abordaremos más adelante) no podía ser sencillo. Al contrario, su complejidad, su nivel de exigencia de rendimiento a los diversos componentes del sistema, su volumen de consumo energético, la precisión en la integración de los elementos… Hablamos de algo que algunas voces no dudan en calificar, también por el enfrentamiento entre diversos países por ser el primero en disponer de un sistema de estas características, de la «carrera espacial de este siglo». Una carrera en la que los competidores abordan el desafío con distintos enfoques, unos primando ser los primeros en llegar, otros buscando la sostenibilidad, no la fecha.

Y es que, en realidad, como se plantea en el vídeo, hoy en día ya sería posible construir el primer sistema Exascale. ¿Cuál es el problema? Que no sería ni sostenible ni eficiente. Este es el modelo elegido, por ejemplo, por China, que podría ser el primer país en tener un sistema Exascale, con uno o dos años de ventaja con respecto a Estados Unidos. El problema es que hablamos de un sistema capaz de alcanzar el exaflop de manera muy, muy puntual, y a cambio de un consumo energético absolutamente desmedido (650 megavatios con la tecnología actual). Dicho de otra manera, el sistema necesitaría de su propia central eléctrica, dedicada en exclusiva a esa instalación.

El enfoque de HPE y el US DOE

El enfoque de Hewlett Packard Enterprise y el US DOE es muy distinto: su objetivo es crear un sistema capaz de mantener constantemente el exaflop, y lograrlo, además, con un consumo energético moderado, que permita emplear la infraestructura de manera constante sin que esto suponga una agresión al entorno ni un dispendio de energía. Pero, claro, para tal fin no basta con mejorar el modelo actual, es necesario dar un salto a un nuevo paradigma, que permita reducir gran parte del consumo eléctrico, poner los datos en el epicentro del sistema y, de esta manera, garantizar que la capacidad de ingesta y gestión de datos del sistema estará a la altura de las necesidades. La clave se llama Computación en Memoria, y su nombre propio es HPE The Machine.

Gracias a este nuevo y disruptivo modelo de construcción de los sistemas, diseñado desde una perspectiva memory driven, será posible mantener el rendimiento exaflop constantemente y, de esta manera, abordar simulaciones complejas destinadas, precisamente, a poner en valor todo lo que estos sistemas pueden ofrecernos, y con seguridad lo harán cuando empiecen a llegar. Por ejemplo, gracias a esta capacidad de cálculo será posible afinar muchísimo los tratamientos médicos relacionados con procesos biológicos, gracias a la posibilidad de secuenciar el ADN del paciente. También será posible mejorar sustancialmente los modelos predictivos de la meteorología, un factor clave para la detección temprana (y la consecuente toma de medidas preventivas) de incidencias que puedan ser peligrosas para la población.

Y, sin duda, un desafío que personalmente me parece apasionante: los sistemas Exascale ofrecerán la capacidad de cálculo necesaria para, combinando múltiples simulaciones complejas con el ingente volumen de datos existente (y los nuevos que se reciben día a día), profundizar en el conocimiento del universo, explorar desde la distancia las regiones más recónditas del mismo y, de este modo, acercarnos un poquito más al momento exacto de su nacimiento.

Uno de los aspectos más relevantes de la evolución del ser humano es, sin duda, el incremento en la complejidad de las preguntas que se plantea. Hubo un tiempo en el que un microscopio o un telescopio fueron suficientes como para responder a las mismas, pero es que dichas respuestas dieron pie a nuevas y más complejas dudas. Y en nuestro momento actual, las preguntas que nos plantea nuestra innata curiosidad, requieren de una capacidad de cálculo y simulación que solo nos puede ofrecer la Computación Exascale.


Lo más leído