Conecta con nosotros

Noticias

The Machine: HPE y los sistemas centrados en la memoria

HPE lleva ya años trabajando en The Machine, un proyecto dedicado a reinventar la arquitectura de los sistemas, para crear lo que han denominado Memory-Driven Computing.

Publicado el

Sean Carroll

Desde los mismos orígenes de la informática siempre ha habido un aspecto que no ha cambiado en la arquitectura de los sistemas, el procesador, que siempre ha sido el centro absoluto del sistema durante más de 60 años.

Ello obedece a una lógica y es que, en su origen, el objetivo de los sistemas era procesar N datos para ofrecer un resultado de la operación. Ocurre, sin embargo, que con la emergencia de Big Data y de IoT, los datos han ganado mucho peso en la ecuación, hasta el punto de que en cada vez más casos el elemento prioritario en los sistemas ya no debería ser el procesador, sino el soporte de datos, tanto los que están siendo empleados en un momento (que en la arquitectura tradicional se almacenan en la memoria RAM y en las cachés) como los que se almacenan en el sistema.

Adelantándose a dicha necesidad, HPE lleva ya años trabajando en The Machine, un proyecto dedicado a reinventar la arquitectura de los sistemas, para crear lo que han denominado Memory-Driven Computing.

En este nuevo planteamiento de arquitectura, los elementos de memoria más comunes (RAM y almacenamiento) se unifican en un único soporte de memoria no volátil de alto rendimiento y alta capacidad (terabytes), que acelera singularmente el acceso a la información, empleando además tecnologías tan novedosas como la fotónica del silicio, con el fin de permitir que el acceso a los datos sea directo y extremadamente rápido, gracias a un resto de sistema diseñado específicamente para tal fin, y que aprovecha al máximo las propiedades de los enlaces ópticos. Se elimina, de esta manera, el más que previsible cuello de botella al que se enfrentarán los grandes sistemas en los próximos años.

Tras muchos años de investigación, HPE recientemente probó, con éxito, la arquitectura de The Machine, y tras este logro llega el momento de analizar todas las posibilidades que este nuevo paradigma. Para tal fin, HPE ha hablado con Sean Carroll, físico teórico en el Caltech (California Institute of  Technology), un científico muy popular por el gran número de publicaciones que ha firmado y por su presencia mediática como asesor científico en películas y programas televisivos, (por ejemplo, en «The Big Bang Theory», cuyos guionistas cuentan con un equipo de asesores científicos para dotar de verosimilitud todos los temas científicos abordados por la serie).

En el día a día académico de Carroll la informática tiene una presencia fundamental. En su trabajo en el Caltech está acostumbrado a emplear superordenadores y software muy específico para comprobar diversas teorías con simulaciones llevadas a cabo en dichos sistemas. Por ejemplo, recientemente ha llevado a cabo un proyecto particularmente complejo de simulación de la Vía Láctea, con el fin de intentar desentrañar cómo se formó esta (nuestra) porción del universo.

Preguntado por la influencia que piensa que puede tener The Machine en el ámbito científico, lo primero que menciona es que cualquier científico sabe el enorme volumen de datos con el que se trabaja en investigación. El problema, según él, es que la capacidad de proceso evoluciona a una velocidad inferior a la que experimenta el crecimiento del volumen de datos.

Así, los sistemas centrados en la memoria pueden no solo suponer un avance en rendimiento equiparable al que supuso el proceso en paralelo hace ya años, sino también abordar algunos problemas que, por el volumen de datos con los que se tiene que trabajar, eran inabordables con sistemas de arquitectura clásica.

Análisis de datos y simulaciones numéricas

Para el científico, el mismo planteamiento de este tipo de sistemas ya invita a pensar en dos actividades: análisis de datos y simulaciones numéricas, fundamentales ambas en la investigación. Y es que aunque visto desde fuera puede parecer que disponer de un mayor volumen de datos es algo bueno, lo cierto es que algunos proyectos e instalaciones de investigación ya han llegado al punto de que se genera más información de la que sus sistemas son capaces de procesar, por lo que no se está aprovechando el valor de dicha información.

Se dan situaciones así en el LHC (Large Hadron Collider), en el LIGO (Laser Interferometric Gravitational-Wave Observatory) y en el LSST (Large Synoptic Survey Telescope), instalaciones todas de última generación, pero que están desaprovechadas en cierta medida por la falta de capacidad de proceso de datos.

Las expectativas de Carroll son muy positivas, en gran parte gracias a este nuevo paradigma de sistema. Considera factible la detección de fenómenos naturales que, pese a la observación, habían pasado desapercibidos por la incapacidad de analizar todos los datos relacionados (directa o indirectamente) con los mismos.

Él, en sus investigaciones concretas, espera que los sistemas basados en la arquitectura de The Machine de HPE le permitan realizar simulaciones relacionadas con la materia oscura, uno de los desafíos más apasionantes a los que se enfrentan los físicos en la actualidad. Y es que, los descubrimientos en este campo pueden ayudar a replantearnos las leyes físicas actuales, así como a formular otras nuevas que ahora, todavía, son inimaginables.

Lo más leído