4 de diciembre de 2016

MuyComputerPRO

HP-CAST Ibérica: los usos prácticos de la supercomputación

HP-CAST Ibérica: los usos prácticos de la supercomputación

HP-CAST Ibérica: los usos prácticos de la supercomputación
noviembre 28
12:29 2014

HP-CAST

Como ya indicaban ayerHP e Intel celebraron en las instalaciones del BBVA en Tres Cantos (Madrid) la VII edición del HP-CAST Ibérica, un encuentro en el que además de conocer de la mano de expertos cómo está el mercado de la supercomputación en España, las tendencias que les afecta o la soluciones que pueden mejorar su trabajo, uno de los objetivos principales fue poder intercambiar experiencias y realizar networking de calidad entre los asistentes, todos ellos,  profesionales de diferentes perfiles del área de HPC (High Performance Computing), venidos de varios puntos de España.

Durante el acto de apertura, José María de la Torre, vicepresidente y director general de  HP Enterprise Group Iberia, reafirmó el compromiso de HP con la supercomputación. “Este año hemos aumentado un 10% nuestro presupuesto en I+D, lo que nos permite seguir innovando. Esto es una buena noticia para el sector de HPC ya que este necesita de mucha innovación”.

El directivo también recordó que dos de las grandes tendencias en auge actualmente en el sector IT comenzaron en la comunidad científica. “Aunque el Cloud ahora afecta a todas las empresas, no hay que olvidar que la nube surge en la comunidad científica por su necesidad de compartir. Lo mismo ocurre con Big Data, quienes más datos procesan son los centros de supercomputación, aunque ahora esta tendencia se ha vuelto más comercial”.

HP CAST3

Junto con José María de la Torre, el acto de apertura corrió a cargo de Sergio Salvador, director de la Unidad de Tecnología y Seguridad del BBVA, y Javier García Tobío, presidente de la asociación HP-CAST Ibérica. Este último indicó la importancia que tendría dar a conocer en el sector de la supercomputación mensajes menos complejos para la gente como la utilidad práctica (e importantísima) de esta tecnología: “los centros de supercomputación ayudan a encontrar tratamientos contra el Alzehimer, el Parkinson o el cáncer”.

Desde el punto de vista de los negocios, Sergio Salvador indicó que la supercomputación juega “un papel clave”. En el caso del BBVA, “nos permite predecir el comportamiento del mercado, sofisticando las simulaciones con el objetivo de ofertar productos a medida, así como gestionar los riesgos de manera proactiva”.

Más ejemplos prácticos de la supercomputación vinieron de de la mano de algunos de otros asistentes como Samuel Martínez, TS Sistemas Especializados – HPC & Middleware del BBVA Cib; Fernando Sierra, system administrator / researcher del Centro Extremeño de Tecnologías Avanzadas (CETA-Ciemat); Jesús Sánchez, administrador Sistemas y HPC del IRB de Barcelona, y David Miguel Cortés, administrador de redes y comunicaciones de la Fundación Cenits Computaex, que habló de “Smart Green Datacenter: Experiencias en la construcción de un CPD Modular, Móvil y Monitorizable”.

También participaron Rafael Larrosa, responsable de Sistemas del Centro de Bioinnovación y Supercomputación de la Universidad de Málaga, que habló sobre Big Data en la bioinformática; Guillermo López, CEO de Torus Software Solutions, e  Ignacio López, subdirector técnico del CESGA, que explicó la colaboración HP-UDC-CESGA para la evaluación del rendimiento de aplicaciones científicas.

HP CAST4

Big Data y la supercomputación

Después de que Antonino Albarrán, Intel EMEA Solution Architect, expusiera los últimos procesadores de la compañía orientados a consumir menos, aumentar la memoria y proporcionar el doble de prestaciones a los equipos, le tocó el turno a Jorge Fernández, director de tecnología Enterprise Group Iberia. Fernández realizó una presentación “diferente”, bajo el título “¿A dónde van los datos?”, y utilizando las alegorías de los Jinetes del Apocalipsis para exponer los retos de IT y cómo iban a ser afrontados por la supercomputación.

1 – Victoria: “Las empresas tienen un crecimiento descontrolado de la virtualización, por lo que van a necesitar una gestión intensa de sus CPDs”, utilizando estos cuatro tipos de supercomputación: la estándar (hay que entender que no todo vale para todos); la misión crítica (“HP va a sacar servicios en x86 con las mismas características de los sistemas de misión críticas tradicionales“); el parallel computing (“se está empezando a plantear que los aplicativos se lleven a un entorno paralelizado con igual capacidad de disponibilidad y alto rendimiento”); y el realtime computing (“las organizaciones tardan días en tener el conocimiento que necesitan, esto se soluciona uniendo los datos a la supercomputación“).

2 – Guerra:Van a aparecer nuevos silos de IT en las organizaciones que no estarán asociados a la tecnología. Por ejemplo, el del Big Data. El departamento de marketing tendrá más presupuesto para temas de IT que el propio CIO, porque va a tener necesidades de almacenamiento de datos, de análisis y que todo ello sea proporcionado de manera inmediata. Otro silo será el Cloud, si ponemos mucho de nuestro negocio en una Cloud pública y después de un tiempo necesitamos moverlo a un proveedor puede que no podamos, esto hay que tenerlo en cuenta”.

3 – Hambre:Nos vamos a encontrar con una gran voracidad eléctrica”. Siguiendo la temática apocalíptica, Jorge Fernández habló de la existencia de “zombies” que son aquellos servidores que no hacen “absolutamente nada” y que están consumiendo energía y por tanto, gastando presupuesto. “Al final el verdadero hambre se producirá cuando el negocio y el IT no estén alineados”.

4 – Muerte.En los últimos 20 años, la forma de hacer computación no ha cambiado, la estructura interna sigue igual, así que para dar el salto a una computación más elevada hay que cambiar totalmente las reglas del juego: hay que hacer más eficaces lo servidores, pasar a una comunicación óptica y modificar también el uso que hacemos de la memoria”.

Big Data también fue protagonista de una de las mesas redondas celebradas al final del encuentro, en la que se habló del dato como nuevo petróleo del siglo XXI, de por qué el HPC es la herramienta adecuada para explorar esos datos y de las iniciativas que ya hay en marcha para llevarse cargas de trabajo de Big Data al HPC.

El otro asunto a tratar en la última de las mesas redondas fue el de la aplicación práctica de soluciones HPC en la industria, donde explicaron su experiencia representantes del INTA, el CESGA y el ITMATI.

HP CAST

About Author

Elisabeth Rojas

Elisabeth Rojas

Articulos relacionados

Suscríbete gratis a MCPRO

La mejor información sobre tecnología para profesionales IT en su correo electrónico cada semana. Recibe gratis nuestra newsletter con actualidad, especiales, la opinión de los mejores expertos y mucho más.

¡Suscripción completada con éxito!