Conecta con nosotros

Noticias

DevOps, contenedores y aplicaciones Cloud nativas, protagonistas de una jornada técnica de HPE

El pasado 28 de septiembre se celebró en Madrid el evento «DevOps, Contenedores y Aplicaciones Cloud Nativas» organizado por HPE, Intel, Chef y Docker.

Publicado el

DevOps, contenedores y aplicaciones Cloud nativas, protagonistas de una jornada técnica de HPE

El pasado 28 de septiembre se celebró en Madrid el evento «DevOps, Contenedores y Aplicaciones Cloud Nativas» organizado por HPE, Intel, Chef y Docker, que alcanzó un gran éxito de asistencia entre responsables de sistemas, desarrolladores de aplicaciones e integrantes de equipos de operaciones, demostrando así el gran interés que suscitan todas las soluciones, metodologías y aproximaciones a modelos de TI híbrido tratadas durante la jornada.

Jorge Fernández, director de tecnología de Hewlett Packard Enterprise, fue el responsable de poner en contexto la necesidad que tienen las empresas de transformarse para dar respuesta a las exigencias de los usuarios digitales. Teniendo en cuenta esto, Jorge Fernández aprovechó un ejemplo muy habitual hoy en día como es la creación de una aplicación móvil, donde los equipos de desarrollo e infraestructura deben trabajar conjuntamente para llevar el proyecto a buen puerto.

Según Jorge Fernández, «un planteamiento para la nube mal hecho se convertirá en una pesadilla para el futuro, o se cuenta con una estrategia de Cloud híbrido en la que se puedan mover fácilmente las cargas de trabajo o seguro que habrá problemas«. Pero también hay que tener una estrategia en movilidad, que tiene que ver con la conectividad, con la forma en la que nos conectamos a la Red, sin olvidar que «las estructuras de desarrollo deben renovarse para responder a las necesidades del negocio y ser capaces de generar actualizaciones continuas de las aplicaciones«.

Hacer las cosas de manera distinta pasa por desarrollar aplicaciones «Cloud ready» que puedan subirse fácilmente a la nube pública, pero también por el desarrollo en microservicios, pequeñas aplicaciones que hablan entre ellas y que son capaces de levantar instancias y balancearse según las necesidades concretas de cada momento.

DevOps, contenedores y aplicaciones Cloud nativas, protagonistas de una jornada técnica de HPE

Soluciones nuevas a problemas nuevos

Las aplicaciones para la «Economía de las Ideas» van dejando de lado las bases de datos relacionales y trabajan sobre todo con bases de datos no-SQL porque son mucho más ágiles a la hora de desarrollar nuevas funcionalidades. Como recuerda Jorge Fernández, «hay bases de datos documentales que almacenan el metadato de cómo está estructurado el dato por dentro con campos autocontenidos que evitan definir nuevas tablas, pero además se necesita analizar grafos de relaciones que es posible hacer con soluciones SQL pero de una manera mucho más lenta«.

Por supuesto, cualquier aplicación que desarrollemos «no se puede caer nunca; antes la preocupación era que cayeran aplicaciones como el correo o el CRM, pero ahora lo que no se puede consentir es que el front-end del cliente deje de funcionar, aunque sea por breve espacio de tiempo«, afirma Jorge Fernández.

Con todos estos ingredientes, y algunos más como Big Data e IoT, no es de extrañar que los equipos de desarrollo y operaciones sientan una presión constante frente al nuevo «frente de batalla» de la «Economía de las Ideas». Afortunadamente, «Hewlett Packard Enterprise tiene el equipo necesario y cuenta con las soluciones adecuadas para dar respuesta a todos los desafíos que plantea un TI híbrido«, recuerda  Jorge Fernández.

Infraestructura Componible

Uno de los momentos más interesantes del evento fue cuando se habló de HPE Synergy, la primera plataforma de una nueva arquitectura que en HPE han llamado Composable Infrastructure (Infraestructura Componible).

HPE Synergy reduce la complejidad operacional de cargas de trabajo tradicionales y aumenta la velocidad para un nuevo tipo de aplicaciones y servicios. Es la primera plataforma diseñada para ejecutar tanto aplicaciones nativas tradicionales como en Cloud y mediante una interfaz única compone conjuntos físicos y virtuales de computación, almacenamiento y red en cualquier configuración, para cualquier aplicación.

Pablo Ráez, responsable de producto de servidores de HPE, confirmó a los asistentes que «lograr que los clientes usen lo que necesitan y como consecuencia reduzcan el CAPEX, además de incrementar la flexibilidad y velocidad en cuanto al despliegue de la infraestructura, ya sea física, virtual o mediante contenedores, son algunos de los principales objetivos de la nueva plataforma«.

Los puntos clave de Composable Infrastructure son tres. El primero de ellos habla de que tanto la capacidad de procesamiento como el almacenamiento o la estructura de red pueden ser compuestas y recompuestas según las necesidades concretas de la aplicación. El concepto inglés es “Fluid Resources Pool” y consiste en que el sistema siempre está listo para desplegar nuevas cargas de trabajo, ya sean físicas, virtuales o en contenedores.

El segundo aspecto diferenciador de esta arquitectura es lo que se denomina inteligencia definida por software, «ya que cualquier elemento de la infraestructura que se necesite está definido por software, logrando de esta manera que la auto-configuración sea una realidad y que las actualizaciones puedan reproducirse de manera eficiente», afirmó Pablo Ráez.

HPE Synergy suministra plantillas definidas por software e imágenes de arranque para que TI pueda proveer una infraestructura lista para cualquier carga de trabajo y a velocidad Cloud. Además, proporciona una biblioteca de imágenes de entorno operacional desde la que se puede desplegar la nueva arquitectura Composable Infrastructure, optimizando la entrega de servicios TI y permitiendo a TI responder mejor a las rápidas necesidades cambiantes de las líneas de negocio.

El tercer pilar de Composable Infrastructure es su API unificada. Como recordó Pablo Ráez, «nos permite suministrar infraestructura como código, es decir, con una única línea de código podremos describir y aprovisionar la infraestructura que se requiera para las aplicaciones que hayamos desarrollado, ahorrando de esta manera semanas en planificación y programación«.

Chef, las «recetas» de DevOps

Teresa Peinador, responsable del área de negocio de Datacenter Care de Hewlett Packard Enterprise, aprovechó su intervención para explicar que los modelos de negocio digitales requieren rapidez y fiabilidad a la hora de ofrecer aplicaciones y servicios de TI, pero que como contrapartida, aumenta la complejidad del TI, motivo por el que HPE dispone de los servicios Datacenter Care – Infrastructure Automation (DC-IA), «que ofrecen asesoramiento, soporte y herramientas para que las organizaciones puedan crear un entorno de TI ágil y con la garantía de que no se interrumpirán los sistemas de producción«.

También habló de las ventajas de Chef, una de las herramientas de DevOps y en la que actualmente HPE centra la propuesta de servicios Datacenter Care para Automatización de la Infraestructura (DC-IA). Una de las cualidades de Chef es que se adapta muy bien con HPE OneView, con lo cual el cliente puede sacar mucho partido de la Infraestructura Componible para la automatización a niveles de aplicativos.

HPE y Docker, una alianza poderosa

A través de un acuerdo de alcance mundial que incluye ventas, salida al mercado, ingeniería, soporte, servicios e intercambio de conocimientos, Hewlett Packard Enterprise y Docker ya colaboran para ayudar a los clientes a transformar y modernizar sus centros de datos de cara a beneficiarse de un entorno de desarrollo más ágil.

Este acuerdo fue mencionado durante el evento, ya que en el centro de esta alianza se encuentran los servidores HPE preparados para asegurar el soporte gracias a Docker Engine y Docker Support, lo que permite a los clientes crear aplicaciones distribuidas que son compatibles con cualquier infraestructura.

El acuerdo de HPE y Docker ayudará a impulsar esta tendencia mediante el desarrollo de la Infraestructura Componible de HPE combinada con los Contenedores de Docker as a Service (CaaS) para proporcionar el tipo de agilidad y la gestión de TI de la empresa que se espera.

Como primicia, Pablo Ráez anunció a los asistentes a la jornada técnica que ya están disponibles la licencias de Docker Datacenter, que funciona a la perfección para aplicaciones en contenedores desplegados en la nube pública, infraestructuras componibles, infraestructuras hiperconvenvergentes, almacenamiento convergente y Docker preparado para correr sobre los servidores de HPE.

Lo más leído