Conecta con nosotros

Opinión

Virtualización y cloud computing

Antonio Gómez Moliner, director general para el sur de Europa de Ciena, considera ambas soluciones el almacenamiento del siglo XXI. Además de ir en aumento, parecen las soluciones perfectas para los sistemas empresariales, son fiables y completas. Para este directivo, aunque la virtualización está más asentada en el mercado, a medida que el cloud computing vaya madurando, las empresas acabarán sintiéndose más atraídas por él.

Publicado el

Antonio Gómez Moliner, director general para el sur de Europa de Ciena, considera ambas soluciones el almacenamiento del siglo XXI. Además de ir en aumento, parecen las soluciones perfectas para los sistemas empresariales, son fiables y completas. Para este directivo, aunque la virtualización está más asentada en el mercado, a medida que el cloud computing vaya madurando, las empresas acabarán sintiéndose más atraídas por él.

 

 

 

 

El sector de las telecomunicaciones, al igual que cualquier otro, está asistiendo a un devenir de tecnologías promocionadas hasta la saciedad a un ritmo en ocasiones alarmante. La clave, según coinciden críticos, analistas y equipos de desarrollo del sector, parece estar en la capacidad de discernir cuáles de estas tecnologías sobrevivirán a dicha promoción y pasarán a la fase de adopción masiva y despliegue generalizado. Parece un poco pronto todavía para tener la certeza absoluta, pero las tecnologías relacionadas de la virtualización y cloud computing parecen reunir todos los requisitos necesarios para conseguir peso específico. Así pues, ¿qué es lo que traen consigo estas tecnologías?

La idea de cloud computing proviene en esencia del concepto de «nube» al que se asocian todas las redes, incluida Internet, junto con una potente tecnología informática. El término general de cloud computing engloba el software como servicio (SaaS – Software as a Service, por sus siglas en inglés), Web 2.0 y otras tendencias tecnológicas de su entorno. La característica común a todas estas subtecnologías es que se basan en la “nube” de la red para satisfacer algunas de las necesidades informáticas del usuario final. Esto ha dado lugar a que el software y el almacenamiento de datos salgan del entorno de la oficina y se subcontraten a terceros con equipos mucho más potentes y conocimientos necesarios para garantizar el funcionamiento óptimo de estos sistemas.

Puede decirse que la virtualización tiene algo más de madurez que el cloud computing, y actualmente lleva varios años utilizándose en el ámbito de las tecnologías de la información y de la comunicación (TIC). Como su nombre indica, la virtualización consiste en la creación de una versión virtual (en lugar de física) de una aplicación informática o de un dispositivo de hardware (por ejemplo, un sistema operativo o un servidor). Aunque el cloud computing puede albergar numerosas aplicaciones, el almacenamiento para empresas se adapta especialmente bien a ella. Dado que la mayoría de las pequeñas y medianas empresas prefieren subcontratar de todas formas la mayor parte de sus tecnologías TIC, la continuidad del negocio y las implicaciones legales podrían llevarles a conceder prioridad al almacenamiento como una de sus principales aplicaciones.

Con Internet y las redes privadas a disposición del usuario, la infraestructura necesaria está rápidamente disponible y es capaz de ofrecer servicios accesibles desde cualquier lugar del mundo, de manera que la “nube” se convierte en punto único de acceso. En líneas generales, la infraestructura de cloud computing se compone actualmente de servicios fiables que se proporcionan a través de centros de datos de nueva generación basados en tecnologías de virtualización informática y de almacenamiento.

El uso cloud computing y de virtualización va en aumento, como pone de manifiesto la gama de servicios de cloud computing que ofrecen los distribuidores y los proveedores de servicios y contenidos. Algunos ejemplos recientes de esto son Elastic Compute Cloud o EC2 y el servicio S3 de Amazon, o el servicio Synaptic Hosting de AT&T, donde se ofrece a las empresas un ecosistema de TI completo y dirigido para que puedan cargar y ejecutar sus aplicaciones. Esta tecnología cuenta con el respaldo de distribuidores tradicionales, como IBM, Intel y HP, así como otros «recién llegados» más innovadores, como Google y Yahoo. Esta última ha logrado con éxito trasladar el concepto de SaaS a un mercado de masas mediante aplicaciones en línea para cuentas de correo electrónico, almacenamiento de fotografías o aplicaciones de oficina. El concepto de cloud computing resulta fácil de asimilar para la generación de usuarios que ha crecido utilizando estos servicios, lo cual puede contribuir considerablemente a impulsar la adopción de servicios más avanzados a escala empresarial.

 

 


 

 

 

A medida que se vayan conociendo mejor las posibilidades del cloud computing y que los servicios que se ofrecen a través de ella se vayan ampliando y mejorando, las empresas se sentirán cada vez más atraídas hacia esta tecnología por su valor intrínseco y su simplicidad. En consecuencia, aplicaciones de TI como las de almacenamiento pueden ofrecerse fácilmente a través de la “nube”, y acabarán desbancando a las «caseras» o personalizadas tradicionales. Otras aplicaciones más complejas también adquirirán valor una vez incorporadas a la «nube», aunque su aceptación tal vez no sea tan directa. Lo que sí está claro, no obstante, es que el cloud computing eliminará muchos aspectos de la TI que tradicionalmente exigían contar con equipos internos de TI, lo cual será atractivo para las empresas, ya sean pequeñas o grandes.

 

Por ejemplo, si calculamos que alrededor del 80% de los recursos informáticos locales de una compañía están infrautilizados (por ejemplo, en un momento dado, es posible que sólo estemos ejecutando dos o tres aplicaciones de software en nuestro ordenador, como por ejemplo, el correo electrónico o el navegador de Internet, lo que desaprovecha buena parte de su potencial de computación), sin duda tendría sentido incorporar muchas de estas aplicaciones a la nube. Estas ventajas resultan prometedoras, no sólo debido a la reducción de costes en la obtención de licencias de software, sino también por la disminución del gasto en TI y las ventajas evidentes que proporciona la estandarización. Es más, la subcontratación de dichas funciones permite a las empresas centrarse en sus principales competencias, dejando la administración de sus servidores, las aplicaciones y la gestión de sus datos en manos de compañías especializadas en este entorno capaces de ofrecer un servicio permanente.
 

El impacto del cloud computing sobre las redes de almacenamiento

 

Gracias a la virtualización y al cloud computing, los procesos de almacenamiento e intercambio de datos tradicionalmente regionalizados en las redes de oficinas se han desplazado a la nube de red, mucho mayor y resistente. En la mayoría de los casos, al acceder a los servicios de la “nube”, el público utiliza servicios de banda ancha y la nube de Internet. Esto da lugar a un incremento en el uso del ancho de banda a lo largo de Internet, lo que a su vez posee importantes consecuencias para las infraestructuras de los proveedores de servicios dedicados al intercambio de datos. Por ejemplo, para las empresas que recurran a servicios de almacenamiento poco intenso a lo largo del día esto tendrá un impacto mínimo, mientras que la realización cotidiana de copias de seguridad (una vez al día) puede afectar al rendimiento de la red o prolongarse durante mucho tiempo, a menos que los operadores hayan previsto dichos procesos (los operadores de redes podrán garantizar unos niveles de servicio del rendimiento de la nube por los que ciertos usuarios finales estarán dispuestos a pagar ese valor adicional).
 

A medida que más usuarios estén dispuestos a pagar por aplicaciones a las que se acceda a través de Internet alojadas en servidores remotos, los distribuidores podrán ofrecerlas como servicios por niveles. Aunque esperen conseguir ahorros significativos, muchas empresas exigirán contratos de servicio para asegurarse de que el rendimiento no se vea afectado en las aplicaciones críticas implementadas. Las aplicaciones de almacenamiento que sean capaces de potenciar la “nube” tendrán muchas oportunidades de cobrar más por el nivel de servicio ofrecido. Por ejemplo, tal vez un pequeño comercio minorista sólo necesite el servicio de almacenamiento básico, pero un gran banco exigirá contratos de servicio con garantías de latencia, disponibilidad y ancho de banda, y a menudo sufrirá graves perjuicios en caso de fallo del sistema. Dado que los operadores ofrecen ahora servicios de red y de software, los proveedores de servicios deberían, de hecho, considerarse «proveedores de acceso a aplicaciones», cambio de percepción que proporcionará tanto oportunidades como riesgos al proveedor de servicios.

 

Lo que también afecta significativamente a los modelos de empresas proveedoras de servicios, en particular a sus necesidades de redes y ancho de banda, es la creciente facilidad para conectarse a Internet desde dispositivos móviles.

 

Los usuarios se sienten atraídos por estas aplicaciones porque se puede acceder a ellas desde cualquier conexión a Internet y por medio de numerosos dispositivos, como ordenadores portátiles y de sobremesa o PDA. Esta «nueva» disponibilidad de la red extiende el alcance de los servicios virtualizados más allá de la conexión «tradicional» por cable. Dispositivos como el iPhone 3G, el Google G1 y otros teléfonos inteligentes, que ofrecen facilidad de uso, una excelente experiencia para el usuario y diversas aplicaciones de terceros, están impulsando aún más esta tendencia. A medida que los servicios de datos móviles son cada vez más ubicuos, va ganando adeptos el uso de la virtualización y del cloud computing, no sólo para consumidores y pymes, tradicionalmente más susceptibles a las novedades del mercado, sino también entre las grandes empresas.

 

 

 

 

Una respuesta al cloud computing: nuevas arquitecturas de red

 

Debido a las tendencias antes mencionadas, los proveedores de servicios sienten la necesidad urgente de iniciar una transición en sus arquitecturas de red y en sus modelos de prestación de servicios para adaptarse mejor a este nuevo entorno.

 

Una arquitectura optimizada debe tener flexibilidad y capacidad suficientes para satisfacer rápidamente la demanda de los consumidores y reducir el plazo transcurrido desde el momento en que se solicita el servicio al cobro de ingresos. Esto sólo es posible si los recursos de red se pueden reconfigurar dinámicamente para atender nuevas solicitudes de servicio con una mínima intervención humana.

 

Según un reciente estudio del Grupo McKinsey, «la arquitectura de red mediante software puede reducir el plazo de provisión de asistencia y de realización de pruebas en un 20% en el caso de las instalaciones iniciales de servicios, y hasta un 70% si se trata de actualizaciones de líneas (como por ejemplo, ancho de banda, tipo de servicio o calidad de éste [QoS, por sus siglas en inglés])«. En pocas palabras, las redes deben ser más dinámicas y basarse más en el software, teniendo en cuenta los tres elementos claves siguientes.

 

1 – El plazo de salida al mercado. Es esencial que los proveedores de redes puedan configurar, activar y proporcionar los servicios lo antes posible. Para ello, es necesario introducir un mayor nivel de conocimiento del servicio en las áreas de acceso y metropolitanas, lo que permitirá acelerar considerablemente la creación, activación y aseguramiento de los servicios.

 

2 – La diferenciación del servicio. Si desean captar más ingresos por cliente, es fundamental que los proveedores de redes se esfuercen por diferenciar sus servicios mediante estrictos contratos para las distintas aplicaciones que necesiten. Para mayor eficacia, los proveedores de redes deben adoptar una actitud hacia el servicio mucho más determinista, incluyendo funciones como la QoS jerárquica y una mejor estratificación de los servicios.

 

3 –  La flexibilidad. Los proveedores de servicios también deben ser capaces de asignar, incrementar o reducir dinámicamente la capacidad de la red con el menor esfuerzo posible gracias a su programabilidad y para responder ante curvas de demanda impredecibles, ya que nadie puede prever qué dispositivo, aplicación o servicio va a ser el siguiente gran impulsor del ancho de banda en la nube. Por otra parte, existen otros aspectos críticos, como la latencia, la seguridad y la velocidad del servicio, lo que conlleva la necesidad de disponer de una red que permita asignar prioridades y gestionar el tráfico de manera fiable.

 

Cada vez se hace más evidente que el planteamiento tradicional para la creación de redes y la prestación de servicios no podrá resistir a la larga las innovaciones emergentes relacionadas con las aplicaciones. En esta nueva era, los proveedores de servicios de red necesitan adoptar una perspectiva y un planteamiento totalmente diferentes hacia la red que sustituya la actual conectividad de tránsito inactivo (dumb pipe) para acceder a aplicaciones o redes inteligentes, automatizadas y orientadas hacia el servicio. Quienes asuman el hecho de que sus redes deben evolucionar para convertirse en un bien capaz de adaptarse rápidamente a la innovación iniciada por la virtualización y cloud computing con el fin de aprovechar y transformar los nuevos servicios en beneficios tendrán éxito. Quienes no lo hagan, deberán afrontar una serie de dificultades.

 

Antonio Gómez Moliner, director general para el sur de Europa de Ciena

 

Periodista especializada en tecnologías corporate, encargada de las entrevistas en profundidad y los reportajes de investigación en MuyComputerPRO. En el ámbito del marketing digital, gestiono y ejecuto las campañas de leads generation y gestión de eventos.

Lo más leído