Conecta con nosotros

Noticias

Cloud y Big Data, los grandes avances que han redefinido el almacenamiento

Cloud y Big Data juegan un papel protagonista en el actual crecimiento de los datos con los que trabajan las organizaciones de todo el mundo.

Publicado el

Repetimos con bastante asiduidad que uno de los principales retos a los que se enfrentan las organizaciones hoy en día, si no el mayor, es el crecimiento de los datos. Datos que hace poco más de una década ni hubiese tenido sentido contemplar en semejante magnitud, pero que actualmente aportan un plus al que nadie está dispuesto a renunciar.

Antes de continuar, no obstante, cabe señalar que hablamos de Cloud y Big Data, porque en ciertos escenarios como por ejemplo el llamado Big Archiving, las soluciones de almacenamiento tradicional en cinta siguen siendo la mejor opción.

Según nos explicaba recientemente Fernando Ibáñez, jefe de producto de servidores y almacenamiento en Fujitsu: «Desde un punto de vista tecnológico, la tendencia clara del mercado es ir a cabinas flash, pero también se está buscando almacenamiento barato que permita trabajar con grandes volúmenes de información de manera online. Estas dos tendencias están en equilibrio«. Es decir, el almacenamiento en cinta se mantiene debido a su ventaja en costes frente a los nuevos sistemas, especialmente con aquellos datos que no admiten compresión o deduplicación, como puede ser el vídeo; mientras que la tendencia del mercado es otra.

¿Qué papel juegan el Cloud y Big Data en este nuevo marco? El de protagonistas. Hagamos un poco de retrospectiva para comprenderlo mejor. En 2011 la Universidad de Carolina del Sur publicó un estudio que examinaba el almacenamiento de datos entre 1986 y 2007, considerando 2002 como el comienzo de la era digital, pues tal año la capacidad de almacenamiento digital superó al almacenamiento analógico.

En 2007, el último año que recogía el estudio, el 94% de los datos ya estaban en formato digital y desde 2013 el crecimiento ha llegado al límite de los 2,5 exabytes de datos al día, esto es, 2,5 billones de gigabytes. El total de la información generada en 2015, se estima, alcanzó los 8 zettabytes, 8 trillones de gigabytes. Pero si cifras tan escancalosas sorprenden, no es nada comparado con lo que se espera para el final de la década, momento en el que los analistas apuntan a un volumen de información que se habrá multiplicado por cuarenta.

2

Así es como el Big Data entra en escena. De acuerdo a la introducción que se puede consultar en Wikipedia, «Big Data o datos masivos es un concepto que hace referencia al almacenamiento de grandes cantidades de datos y a los procedimientos usados para encontrar patrones repetitivos dentro de esos datos«. ¿Con qué fin? Con el de sacarles un rendimiento, por supuesto.

El proceso que entiende Big Data empieza con la captura de los datos, prosigue con su transformación en un sistema lógico y termina en un almacenamiento que facilite su posterior visualización y análisis. Es en este último punto a partir del cual se desarrolla la minería de datos cuyas conclusiones aportan el innegable valor añadido, y no solo en el plano empresarial o comercial, también en el científico y tecnológico.

La importancia de los datos a gran escala, la importancia del Big Data, es evidente. Pero, ¿qué infraestructuras necesita semejante vorágine de datos para resultar en efecto útil? En una palabra: Cloud. Recurriendo de nuevo a la enciclopedia libre, «la computación en la nube, conocida también como servicios en la nube, informática en la nube, nube de cómputo o nube de conceptos (del inglés cloud computing), es un paradigma que permite ofrecer servicios de computación a través de una red, que usualmente es Internet«. Y, claro, todos esos datos se tienen que almacenar en algún sitio. Por lo tanto, Big Data es un producto de la propia evolución tecnológica, por lo que se puede argumentar que ambos fenómenos están unidos por el mismo lazo y en orden inverso al que acabamos de presenciar.

3

El almacenamiento actual, pues, no solo trata de capacidad de almacenamiento en el sentido estricto del término; sino de potencia de cómputo, de red, aplicaciones… Las aplicaciones, de hecho, son el origen de todo ya sea de manera voluntaria (formularios rellenados por una persona, documentos, etc.) o involuntaria (monitorización de uso, datos residuales, etc.).

Y no hay vuelta atrás. Ahora la elección en muchos casos no tanto entre almacenamiento al uso o nube, porque tal y como se ha mencionado aún se generan datos de distinta naturaleza; sino entre nube pública y privada, lo que se entiende como entornos de nube híbrida, en los que la administración de TI de la organización será la encargada de decidir qué servicios se externalizan y cuáles permanecen en sus propios centros de datos.

En definitiva, de la evolución tecnológica vivida en los últimos años se deriva el crecimiento de los datos al que asistimos, y este deriva a su vez el Big Data como recurso de conocimiento. Para cubrir las necesidades infraestructurales del nuevo escenario, Fujitsu proporciona soluciones como ETERNUS CD10000, almacenamiento hiperescalable diseñado para la era Cloud en torno a OpenStack, el estándar abierto basado en Linux para la creación de nubes privadas, híbridas y públicas de cualquier tamaño; pero también como ETERNUS CS, que dispone de un primer nivel de almacenamiento en disco y un segundo nivel en cinta de hasta 10 Exabytes, permitiendo abaratar costes y necesidades de consumo y capacidad al hacer uso de un gestor de almacenamiento jerárquico.

Imágenes: Shutterstock

El equipo de profesionales de MCPRO se encarga de publicar diariamente la información que interesa al sector profesional TI.

Lo más leído