Conecta con nosotros

Noticias

Predicciones para los CTOs en 2018: cinco modos en que evolucionarán los datos

Publicado el

DATOS

El mundo está cambiando básica y rápidamente. La trasformación digital es, o debería ser, una pieza central en cualquier estrategia tecnológica empresarial. Y, directamente en el centro de todo eso, se encuentran los datos.  A medida que los datos se convierten en unos elementos cada vez más distribuidos, dinámicos y diversos, todo, desde las infraestructuras tecnológicas a las arquitecturas de las aplicaciones o las estrategias de aprovisionamiento, tendrán que cambiar como respuesta a las nuevas realidades en el mundo del cloud híbrido. En este contexto, desde NetApp han elaborado nuestras cinco principales predicciones para los CTO en 2018. Estamos deseando ver cómo se desarrollan a lo largo del año que viene.

Los datos se convierten en unos elementos conscientes de sí mismos

En la actualidad, contamos con unos procesos que actúan sobre los datos y determinan cómo se trasladan, gestionan y protegen.  Pero, ¿qué ocurriría si, por el contrario, los datos se definieran por sí mismos?

A medida que los datos se convierten en unos elementos conscientes de sí mismos e incluso se hacen más diversos de lo que lo son en la actualidad, los metadatos permitirán a los datos transportarse, categorizarse, analizarse y protegerse por sí mismos de forma proactiva. El flujo entre datos, aplicaciones y elementos de almacenamiento se mapeará en tiempo real y los datos proporcionarán la información exacta que necesitan los usuarios en el momento preciso que la necesiten.  Esto también incluye la posibilidad de autogobierno de los datos.  Los datos por sí mismos determinarán quién tiene derecho de acceso a ellos, además del derecho a compartirlos y usarlos, algo que podría tener unas mayores consecuencias en materia de protección externa, privacidad, gobernanza y soberanía de los datos.

Por ejemplo, si tiene un accidente de circulación puede que haya varios grupos diferentes de personas que quieran o exijan tener acceso a los datos del vehículo.  Un juez o la compañía de seguros pueden precisarlos para determinar la responsabilidad del accidente, mientras que el fabricante del automóvil puede necesitarlos para optimizar el rendimiento de los frenos o de otros sistemas mecánicos.  Esta autoconsciencia de los datos permite etiquetarlos para controlar quiénes ven qué parte de ellos y cuándo lo pueden hacer, sin pérdidas de tiempo o potenciales errores adicionales debido a intervenciones de personas para subdividir, aprobar y distribuir los datos pertinentes a cada parte interesada.

Las máquinas virtuales se convierten en máquinas de carpool

La gestión de unos datos cada vez más distribuidos será más rápida, barata y cómoda usando para ello máquinas virtuales aprovisionadas en infraestructuras de escala web, en vez de máquinas físicas reales.

Podemos compararlo con comprar un coche o usar un servicio de traslado compartido (o carpool), como Uber o Lyft. Para aquellos que realicen transportes de cargas a diario, podría tener sentido adquirir una camioneta. Otros, sin embargo, pueden necesitar un cierto tipo de vehículo durante un periodo de tiempo determinado, por lo que el alquiler es la mejor opción. Y por último están los individuos que únicamente necesitan un vehículo para ir de un lugar a otro una sola vez; en este caso, el tipo de vehículo no importa, solo la velocidad y la comodidad, por lo que un servicio de carpool es la mejor opción para este último tipo de usuarios.

Esto mismo puede aplicarse a un contexto de instancias de máquinas físicas frente a virtuales.  El hardware personalizado puede ser caro, pero, para cargas de trabajo intensivas y constantes, podría tener más sentido invertir en una infraestructura física.  Una instancia de máquina virtual en el cloud que admita cargas de trabajo variables podría ser comparable a un alquiler: los usuarios pueden acceder a la máquina virtual sin necesidad de ser propietarios o sin necesidad de saber cualquier detalle sobre ella.  Y, al final del periodo de “alquiler”, desaparece.  Las máquinas virtuales aprovisionadas en infraestructuras de escala web (es decir, la tecnología sin servidores) son como los servicios de carpool de la tecnología, en donde el usuario sencillamente especifica las tareas que necesita realizar, dejando el resto de los detalles en manos del proveedor del cloud, lo que facilita y hace más cómodo su uso en comparación a los métodos tradicionales para ciertos tipos de cargas de trabajo.

La cantidad de datos crecerá más rápido que la capacidad para transportarlos

No es un secreto afirmar que los datos se están convirtiendo en unos elementos increíblemente dinámicos y que se están generando a una velocidad sin precedentes, y esto va a hacer que, en breve, se supere en gran medida la capacidad para transportarlos.  Sin embargo, en vez de trasladar los datos, serán las aplicaciones y los recursos necesarios para procesarlos los que se muevan a los datos y esto tendrá algunas consecuencias para las nuevas arquitecturas, como las de nivel local (edge), la esencial (core) y el cloud.  En el futuro, la cantidad de datos utilizados en la arquitectura esencial será siempre menor de la generada a nivel local, pero esto no ocurrirá de forma accidental y se debe facilitar de forma muy deliberada para garantizar que los datos correctos se retienen para aprovecharlos en las tomas de decisiones posteriores.

Por ejemplo, los fabricantes de vehículos autónomos están incorporando sensores que van a generar una cantidad tan enorme de datos que harán que ninguna red existente sea lo suficientemente rápida como para trasladarlos ágilmente entre los vehículos y los centros de datos.  Históricamente, los dispositivos a nivel local no han creado una gran cantidad de datos, pero, ahora, los sensores incorporados en todo – desde coches a termostatos o dispositivos ponibles – van a hacer que los datos a nivel local crezcan de una forma tan rápida que lleguen a superar la capacidad de las conexiones de red para llevarlos a la infraestructura esencial.  Los vehículos autónomos y otros dispositivos locales requieren unos análisis en tiempo real a nivel local para permitirles tomar decisiones críticas e instantáneas.  Como resultado, llevaremos las aplicaciones a los datos.

La evolución desde el Big Data al “Huge Data” exigirá nuevas arquitecturas

A medida que se incrementa la demanda para analizar con más rapidez unas cantidades impresionantes de datos, necesitamos trasladar los datos más cerca de la computación.  La memoria persistente es lo que va a permitir una computación de latencia ultra baja sin pérdida de datos; y estas demandas de latencia obligaran en última instancia a las arquitecturas de software a cambiar y crear nuevas oportunidades de negocio impulsadas por los datos.  La tecnología Flash ha sido un tema destacado en el sector, pero, sin embargo, el software que funciona con esta tecnología no ha cambiado verdaderamente, sino que solo se ha hecho más rápido.

Esto se está viendo impulsado por la evolución del papel de los departamentos tecnológicos dentro de la organización. En el pasado su principal función fue la automatización y la optimización de procesos como los pedidos, la facturación, las cuentas por cobrar, etc. En la actualidad, el departamento tecnológico es una pieza básica para mejorar las relaciones con los clientes, proporcionando servicios siempre activos, aplicaciones móviles y mejores experiencias en Internet.  El siguiente paso será la monetización de los datos recopilados a través de varios sensores y dispositivos, para generar nuevas oportunidades de negocio; éste es un paso que va a precisar nuevas arquitecturas y aplicaciones compatibles con tecnologías como, por ejemplo, la memoria persistente.

Emergen mecanismos descentralizados e inmutables para la gestión de los datos

Surgirán mecanismos para gestionar los datos de forma inmutable, verdaderamente distribuida y con toda confianza (es decir, sin autoridad central) que van a tener un impacto profundo en los centros de datos. El blockchain es un buen ejemplo de esto.

Los mecanismos descentralizados como los del blockchain representan un reto al concepto tradicional de la protección y la gestión de datos.  Como no hay un punto central de control, como un servidor centralizado, es imposible cambiar o eliminar la información en un blockchain y, además, todas las transacciones son irreversibles.

Piense en ello como si se tratara de un sistema biológico. Tiene una serie de pequeños organismos que saben lo que se supone que tienen que hacer, sin tener que comunicarse con algo más o que les digan lo que deben hacer.  A continuación, les proporcionamos algunos nutrientes (en este caso, los datos).  Los nutrientes saben lo que hacer y todo empieza a funcionar de manera cooperativa, sin ningún control central.  Como un arrecife coralino.

Los centros de datos actuales y las aplicaciones funcionan como granjas gestionadas de forma comercial, con una unidad central de control (el granjero) que gestiona el entorno que tiene a su alrededor.  Los mecanismos inmutables descentralizados para la gestión de datos ofrecerán microservicios que los datos pueden usar para realizar las funciones necesarias.  Los microservicios y los datos trabajarán de forma cooperativa, sin un control general gestionado de forma centralizada.

 

El equipo de profesionales de MCPRO se encarga de publicar diariamente la información que interesa al sector profesional TI.

Noticias

Hay muchos tipos de portátiles ThinkPad, ¿cuál es el perfecto para ti?

Publicado el

¿Por qué comprar un portátil ThinkPad? Bueno, existen muchos motivos, el fundamental es disponer de un ordenador conectado por wifi en todo momento y lugar, junto con el poco espacio que ocupan y el bajo ruido que hacen estos equipos.

Continuar leyendo

Noticias

SoftBank invertirá 1.000 millones en una empresa china de Inteligencia Artificial

Publicado el

SoftBank invertirá 1.000 millones en una empresa china de Inteligencia Artificial

SoftBank se dispone a invertir cerca de 1.000 millones de dólares en una de las principales empresas de Inteligencia Artificial de China, SenseTime Group Ltd. Al parecer, pretende hacerlo a través de su fondo Vision, lo que le permitirá contar con una parte de la que está considerada como una de las startups del sector con mayor valoracion, según Bloomberg. El acuerdo todavía no se ha cerrado, y ambas partes están todavía negociando sus términos, por lo que los detalles del mismo podrían sufrir modificaciones. Si el trato se cierra, Softbank se unirá a Qualcomm y Alibaba en la lista de tecnológicas que han invertido en SenseTime.

SenseTime es una empresa que se fundó hace cuatro años, y que se dedica al desarrollo de sistemas de reconocimiento facial y de imágenes a gran escala. En la actualidad colabora con el gobierno de China en el desarrollo de un gran y polémico sistema de vigilancia, que utiliza el reconocimiento facial como una de sus bases. Pero SenseTime no sólo se dedica a trabajar en proyectos relacionados con la verificación de la identidad. También está avanzando en los sectores de la conducción autónoma y de la realidad aumentada.

También está desarrollando un servicio, al que por el momento denominan Viper, para analizar datos procedentes de miles de metrajes de cámaras grabando en directo. Se trata de una plataforma que la compañía espera que resulte de gran valor para la vigilancia masiva.

Mientras, la japonesa SoftBank ha convertido a China en uno de sus escenarios favoritos para invertir a través de su fondo Vision, que cuenta con 100.000 millones de dólares para invertir en el sector tecnológico, y ya ha hecho inversiones en compañías de diversas áreas. Entre ellas están la robótica, el comercio electrónico o los semiconductores. También ha invertido varios miles de millones en Didi Chuxing, el competidor chino de Uber, y se ha hecho con una parte de las acciones de la aseguradora online ZhongAn Online P&C Insurance Co.

Esta inversión cuadra con la visión de futuro que tiene el fundador de SoftBank, Masayoshi Son, que apuesta por un futuro dominado por los datos y la Inteligencia Artificial. Y lo ha demostrado a través de movimientos como la compra, por 32.000 millones de dólares, de la compañía desarrolladora de chips ARM Holdings, a la que ve como un eje para el desarrollo futuro de la Inteligencia Artificial.

Foto: puamelia

Continuar leyendo

Noticias

El sector sanitario, entre los más desprotegidos contra los ciberataques avanzados

Publicado el

Cuesta entender que después de ataques tan grandes como Wannacry todavía haya sectores desprotegidos ante ciberataques avanzados. Pero según el Security Report 2018 de Check Point. Los hospitales y centros de salud flaquean en este aspectos.

Hay que tener en cuenta que los datos que manejan estas instituciones son mucho más sensibles que otros. Los hospitales y centros de salud gestionan grandes cantidades de información sensible de sus pacientes, por lo que un robo de datos es aún más peligroso que en otros sectores.

El principal problema radica en que esta industria a menudo no puede actualizar su hardware debido a las políticas de los fabricantes. Además, en muchos casos no se tiene tiempo de aplicar los parches porque es necesario tener al máximo rendimiento los dispositivos médicos. Por esta razón, el sector fue uno de los más afectados por WannaCry, que tumbó gran parte del Sistema Nacional de Salud del Reino Unido en mayo del año pasado. Distintas máquinas, como los escáneres de resonancia magnética, las instalaciones de pruebas de laboratorio y los ordenadores de farmacia tuvieron que ser desconectados, cancelando miles de citas y operaciones.

Los servicios sanitarios también son el blanco de ciberdelincuentes que buscan sustraer grandes cantidades de información sensible, ya sea para robar identidades, cometer fraude con ellos o venderlos en la Dark Net. Esto ya le ha ocurrido a la organización de salud estadounidense Henry Ford Health Care, que fue víctima del robo de los datos de más de 18.000 pacientes.

Otro vector de amenaza en crecimiento en este año 2018 son las vulnerabilidades de los dispositivos médicos, lo que es muy preocupante. Permitir que personas malintencionadas pongan en peligro la salud de los pacientes explotando puntos débiles de las máquinas es, sin duda, un problema que debe ser abordado antes de que se produzcan los ataques.

Cómo proteger los sistemas sanitarios

Para asegurar que un ciberataque no afecte a la atención que necesitan los pacientes, el sector de la salud necesita una herramienta que no sólo identifique las amenazas avanzadas, sino que les impida entrar. Esto solo se puede conseguir con una solución que incluya funciones de Firewall IPS, control de aplicaciones, antibot y antispam, así como tecnologías de emulación y extracción de amenazas.

Los proveedores sanitarios también deberían asegurarse de que disponen de tecnologías de detección de vulnerabilidades a nivel de CPU. Es la única forma de bloquear el malware diseñado para eludir las tecnologías de sandboxing habituales y mantener su seguridad frente a amenazas avanzadas como WannaCry.

Además, esta industria tiene que tratar de minimizar la complejidad de sus redes, y reducir las distintas versiones de software utilizadas y monitorizadas desde una única interfaz de usuario. Esto facilitaría la actualización de sus sistemas y la supervisión del panorama de amenazas, así como la aplicación oportuna de parches de seguridad.

Por último, para proteger los dispositivos de IoT, Check Point recomienda segmentarlos de manera adecuada. Esto permitirá la prevención de posibles ataques mediante la inspección en profundidad de paquetes y el filtrado de URL, por ejemplo, para mantener la integridad de los datos que contienen estos dispositivos y las operaciones que realizan.

Imagen: Photo by rawpixel on Unsplash

Continuar leyendo

Lo más leído

Suscríbete gratis a MCPRO

La mejor información sobre tecnología para profesionales IT en su correo electrónico cada semana. Recibe gratis nuestra newsletter con actualidad, especiales, la opinión de los mejores expertos y mucho más.

¡Suscripción completada con éxito!