Conecta con nosotros

Entrevistas

Oracle: “Nuestra visión es llegar a las bases de datos que se auto reparen”

Hablamos con Elena Montoya, Business Development, Coretech and Big Data de Oracle sobre los nuevos desarrollos de la compañía: Autonomous Database y Autonomous Data Warehouse.

Elena Montoya

Business Development, Coretech and Big Data Director de Oracle

Publicado el

Este 2018 Oracle ha iniciado una enorme transformación de su portfolio de productos revolucionando el paradigma tradicional. Añadir IA y Machine Learning a las bases de datos es una decisión que, en palabras de Larry Ellison, CEO de Oracle, “es la más importante que nunca hemos tomado” y quieren aplicarlo en todas las capas del software. Aprovechando el anuncio de los primeros productos y servicios de bases de datos autónomas (con inteligencia) que ha hecho Oracle Ibérica, hemos charlado con Elena Montoya, Business Development, Coretech and Big Data Director de la compañía en España.

MCPRO: Oracle acaba de hacer varios anuncios sobre bases de datos inteligentes, en las que determinadas tareas se realizan sin que el usuario tenga que ordenarlas explícitamente. Para entender bien el cambio que esto significa, me gustaría saber ¿cómo eran las BD hasta ahora? ¿qué es lo que cambia con esta nueva oferta?

 

Elena Montoya: Lo que hemos anunciado en todo nuestro offering de PaaS (Product as a Service) es el software autónomo. Que pueda conseguir esa autonomía. De entre nuestra oferta de PaaS, la 1ª plataforma que sale como software autónomo es Autonomous Database, la capa original de Oracle, la capa central que es la de la base de datos.

Y luego el primer producto que hemos lanzado es una nueva versión de Autonomous Database porque para que los productos sean autónomos tienen que aprender, se les tiene que entrenar. Nosotros estamos entrenando ahora mismo a Autonomous Database en cargas de trabajo que tienen que ver con Data Warehouse. Por eso el “sabor” que sacamos es Autonomous Data Warehouse. A finales de este año tendremos Autonomous OLTP, para cargas de trabajo OLTP, y finalmente esas dos capas confluirán en Autonomous Database para cualquier tipo de necesidad.

A tu pregunta de cómo cambian, nosotros en base de datos, si has seguido un poco nuestra historia,hemos ido dotando a la base de datos de un montón de funcionalidad, digamos, automática. Es decir, teníamos Advisors (Asistentes de recomendación) que nos permitían ayudar al usuario a controlar la base de datos. El sistema le daba sugerencias sobre planes de ejecución, sobre estructuras que tenía que crear, sobre problemas que se iban a producir.

Esta mañana nos contaban en el Keynote que es como si un coche tiene distintos automatismos. Tienes el control de velocidad, el pitido que te da cuando vas a aparcar,… Lo que se hace ahora es dar un salto más utilizando todos esos automatismos que hemos ido creando a lo largo de muchos años. Porque esto es algo que no se hace de la noche a la mañana. A lo largo de las versiones 10, 11, 12 se han ido creando todos estos paquetes automáticos que, ahora, pasan a ser utilizados por la base de datos sin necesidad de pasar por el DBA (Administrador de Bases de Datos) tradicional. Es decir, hoy la base de datos toma el mando como si fuera el coche autónomo y, con todos esos mecanismos, conduce sola.

La idea que subyace detrás de todo es que quien vaya a hacer uso de la base de datos tenga que preocuparse sólo de cargar los datos.

Toda esta línea de investigación del software autónomo no es nueva para nosotros. Hace unos 10 años que está Exadata en el mercado, y ya consiguió que la gestión de la base de datos se automatizase. Que fuera menos rudimentaria la gestión de discos, de contenidos, etc. Nosotros siempre hemos tenido una máxima en Oracle: llevar los algoritmos al dato. Exadata hizo esto en la parte de hardware, creó una estructura que gestionaba la base de datos. Ahora mismo todos los automatismos y el Machine Learning aplicado dentro de la base de datos lo que proporcionan es beneficio a la base de datos y a los usuarios que la gobiernan.

Gracias a estos avances se pueden automatizar tareas que estaban consumiendo mucho tiempo, y que además son la base de la mayoría de los problemas que tienen los usuarios, que normalmente son errores humanos. Errores como volúmenes que se han quedado sin espacio o cambios en las programaciones que se han hecho. Es decir, un montón de cosas que, con la mejor voluntad, al final son responsabilidad de quienes administran la base de datos.

Eso es lo que se sustituye por un sistema autónomo, que va aprendiendo tanto de la infraestructura como del propio gobierno de la base de datos. Y pone así todos los automatismos que se han ido creando al servicio automático de las personas que están utilizando los datos. Esta es la visión de Autonomous Database.

Esto no se consigue desde la primera versión que acabamos de sacar, digamos que ahora hay algunos clientes que lo están probando, los sistemas se van entrenando. De ahí que se entrenen en esta carga de trabajo que es típicamente Data Warehouse y que vayan incorporando todo el conocimiento para llegar a las tres cosas que estamos diciendo con respecto a Autonomous Database:

  • Que la BD sea capaz de automanejarse
  • Que la BD sea capaz de responder a violaciones de la seguridad.
  • Que la BD sea capaz de autoescalarse.

MCPRO: Siempre que se habla de IA se menciona su aplicación a un dominio concreto a un campo, a un contexto concreto. En este caso, ¿las capacidades de aprendizaje están contenidas en una parte común a toda clase de escenarios o tenéis previsto que más adelante, aparte de la distinción entre Data Warehouse y OLTP, haya incluso más aplicaciones verticales en distintos sectores?

Elena Montoya: En el caso de Autonomous Database la IA, el aprendizaje, es común para cualquier tipo de uso que se haga del software. Es verdad también que vamos a aplicar Machine Learning en toda nuestra gama de tecnologías y productos, tanto PaaS como SaaS. Esto lo llevamos haciendo fundamentalmente en aplicaciones desde hace varios años ya. En la capa de aplicación, que sí que puede ser más específica en caso de, por ejemplo, Recursos Humanos, o Supply Chain, o ERP, Machine Learning pone esos algoritmos dentro de las aplicaciones y, obviamente, aprenden dentro de un contexto más específico. Quizás no tanto industrial, pero sí aplicado a una parte dentro del negocio. Esa capa está dentro de las aplicaciones en SaaS, y fue la primera en incorporar Machine Learning. Ahora mismo lo que hemos incorporado de Machine Learning en bases de datos es de propósito general. Cualquier usuario en cualquier negocio que quiera hacer uso de una bases de datos autónoma se va a beneficiar de todo lo que el sistema ha aprendido de usuarios como él y de usuarios de cualquier otro negocio.

MCPRO: ¿Podemos decir que esta incorporación de Machine Learning va ligada a entornos Cloud?

Elena Montoya: Es algo íntimamente ligado a Cloud. Aquí hay dos cosas que son importantes. Por un lado los propios automatismos que tiene la BD y, por otro, la plataforma sobre la que funciona. Hay mucho aprendizaje que tiene que ver son la infraestructura en la que está situada esa base de datos.

Sabes que Autonomous Data Warehouse lleva por detrás, como plataforma, Exadata. Entonces, Exadata para el cliente es transparente. Nos garantiza tener rendimiento pero también nos garantiza el proceso de aprendizaje desde el disco hasta el software. Es decir, en todas las capas.

El aprendizaje en infraestructura es también muy importante. Por eso, para que el proceso de IA sea completo tenemos que controlar tanto la parte de infraestructura como la de software. Y eso ahora sólo puede hacerse en el cloud.

Con el tiempo, y eso ya lo anunció Larry Ellison, se incorporará también a la oferta de Cloud híbrida de Oracle, que es lo que llamamos “Cloud at Customer”. Aquí las máquinas son propiedad del cliente y se instalan en su centro de datos, pero el modelo de “Delivery” es Cloud.

Hay algunos clientes que por seguridad en su negocio no pueden permitirse ir al Cloud público 100%, pero sí se pueden beneficiar de los sistemas de auto-parcheado, de prevención. Por eso los automatismos están presentes en la base de datos y están incorporados, pero la Inteligencia Artificial es mucho más que eso. La gestión autónoma de una plataforma, el auto-parcheado y la auto-reparación que tiene que ver con todas las capas incluyendo las capas físicas. Por eso está en el cloud.

MCPRO: El auto-parcheado, esto es, todas estas soluciones en las que el software es “consciente” en cierta medida, ¿hasta qué punto es realmente autónomo? Es decir, ¿son un conjunto de reglas que evolucionan o es una capacidad del software para detectar que algo no está bien y que tiene que ser solucionado?

Elena Montoya: Hoy por hoy lo que hace el software autónomo, en esta primera versión para Data Warehouse, es la detección y recomendación. El proceso de parcheado lo hacen nuestros especialistas en los Data Centers. El software hoy no se auto-parchea por su cuenta. Lo que sí tiene son patrones para detectar riesgos, intrusos, comportamientos anómalos,… con una serie de técnicas que le permiten detectar cuándo se están produciendo cambios en la plataforma que requieren algún tipo de intervención o de parcheado.

Los parches hoy los aplica una persona. Nuestra visión es llegar a la auto-reparación del sistema de base de datos. Hoy esto todavía no es así.

Lo que sí se resuelve es que nosotros damos un SLA de 99,995% de que el sistema estará completamente online. Que el parcheado se hará completamente online. Ninguno de nuestros clientes que han probado el software como “Early Adopters”, nunca han notado que el sistema haya sido parcheado con distintos niveles de prioridad.

Si son parches que afectan a la integridad del sistema se aplican inmediatamente. Si son parches de incorporación de nuevas funcionalidades entonces es una persona la que decide cuándo se van a aplicar. Los parches de seguridad en su mayoría se aplican automáticamente y lo que sí existe hoy es que los parches se instalan sin interrumpir el servicio.

Los parches de nueva funcionalidad todavía se aplican en momentos de baja demanda. Estamos en el primer paso. Nunca podría funciona el auto-parcheado si no consiguiéramos esa capacidad de hacerlo completamente online.

MCPRO: Entonces, en el caso de esas implantaciones de “Cloud at Customer”, entiendo que son empresas con un interés especial en la seguridad de sus datos. Por definición, si el sistema aprende es porque hay un feedback, de las instalaciones hacia la nube de Oracle. Es decir, sale cierta información de esas nubes tan privadas. ¿Esos clientes no tienen un interés especial en saber qué sale hacia fuera de sus sistemas?

Elena Montoya: En el caso de Cloud at Customer, los datos están en las máquinas del cliente, pero la operación es completamente Cloud. Hay un túnel privado con Oracle bajo un modelo estrictamente de servicio. Esto está operado por la misma Oracle o por un tipo de partners con los que tenemos acuerdos específicos.

Salen algunas cosas, como pueden ser recomendaciones, pero lo que jamás pueden ver las personas de Oracle que están en los Data Centers son los datos sensitivos, la información que el cliente almacena en las bases de datos. Como en toda base de datos existen sistema de alerta, de alarmas, detecciones, es decir, elementos incorporados en el propio software que alimentan la consola de administración o que disparan alertas.

MCPRO: En el caso de los anuncios por llegar, has hablado de la solución OLTP y también está prevista una solución NoSQL para entornos de cadencias muy altas de datos de pequeño tamaño como IoT y otra solución basada en grafos ¿Qué nos puedes avanzar sobre estos futuros servicios y productos?

Elena Montoya: Esta mañana también se ha presentado Automonous Analytics Cloud Service, que es la parte de explotación de los datos. Nuestro core es la gestión de la información, y cada cliente la gestiona desde distintos puntos de vista. Hay gente que utiliza más los datos estructurados (Autonomous Data Warehouse o Database), también tenemos muchos clientes que usan bases de datos NoSQL, como bases de datos no estructuradas. Autonomous NoSQL va a seguir la misma filosofía, vamos a tener NoSQL en el Cloud, On Premises e Híbrida. Y en estas bases de datos hay muchas necesidades de seguridad, de parcheo, de gestión. Tienen a veces que parametrizarse, configurarse la cantidad de procesos paralelos que va a tener, los niveles de concurrencia, los niveles de consumo de CPU, los niveles de crecimiento para saber cuándo te estás quedando sin espacio o no.

Es decir, toda esta problemática es común tanto a una base de datos relacional como Enterprise Edition como a una base de datos NoSQL. Aunque las formas de almacenamiento puedan ser diferentes, los problemas de la gestión son muy comunes en la mayoría de los casos. El aprendizaje automático y el uso Machine Learning es una decisión crucial y puede aplicarse en todas las partes del software. Siempre puedes ir un paso más allá y convertir muchos de los mecanismos de administración, por buenos que sean, en autónomos.

“Incorporar Machine Learning es la decisión más importante que nunca hemos tomado”
Larry Ellison

Autonomous Graph es un servicio que representa la información de un modo muy distinto y que ahora está muy de moda. Tiene dos partes muy diferentes: la propia construcción del grafo, que necesita mucho proceso para hacerla, y luego la analítica que emplea algoritmos propios de inteligencia que los clientes pueden utilizar sobre el grafo. Esto es lo que va a tener el servicio de Autonomous Graph.

Hoy tenemos Graph dentro de Enterprise Edition y de nuestros componentes Big Data. Pero hay gente que sólo quiere cargar datos, que se construya el grafo y analizarlo. Y esto es lo que va a permitir Autonomous Graph Service. Todavía no tenemos fecha definida, pero será uno de los próximos lanzamientos. Muchos de nuestros próximos anuncios incorporarán la etiqueta de “Autonomous”.

Otra de las características que vienen en breve dentro de Autonomous Database y de Autonomous Data Warehouse es toda la parte de “In Memory”. Sabes que tenemos también “In Memory Option”, que es una forma de trabajo Data Warehouse In-Memory con los datos columnares. Esto vendrá pronto dentro de Data Warehouse. Y por supuesto la Analítica, que es la parte de Graph.

La idea de Autonomous Graph Service es que se pueda construir el grafo y hacer la analítica sobre datos que cargue la gente en el servicio no necesariamente requiriendo nuestro Autonomous Database por debajo. Es un poco el símil de quién se beneficia de Autonomous Database o Data Warehouse. Si en una compañía tienes cualquier herramienta de analítica de datos, de tratamiento de datos, tienes un beneficio inmediato de esto.

Cosas tan sencillas y tan difíciles como que los clientes hagan backups y los hagan bien, eso está incluido en el servicio de Autonomous Data Warehouse. Por defecto los datos están cifrados, están seguros. Las comunicaciones están securizadas y los backups se hacen sin intervención del cliente. Esto es muy importante. Cualquier aplicación se beneficia inmediatamente de esto. En Graph sucederá un poco lo mismo. Autonomous Graph tendrá inteligencia de por sí, otra gente querrá cargar datos que no necesariamente vendrán de nuestro propio software. De entornos Big Data, de base de datos, para hacer Graph Analytics.

MCPRO: Por terminar, tiene todo el sentido que en los entornos Cloud la propia arquitectura ayude a autogestionarse, por oposición a los entornos On Premises. Acaba siendo redundante que tengas un panel que te diga “Te estás quedando sin memoria, haz esto”. Y si no lo haces, tengo un problema. ¿No tiene mucha más lógica que se defina un “campo de juego”, con unos límites, con unas alarmas, con unos thresholds y que el propio sistema, en función de una realidad que puede ser que haya unos picos de sobrecarga, se adapte a eso y aprenda y sepa cómo gestionarse? Evitar eso en otros campos ya está resuelto.

Elena Montoya: La verdad es que esa definición de límites, thresholds, alarmas, ya existe. Hay gente que gestiona muchas cosas. Mucha gente está constantemente añadiendo espacio. O gestionando concurrencia, gestionando picos. Hablando de costes, hasta ahora los sistemas se diseñaban para el pico máximo de utilización. El sistema Autonomous Database es autoelástico. Es capaz de saber dónde está respecto a los márgenes que le ha indicado el cliente. Cuáles son sus políticas.

Hoy también existe diferenciación de usuarios, se les puede asignar un perfil de consumo máximo o de consumo mínimo. Pero a partir de ahí el sistema es capaz de saber y de anticipar cuando estará más o menos utilizado. Y podrá dar de baja cores por los cuales el cliente paga. Si no tienes actividad por la noche, las CPUs se apagan y el cliente no paga por ellas.

O cuando estás llegando al umbral de la previsión de carga que sea capaz de aumentarlo. Son tareas que hoy sí que teníamos muchos mecanismos de aviso, recomendación y anticipación. Pero la orquestación de todas ellas es lo que conforma el paso de llegar a ser autónomo.

Por último, hay un aspecto que para nosotros es muy importante, como es la ciberseguridad. Securizar la base de datos desde el origen o el tema del backup. En el futuro también llegará el Disaster Recovery.

Todo eso hace que al final el foco de la preocupación de los clientes vaya más a qué datos tengo que meter aquí y cómo los voy a explotar que no a este tipo de tareas que ya estaban bastante automatizadas pero que no eran autónomas.

MCPRO: Muchas gracias por su tiempo. Ha sido un placer.

Cerca de un ordenador desde 1980, me sigue intrigando cómo funcionan, para lo que sirven y cómo cambian nuestras vidas, trabajos y la sociedad en su conjunto. Coordino los contenidos de MCPro.

Entrevistas

Deloitte: “Los usuarios de negocio han acogido muy bien la plataforma ágil de Salesforce”

Hablamos con Carlos González López, gerente de Deloitte en Utilities y Telecomunicaciones, sobre la práctica Salesforce en estos dos sectores.

Publicado el

Carlos González López, gerente de Deloitte especializado en la práctica Salesforce

Carlos González López es gerente del área de Utilities (compañías que ofrecen servicios públicos como agua, gas, electricidad o autopistas), Medios y Telecomunicaciones de Deloitte. Trabaja principalmente en proyectos de implantación de Salesforce en todo su ciclo de vida: desde la detección de oportunidades, venta y ejecución del proyecto, hasta el día a día de las tres actualizaciones que la Plataforma Salesforce realiza anualmente.

Además, en su faceta de “evangelizador” se ocupa de impulsar la práctica de Salesforce en los proyectos de Deloitte relacionados con los sectores de Utilities y Telecomunicaciones, y supervisa un programa personalizado y específico de formación interna para que el conocimiento y las certificaciones Salesforce dentro de Deloitte aumenten y se cuente con el talento adecuado para ejecutar los proyectos con plenas garantías.

 

Dentro de Deloitte, el área de consultoría se ocupa de enfoques estratégicos, planteamiento de soluciones y definición de la solución final para el cliente. En cuanto a la práctica Salesforce, en Deloitte son más de 4.000 los consultores localizados en 30 países y entre todos ellos superan las 5.600 certificaciones. En la zona de EMEA (Europa, Oriente Medio y África) cuentan con 900 consultores Salesforce y en España la cifra supera ya los 120, manteniéndose los actuales centros de delivery de Huesca y Zaragoza, que se han complementado con otro nuevo centro en Sevilla.

Estos centros de delivery están especializados en proyectos de desarrollo remoto que aseguran la solución desde el punto de vista técnico a la hora de hacer las personalizaciones propias de la operativa particular de cada cliente. Su objetivo es aportar especialistas que garanticen que la solución técnica que se quiere implantar es robusta y escalable, al tiempo que proveen de desarrolladores para todo lo que tenga que ver con el código de la solución, ya que la configuración es responsabilidad del área de consultoría.

MCPRO: ¿Qué es FastEnergy?

Carlos González López: Básicamente es un acelerador para Utilities, de manera que cualquier empresa del sector energético aprovechará las ventajas de la plataforma para acelerar la implantación de Salesforce. Queremos facilitar la vida a nuestros clientes y por eso entre el 85% y el 90% de nuestra solución es configuración. El porcentaje restante es desarrollo, con ejemplos como la integración con el middleware gracias a MuleSoft [empresa recientemente comprada por Salesforce].

FastEnergy es consecuencia de toda la experiencia y conocimiento de negocio que tiene Deloitte en el sector de Utilities. Implementamos procesos de alto nivel tanto para clientes B2B como B2C que nos permiten acompañarles en todo el ciclo de vida de relación con la empresa.

FastEnergy proporciona una visión de 360º del cliente e incluye CPQ (Configure Price Quote, que ayuda a las empresas a definir con precisión el precio de los bienes a través de un amplio y constante espectro de variables), portal de clientes, marketing automation y herramientas de business intelligence que resaltan las oportunidades y permiten la venta cruzada.

Otro aspecto muy interesante de FastEnergy es la integración con Social Media. Es posible configurar “escuchas” en función a palabras o semántica para que los resultados se puedan incorporar al sistema como casos; si es un cliente asociado a su ficha y si no lo es, como un cliente potencial.

MCPRO: ¿Qué papel juega la Inteligencia Artificial de Salesforce Einstein en FastEnergy?

Carlos González López: Todavía no hemos integrado Salesforce Einstein en FastEnergy, pero obviamente llegará. Con lo que sí contamos es que toda la parte de paneles y gráficos, los llamados dashboards, se generan con Salesforce Analytics. Y también nos integramos con las comunidades de Salesforce, tanto para partners como para clientes; damos servicios a los clientes para que puedan generar nuevas solicitudes o incluso nuevos pedidos, y para que los partners cuenten con su espacio de trabajo y puedan hacer un seguimiento de sus objetivos y de las ventas que van realizando.

MCPRO: ¿Cómo acomete Deloitte un proyecto de Salesforce?

Carlos González López: Normalmente los prescriptores de proyectos de transformación digital basados en la Plataforma Salesforce son gente de negocio. Es una herramienta muy ágil que cambia el paradigma marcado por otras soluciones que tradicionalmente han sido muy rígidas, y como negocio siempre demanda agilidad con los cambios, por eso son los más interesados en la Plataforma Salesforce.

Como es lógico, todos los proyectos en Salesforce van en metodología agile, con lo cual se trabajan mucho las pruebas de concepto y las demos con los clientes para comprender muy bien sus necesidades. Siempre buscamos que en las pruebas de concepto los clientes vean reflejado su proceso de negocio.

En cuanto a las nubes de Salesforce más demandadas por nuestros clientes, la de marketing es probablemente la que tiene un retorno más inmediato y una integración más ágil, por eso tiene muy buena acogida. Pero qué duda cabe que Salesforce nació con la nube de ventas y luego evolucionó a la de servicio. Entre las tres -marketing, ventas y servicio- junto con la parte de comunidades es donde más se mueven nuestros clientes.

Además, como todo evoluciona muy rápido, también auguramos una gran demanda de la nube de IoT y del uso de Analytics y de la Inteligencia Artificial de Einstein en todas las nubes de Salesforce.

MCPRO: ¿Qué destacarías de la práctica Salesforce en Deloitte?

Carlos González López: Lo primero es el conocimiento funcional que tenemos de los procesos de negocio; llevamos muchos años trabajando con clientes de todo tipo de sectores, no solo en Utilities y en Telco, y sabemos cuáles son sus necesidades.

En segundo lugar es que nuestra práctica Salesforce está en constante crecimiento. Fomentamos mucho la formación de nuestro personal porque toda la Plataforma Salesforce evoluciona tan deprisa que si no estás en lo último de lo último, te quedas fuera.

Por último comentar el uso de aceleradores como FastEnergy, construidos a partir de las mejores prácticas a lo largo de años de experiencia. Gracias a estos aceleradores logramos que la transformación digital en la que acompañamos a nuestros clientes sea rápida y sin sobresaltos.

Continuar leyendo

Entrevistas

Cisco: “La cuestión no es si vas a tener un problema, sino cuándo”

Publicado el

Eutimio Fernández

Ataques piratas, vulnerabilidades, robo de datos, ciberguerras… raro es el día que nos levantemos sin que haya sucedido en el mundo un ataque cibernético que nos deje a todos en jaque. En paralelo con la innovación tecnológica surge la labor de aquellos que intentan utilizar estas mismas herramientas para lucrarse ilícitamente. Siempre han existido pero ahora son más fuertes que nunca.

Para conocer el punto de vista de algunos de los temas de seguridad IT más candentes de los últimos meses, hemos charlado con Eutimio Fernández, Director de Ciberseguridad en Cisco España. Para ponernos en contexto, se estima que el coste anual del cibercrimen para la economía global está en 450.000 millones de dólares (en torno al 1% del PIB mundial) y los 1.000 millones de dólares, según el Center for Strategic and International Studies y estimaciones del Gobierno de Estados Unidos.

 

El auge de las criptodivisas

MCPRO: 2017 fue, sin lugar a dudas, el año del bitcoin, la criptomoneda con mayor valoración del mercado pasaba en menos de 12 meses de los 900 dólares a superar los 19.000. Precisamente ha sido este valor el que lo ha puesto en la diana de los cibercriminales.

Eutimio Fernández: Se trata de uno de los retos de la seguridad actuales. Nos enfrentamos a una nueva amenaza mucho más rentable (y menos peligrosa para los atacantes) que los denominados ataques BEC (Business Email Compromise): el cryptojacking, o uso ilegítimo de recursos de computación para minar criptomonedas.

En los últimos meses, Talos ha observado un significativo incremento de estos ataques y calculamos que un dispositivo típico controlado por un hacker podría generar 0,25 dólares en la moneda Monero cada día, por lo que controlando 2.000 equipos podría obtener 500 dólares diarios o 182.500 dólares anuales. Y, si se trata de redes botnet de millones de dispositivos, especialmente IoT al no estar monitorizados, hablamos de más de 100 millones de dólares anuales por cada red botnet.

Además, estos ataques no implican una acción del usuario estafado (como en el caso del ransomware) y tampoco copan tanto de atención mediática. Para infectar a los usuarios se inyecta el malware basado en JavaScript en websites con miles de usuarios. Si notamos que nuestro equipo va ralentizado, lo mejor es utilizar Task Manager (Windows) o Activity Monitor (Mac OS X) para comprobar los picos en el uso de recursos de computación, desactivar JavaScript en el navegador o utilizar extensiones de navegador “No Coin”.

Los problemas de seguridad de Yahoo e Intel

MCPRO: Durante los últimos meses, dos grandes compañías (Yahoo e Intel) han estado cuestionadas por sus problemas de seguridad. De los ataques a la primera nos hemos enterado tres años después y ha costado la cabeza de su CEO, y debido a las vulnerabilidades de la segunda, millones de  fabricantes han visto comprometidos sus equipos. ¿Cómo es posible que ocurra incidentes tan graves en empresas tan conocidos y, sobre todo, como es posible que se gestionen tan mal?

Eutimio Fernández: Siempre que se desarrolla y hay humanos de por medio existe un porcentaje de fallo, es innato al propio desarrollo. De hecho, problemas de seguridad los tenemos todos los fabricantes, nosotros tenemos un departamento de vulnerabilidades descubiertas en nuestro software, luego publicamos vulnerabilidades, con su parche correspondiente y su solución.

Lo malo de esto es ocultarlo y que se descubra por otros medios. Está dentro de las buenas prácticas que si detectas una vulnerabilidad tienes que hacerla pública cuanto antes y darle solución, lo que te hacer perder reputación es intentar ocultarlo, de hecho, las empresas que lo hacen pueden perder hasta un 20% de su negocio.

Decía nuestro CEO, John Chambers, que hay dos tipos de empresas: las que van a ser hackeadas y las que ya lo han sido.

Hasta ahora ha habido mucha indefinición sobre quién debía anunciar las vulnerabilidades (Mayer en el caso de Yahoo) y ese ha sido el problema. Con el GDPR esto queda bien definido porque el responsable de los datos de la empresa establece unos mecanismos de comunicación y unos tiempos.

En el caso de las vulnerabilidades de los chips de Intel, esta ha reaccionado con rapidez. Enseguida publicó nuevos drivers y firmware. Pero, además, al tratarse de una vulnerabilidad de hardware, acaba de anunciar nuevas tecnologías de detección de amenazas a nivel de silicio/basadas en hardware. Estas tecnologías (ITDT) anunciadas en la reciente feria RSA, ayudan a detectar mejor la posible explotación de Meltdown y Spectre.

máscara de gas

La Seguridad as a Service como tendencia

MCPRO: Dentro del auge de las herramientas en la nube y los servicios de pago por uso, está cobrando especial importancia la denominada Seguridad as a Service. ¿Es la falta de profesionales en ciberseguridad la causa de esta tendencia?

Eutimio Fernández: Recuerdo hace muchos años que la gente decía “cómo voy a dejar mi firewall en manos de un tercero”. Pues no tenemos más remedio que hacerlo porque no hay gente suficiente que sepa de seguridad como para ponerla on-premise en todas partes. Digamos que el modelo “como servicio” trae muchas ventajas, tiene medidos los costes, el precio de las infraestructura es menor, etc… te libera de mucho profesional cualificado.

Los proveedores de servicios de seguridad gestionados ayudan a los clientes a proteger su red frente a amenazas avanzadas, a reducir los costes de detección y mitigación del malware y a contar con el apoyo de expertos en ciberseguridad.

Además de la falta de expertos en ciberseguridad, la falta de presupuesto hace que las organizaciones se apoyen cada vez más en el outsourcing. Según el Informe de Ciberseguridad 2018 de Cisco:

  • Un 49% de los profesionales de seguridad externalizaron servicios de monitorización en 2017 (cifra global), frente al 44% en 2016.
  • El 47% externalizaron la respuesta frente a incidentes (42% en 2016) y el 54% optaron por servicios de consultoría (51% en 2016, cifras globales).

Las ciberguerras entre países

MCPRO: Hace un par de meses el secretario general de la ONU, António Guterres, decía: “Ya existen episodios de guerra cibernética entre estados. Y lo peor es que no hay un esquema reglamentario para este tipo de guerra, no está claro si ahí se aplica la Convención de Ginebra o el Derecho Internacional pueden aplicarse en estos casos”, ¿tenemos que estar asustados?

Eutimio Fernández: La ciberguerra es algo real. Escuchando una vez a un ex miembro del Ministerio de Defensa que se movió al mundo de la ciberseguridad, decía: “Yo me voy donde está la guerra en el siglo XXI”, y es verdad. Ya no acabas con una ciudad tirándole una bomba, con que le cortes la luz y el gas un par de días, ya te la has cargado.

Es cierto que un gran número de ciberataques responden a motivos geopolíticos. Y, a veces, se disfrazan de motivos económicos. Por ejemplo, Nyetya, que atacó a las instituciones de Ucrania, fue un ataque geopolítico que pretendía destruir los sistemas de Hacienda de la Administración ucraniana, aunque iba disfrazado de ransomware (rastreamos la dirección para justificar los pagos del rescate y no existían). Las ciberguerras son también preocupantes por la magnitud de sus objetivos: centrales nucleares, suministros eléctricos, etc

Con respecto a los avisos de los gobiernos de Reino Unido y Estados Unidos frente a distintas vulnerabilidades (Telnet, HTTP, SNMP…) Cisco está de acuerdo en las recomendaciones referentes a securizar protocolos y mantener una buena higiene de red. Pero no entramos a comentar la posible explotación de dichas vulnerabilidades por parte de otros gobiernos o agencias extranjeros.

No obstante, los proveedores de seguridad debemos mantenernos al margen de las ciberguerras. No colaborar con Gobiernos o Agencias de Inteligencia y defender lo que realmente importa: a nuestros clientes.

A nivel nacional, en España estamos haciendo las cosas bien, otra coas es asegurar si podemos tener un problema de seguridad, porque podemos tenerlo, como todos. La cuestión no es si vas a tener un problema sino cuándo.

 

Continuar leyendo

Entrevistas

Netflix: “Nuestro plan para España es estar en un tercio de los hogares en siete años”

Hablamos con Yann Lafargue, responsable de Corporate Communications EMEA en Netflix sobre el mercado del VOD (vídeo bajo demanda). Este entorno ha transformado la forma de consumo de contenidos, respondiendo a una demanda que, se ha demostrado, estaba latente, también en el mercado español.

Publicado el

Yann Lafargue

Netflix lleva apenas tres años en España y ya nadie (o casi nadie) puede vivir sin ella. Como usuaria, podría decir que su éxito se basa en tener precios competitivos, ofrecer una gran calidad audiovisual y lanzar continuamente contenidos interesantes, sin olvidar que son pioneros en entrar en un mercado donde la piratería era casi motivo de orgullo nacional, hasta hace poco.

Para tener una visión más objetiva de su estrategia quisimos acercarnos lo más posible a las personas que están detrás de este negocio. Sin embargo, es difícil acceder a ellos, sobre todo porque sigue sin quedarnos claro cuál es la estructura organizativa en España, o conocer datos más locales a nivel de audiencia y ritmo de crecimiento.

 

Al final conseguimos hablar con Yann Lafargue, responsable de Corporate Communications EMEA en Netflix, el único portavoz disponible que más conoce el mercado ibérico. Y esto es lo que nos ha contado.

MCPRO: Netflix ha conseguido lo que nadie pensaba que se lograría en España: pagar por una suscripción y ganarle la partida a la piratería, ¿fue difícil plantearse aterrizar aquí?

Yann Lafargue: En este aspecto siempre fuimos bastante optimistas, basándonos en los precedentes en otros mercados y en la buena acogida del mercado español. Hemos comprobado, a partir de estudios independientes, cómo la llegada de Netflix había reducido los índices de piratería en determinados mercados, como en Australia por ejemplo. Otro buen ejemplo son los países nórdicos, cuya media de descargas ilegales descendió considerablemente a pesar de tener los índices más altos respecto al resto de mercados.

Tras nosotros no han dejado de aparecer nuevos players en el mercado del VOD (vídeo bajo demanda), este entorno ha transformado la forma de consumo de contenidos, respondiendo a una demanda que, se ha demostrado, estaba latente, también en el mercado español. Es bueno de cara a hacer frente a las descargas ilegales el que haya más plataformas como la nuestra, ayudando a combatirla con una alternativa real y de calidad. Nuestra experiencia nos demuestra que a la gente no le importa pagar 8 o 10 euros al mes por una buena oferta y con calidad de imagen.

MCPRO: ¿Cómo es la estructura organizativa en Europa?

Yann Lafargue: Ámsterdam es la sede central de Netflix en Europa, Oriente Medio y África (EMEA), la cual ha duplicado su plantilla desde principios de 2016. Más de 200 empleados de 20 países trabajan en la sede de EMEA, dedicados al desarrollo de negocio, marketing, relaciones públicas y funciones corporativas tales como finanzas, legal y RRHH.

MCPRO: ¿Cuántos suscriptores tenéis en España y cuál es vuestro ritmo de crecimiento?

Yann Lafargue: No compartimos datos de usuarios por mercados específicos. Desde nuestro lanzamiento a nivel internacional, nos consideramos una compañía global, aunque si es cierto que cada país tiene unas circunstancias y peculiaridades propias que son seguidas y tenidas en cuenta en cada catalogo correspondiente.

Actualmente, con más de 125 millones de suscriptores en más de 190 países, Netflix es la cadena de televisión por Internet líder en el mundo. Sus usuarios disfrutan a diario de más de 140 millones de horas de series y películas, incluidos los documentales, las películas y las series originales.

MCPRO: ¿Qué nos puedes contar del perfil del espectador español?

Yann Lafargue: En España como en otros países, la buena acogida ha sido común por parte de aquellos entusiastas por los contenidos, especialmente las series originales de Netflix. Sin embargo, el reto que sigue a esta llegada y que estamos actualmente abordando es la construcción de una audiencia más general, formando parte de las vidas de todos los miembros de la familia. Los primeros datos muestran un comportamiento similar al de otros países: la audiencia española dedica cada vez más tiempo de ocio en Netflix y prefiere los contenidos exclusivos.

La constante ampliación de catálogo, el sistema de recomendaciones, hecho a medida de cada uno de ellos, y ahora el modo offline, permite convertir cualquier desplazamiento o lugar en una oportunidad para poder seguir sus contenidos preferidos. Por lo tanto, uno de los principales retos ahora mismo es la parte “educativa” respecto al consumo del vídeo bajo demanda (VOD) y el streaming, relativamente nuevo para algunos segmentos, pero una evolución que responde a las necesidades de consumo frente a la televisión convencional.

Nuestro plan para España es el mismo que para otros territorios: estar en un tercio de los hogares en siete años.

MCPRO: ¿Cuánta inversión destináis a la compra o producciones locales?

Yann Lafargue: A nivel de mercados podemos hablar a nivel europeo. Recientemente, en palabras del propio Ted Sarandos, director de Contenido de Netflix, hemos anunciado que para este 2018 estamos duplicando el contenido y la inversión en el continente, respecto a 2017.

En total, la inversión en el mercado europeo se situará en los  1.000 millones de dólares en contenido, prácticamente el doble que en 2016.

En el caso de España hemos anunciado la producción de la 3ª temporada de La Casa de Papel, así como las nuevas temporadas de Las Chicas del Cable (S3), Paquita Salas (S2),  y la nueva original española Élite, que se estrenará en 2019. Paralelamente otras producciones destacadas son Elisa y Marcela de Isabel Coixet, y en el terreno documental son Dos Cataluñas y El crimen de Alcásser

MCPRO: ¿Cómo veis la competencia de HBO y Amazon? ¿creéis que podéis convivir todos sin veros afectados?

Yann Lafargue: Cabe decir que para nosotros la competencia no son solo HBO, Amazon o Sky, es todo aquello que haces en tu tiempo libre.  Desde nuestro punto de vista, la competencia y la diversidad de la oferta es algo bueno, dado que el streaming está siendo adoptado por los usuarios como una nueva forma y hábito de consumo, mucho más acorde con sus necesidades y estilo de vida. La aparición de nuevas opciones está siendo clave para cambiar estos hábitos.

Del mismo modo y basándonos en nuestra experiencia los resultados de esta competencia no son negativos.

“Siempre que el contenido sea de calidad, nuestras ofertas no son excluyentes y sí compatibles”

Nuestra estrategia de crecimiento entonces debe girar especialmente en torno a la producción de contenidos propios, especialmente durante los próximos meses.

MCPRO: ¿Nos puedes adelantar algunas novedades en las que estéis trabajando, a nivel tecnológico?

Yann Lafargue: A nivel tecnológico, concretamente en la app, recientemente hemos presentado nuestros nuevos avances para dispositivos móviles (ya disponibles en iOs y próximamente en Android). Estos avances ofrecen una manera sencilla de descubrir todo el contenido nuevo de Netflix y de encontrar contenidos de forma mucho más rápida. Cada avance tiene una duración aproximada de 30 segundos y se presenta en formato vertical, para poder visualizarlo sin necesidad de rotar el dispositivo.

Desde siempre en Netflix hemos tenido claro que el futuro de la televisión no se limita al televisor o a un solo dispositivo. El consumo televisivo no está condicionado por un lugar y hora, sino que son los contenidos los que les acompañan y se adaptan a los hábitos y rutinas de cada usuario y no al revés.

En Netflix no queremos esperar al futuro y estamos aplicando todas estas tendencias ahora e innovando en todo lo que está por llegar. De este modo, incluso antes de que los creadores de historias se pongan manos a la obra para originar una nueva producción, el equipo de contenidos ha utilizado esta información para aportar unas guías de lo que el usuario querrá encontrar.

MCPRO: ¿Qué hacéis con el contenido que no funciona? ¿Cómo gestionáis eso?

Yann Lafargue: El contenido que no funciona, acaba por no ser renovado. Para ello consideramos factores como: si están todavía disponibles los derechos para renovar la licencia de streaming;  cuál es la popularidad y el coste de un título en particular y/o otros factores concretos.

MCPRO: Ahora estáis en 190 países, ¿cuáles son vuestros próximos destinos?

Yann Lafargue: Actualmente tenemos una presencia global y siempre estamos abiertos a posibles nuevos mercados. Una pregunta común es acerca de China, donde por el momento no nos planteamos esa opción.

Continuar leyendo

Lo más leído