Conecta con nosotros
jorge jorge

Entrevistas

“La mitad de lo que leemos en Facebook es mentira”

Jorge Oteo es el actual CIO de Vocento, pero su vida profesional también ha estado ligada durante más de 20 años a los departamentos tecnológicos de PRISA y Unidad Editorial.

Jorge Oteo

CIO

Vocento

Publicado el

Uno de los sectores que más se ha visto afectado por la digitalización ha sido el de los medios de comunicación escritos. Los continuos cambios tecnológicos están provocando una gran revolución en esta industria, demasiado tradicional como para adaptarse al ritmo que impone el mercado.

A pesar de ser de los primeros en darse cuenta de que el futuro pasaba por lo on-line, quizás no contaban con que sus principales rivales no iban a ser, como siempre, la cabecera rival, sino las grandes tecnológicas provenientes del otro lado del charco.

 

Para tratar este asunto, hemos entrevistado a Jorge Oteo, actual CIO de Vocento, y cuya vida profesional ha estado ligada durante más de 20 años a los departamentos tecnológicos de PRISA y Unidad Editorial.

Vocento tiene una cuota de mercado del 24,7% en prensa escrita en España, 2,2 millones de lectores y una audiencia digital superior a 21 millones de usuarios únicos. Su buque insignia es el diario nacional ABC, pero el grupo lo forman más de 100 empresas, entre las que destacan los diarios regionales El Correo País Vasco, La Verdad Región de Murcia, Diario HOY, El Comercio, Las Provincias, etc.

Casi tres décadas en los departamentos de TI de las principales editoriales de nuestro país le han dado a Jorge Oteo para “sufrir” muchos cambios a nivel tecnológico, hasta el punto de ser testigo directo de las modificaciones en el negocio de los medios y la forma en que se comunican con sus lectores. “La mayor transformación fue la eclosión de Internet, esa ha sido la verdadera revolución para el sector media. Y eso que fuimos de los primeros en apuntarnos al carro y crear nuestras página web, poniendo información ahí, sin saber muy bien cuál era el negocio, simplemente estando”.

“A raíz de todo esto aparecieron empresas como Google, Amazon…. que nos han fastidiado un poco el negocio aunque también nos han hecho transformarnos antes que otras industrias, incluso mucho antes que la banca o el retail“. Ni el cloud, ni el Big Data, ni la digitalización han provocado tanta revolución como la llegada de Internet a nuestras casas y a nuestras oficinas.

Las dos principales consecuencias de todo esto aún están tratando de ajustarse al cariz tradicional de la prensa escrita en España, y estas son: el cambio en la gestión de la publicidad y en la de los contenidos, los dos pilares de la prensa.

En una cultura como la española, donde el contenido on-line siempre ha sido gratuito (con excepciones), ha provocado que se desvalorice todo lo que nos llega a través de la Red. Esto supone un laste en la transformación de los medios de comunicación y un reto: sacar la suficiente rentabilidad a este tipo de soporte, logrando acabar con la dependencia del papel, en claro retroceso.

A esto se le suma la llegada al mercado de competidores inesperados, que se han apropiado de gran parte de ‘la tarta de marketing’. “La publicidad ha cambiado de manos, antes éramos nosotros quienes teníamos la exclusiva y ahora son las empresas TIC, como Google, las que se están llevando el gato al agua”.

“El control de la publicidad por empresas como Google es el cambio que más daño ha hecho a los medios”

A los medios no les ha quedado otra que buscar nuevas fórmulas para sobrevivir. A decir verdad, no han descubierto la rueda sino que han decidido adoptar algunas de las recetas que ya utilizan Amazon, Facebook o Google: sacar dinero a sus datos. “Hemos vivido una revolución interna que nos cambió el concepto de publicidad que teníamos. Antes, poníamos un anuncio en la tele o en el periódico y no nos enterábamos si se estaba viendo o no. Internet nos ha hecho interactuar mucho más con las personas, sabemos quién nos lee, incluso podemos elegir la publicidad que les ofrecemos, intentando ser lo menos intrusivos posible. Se abren muchos caminos ahí”.

vocento

Tener tantos datos sobre los usuarios permite a Vocento desarrollar otros negocios. “Nos estamos diversificando, ahora ofrecemos cupones de descuento en restaurantes y cines, vendemos cajas de belleza… algo que es posible porque ya conocemos a la gente a la que vendemos periódicos, tenemos mucha fuerza en los sitios donde estamos y podemos influir”.

También usan esta información para segmentar a los usuarios a la hora de enviarles publicidad, aunque no para dirigir los contenidos. Aunque técnicamente se pueda, la analítica se topa de frente con la personalidad del periodista, que es quien percibe, “lo que le gusta a la gente, ellos quieren seguir siendo los prescriptores y hacer esa segmentación”. No es tan sencillo lograr ese cambio que permita a la máquina hacer su trabajo, al menos, de momento.

Suscripciones, ¿sí o no?

Si echamos un vistazo a lo que están haciendo en Estados Unidos desde hace tiempo, los modelos de suscripción triunfan, extendiéndose con rapidez como fórmula de éxito para fidelizar al usuario. En España se han hecho algunos intentos de pago por contenido con un éxito más que cuestionable en prensa escrita; sin embargo, la llegada de plataformas de vídeo que también funcionan con este sistema, tipo Netflix o HBO, ha abierto un rayo de esperanza a la fórmula, ya que están consiguiendo lo que nadie pensó que lograrían en nuestro país: acabar poco a poco con la piratería.

Si a esto se suma que empresas de la talla de Apple estén pensando lanzar un servicio de pago por contenido, nos hace pensar que, aunque lentamente, algo está cambiando en la mentalidad española del “todo gratis”.

En Vocento tienen claro que es un modelo por el que apuestan y que obtendrán resultados a medio y largo plazo. “Ahora mismo tenemos cuatro periódicos regionales que tienen paywall. Dejamos que nuestros usuarios lean 10 artículos gratis al mes, pero luego ya cerramos el acceso; durante este año haremos lo mismo con el resto de cabeceras regionales”, nos adelantó Oteo, quien nos reconoció que tiene sus dudas respecto al éxito de este modelo en diarios nacionales como el ABC, donde las noticias tienen más competencia.

No obstante, no hay que olvidar que este modelo exige un nivel muy alto en la calidad de los contenidos. “Nos está haciendo cambiar el modelo tradicional de clics y volumen a un modelo de calidad, ahora la información tiene que ser mucho más interesante porque la gente está pagando por lo que está consumiendo”.

Al fin y al cabo, el directivo indica que los lectores se acercan “donde la información es contrastada y fiable y van a leer sus medios tradicionales para las cosas importantes“. Para cosas más livianas, el recurso más habitual es leer en Facebook, donde “la mitad de la información es mentira“, indica.

La gente tiene que notar un diferencial y nuestros medios regionales son muy potentes, tenemos una cuota de mercado grandísima y somos muy diferenciales“. A este respecto también se ha pronunciado el presidente del grupo, Santiago Bergareche, durante la celebración de su junta general de accionistas, donde ha indicado que su estrategia empresarial estará dirigida, entre otras cosas, a extender la apuesta por las suscripciones de pago online.

El papel no desaparecerá

A pesar de todo lo indicado anteriormente, y de que la apuesta de Vocento está claramente orientada al on-line y a potenciar el uso de formatos digitales como el vídeo (“es importantísima y fundamental“), Oteo cree que “el papel no desaparecerá nunca“. El directivo apuesta más bien por un cambio que puede pasar por menores tiradas, contenidos más exclusivos, papel solo en fin de semana, etc.

Hace unos meses, la OJD publicaba que, en julio de 2017, la suma de ejemplares vendidos de los seis grandes diarios tuvo una caída del 14,3%. Para que nos hagamos una idea de las dimensiones, en 2007, El País vendía 344.412 ejemplares, según las mismas fuentes; hoy, ni siquiera la suma del diario de PRISA y todos sus competidores logran igualar este dato.

Los volúmenes que teníamos antes nunca se repetirán, pero a lo mejor llegan formatos de mucha más calidad“, dice optimista Oteo. Al fin y al cabo, y pese a quien le pese, el papel sigue teniendo muchos adeptos, sobre todo del lado de los anunciantes. “Entre un 60 y un 70% de los ingresos de los medios de comunicación escritos tradicionales vienen del papel, y el digital supone entre el 30 y el 40%. Por tanto, aunque esté muriendo, el papel es la fuente más importante de nuestros ingresos”. Mientras que en otros países, como Alemania o Estados Unidos han conseguido ya que el principal sea el digital, en España lo tenemos más difícil por culpa de que “no le hemos dado el valor que tiene la publicidad on-line y ahora es muy barata comparada con el coste de una página impresa”.

Conclusiones

Tras hablar con una persona con tanta experiencia en el mundo TI de los medios de comunicación como Jorge Oteo, llego a la conclusión de que la transformación del sector necesita, irremediablemente, de un cambio de mentalidad por parte de los lectores y de los anunciantes. El contenido bueno ha de pagarse, igual que pagamos servicios como la luz, el agua o la comida y si, como dicen por ahí, la fortaleza de un país se mide, entre otras cosas, por la fortaleza de sus medios de comunicación, está claro que es un asunto que nos afecta a todos.

Durante mucho tiempo, la publicidad online se ofrecía gratis como un “regalo” por la contratación de espacios en papel o en la radio, y esto está pasando factura hoy en día. Como nos ha comentado Oteo, el formato digital por sí solo no es capaz aún de sostener ningún medio de comunicación escrito, sea grande o pequeño.

No obstante, todo hace pensar que el futuro es esperanzador para el sector media, ya que lo digital lleva un tiempo triunfando en otros países de referencia (como Estados Unidos) y sus modelos de rentabilidad se están extraditando a España con un éxito más o menos palpable, aunque creciente. Herramientas nuevas como el vídeo o el Big Data, junto al enorme conocimiento que tienen grupos como Vocento de sus lectores serán los instrumentos con los que orquestar los medios de comunicación del futuro.

Periodista especializada en tecnologías corporate, encargada de las entrevistas en profundidad y los reportajes de investigación en MuyComputerPRO. En el ámbito del marketing digital, gestiono y ejecuto las campañas de leads generation y gestión de eventos.

Entrevistas

Deloitte: “Los usuarios de negocio han acogido muy bien la plataforma ágil de Salesforce”

Hablamos con Carlos González López, gerente de Deloitte en Utilities y Telecomunicaciones, sobre la práctica Salesforce en estos dos sectores.

Publicado el

Carlos González López, gerente de Deloitte especializado en la práctica Salesforce

Carlos González López es gerente del área de Utilities (compañías que ofrecen servicios públicos como agua, gas, electricidad o autopistas), Medios y Telecomunicaciones de Deloitte. Trabaja principalmente en proyectos de implantación de Salesforce en todo su ciclo de vida: desde la detección de oportunidades, venta y ejecución del proyecto, hasta el día a día de las tres actualizaciones que la Plataforma Salesforce realiza anualmente.

Además, en su faceta de “evangelizador” se ocupa de impulsar la práctica de Salesforce en los proyectos de Deloitte relacionados con los sectores de Utilities y Telecomunicaciones, y supervisa un programa personalizado y específico de formación interna para que el conocimiento y las certificaciones Salesforce dentro de Deloitte aumenten y se cuente con el talento adecuado para ejecutar los proyectos con plenas garantías.

 

Dentro de Deloitte, el área de consultoría se ocupa de enfoques estratégicos, planteamiento de soluciones y definición de la solución final para el cliente. En cuanto a la práctica Salesforce, en Deloitte son más de 4.000 los consultores localizados en 30 países y entre todos ellos superan las 5.600 certificaciones. En la zona de EMEA (Europa, Oriente Medio y África) cuentan con 900 consultores Salesforce y en España la cifra supera ya los 120, manteniéndose los actuales centros de delivery de Huesca y Zaragoza, que se han complementado con otro nuevo centro en Sevilla.

Estos centros de delivery están especializados en proyectos de desarrollo remoto que aseguran la solución desde el punto de vista técnico a la hora de hacer las personalizaciones propias de la operativa particular de cada cliente. Su objetivo es aportar especialistas que garanticen que la solución técnica que se quiere implantar es robusta y escalable, al tiempo que proveen de desarrolladores para todo lo que tenga que ver con el código de la solución, ya que la configuración es responsabilidad del área de consultoría.

MCPRO: ¿Qué es FastEnergy?

Carlos González López: Básicamente es un acelerador para Utilities, de manera que cualquier empresa del sector energético aprovechará las ventajas de la plataforma para acelerar la implantación de Salesforce. Queremos facilitar la vida a nuestros clientes y por eso entre el 85% y el 90% de nuestra solución es configuración. El porcentaje restante es desarrollo, con ejemplos como la integración con el middleware gracias a MuleSoft [empresa recientemente comprada por Salesforce].

FastEnergy es consecuencia de toda la experiencia y conocimiento de negocio que tiene Deloitte en el sector de Utilities. Implementamos procesos de alto nivel tanto para clientes B2B como B2C que nos permiten acompañarles en todo el ciclo de vida de relación con la empresa.

FastEnergy proporciona una visión de 360º del cliente e incluye CPQ (Configure Price Quote, que ayuda a las empresas a definir con precisión el precio de los bienes a través de un amplio y constante espectro de variables), portal de clientes, marketing automation y herramientas de business intelligence que resaltan las oportunidades y permiten la venta cruzada.

Otro aspecto muy interesante de FastEnergy es la integración con Social Media. Es posible configurar “escuchas” en función a palabras o semántica para que los resultados se puedan incorporar al sistema como casos; si es un cliente asociado a su ficha y si no lo es, como un cliente potencial.

MCPRO: ¿Qué papel juega la Inteligencia Artificial de Salesforce Einstein en FastEnergy?

Carlos González López: Todavía no hemos integrado Salesforce Einstein en FastEnergy, pero obviamente llegará. Con lo que sí contamos es que toda la parte de paneles y gráficos, los llamados dashboards, se generan con Salesforce Analytics. Y también nos integramos con las comunidades de Salesforce, tanto para partners como para clientes; damos servicios a los clientes para que puedan generar nuevas solicitudes o incluso nuevos pedidos, y para que los partners cuenten con su espacio de trabajo y puedan hacer un seguimiento de sus objetivos y de las ventas que van realizando.

MCPRO: ¿Cómo acomete Deloitte un proyecto de Salesforce?

Carlos González López: Normalmente los prescriptores de proyectos de transformación digital basados en la Plataforma Salesforce son gente de negocio. Es una herramienta muy ágil que cambia el paradigma marcado por otras soluciones que tradicionalmente han sido muy rígidas, y como negocio siempre demanda agilidad con los cambios, por eso son los más interesados en la Plataforma Salesforce.

Como es lógico, todos los proyectos en Salesforce van en metodología agile, con lo cual se trabajan mucho las pruebas de concepto y las demos con los clientes para comprender muy bien sus necesidades. Siempre buscamos que en las pruebas de concepto los clientes vean reflejado su proceso de negocio.

En cuanto a las nubes de Salesforce más demandadas por nuestros clientes, la de marketing es probablemente la que tiene un retorno más inmediato y una integración más ágil, por eso tiene muy buena acogida. Pero qué duda cabe que Salesforce nació con la nube de ventas y luego evolucionó a la de servicio. Entre las tres -marketing, ventas y servicio- junto con la parte de comunidades es donde más se mueven nuestros clientes.

Además, como todo evoluciona muy rápido, también auguramos una gran demanda de la nube de IoT y del uso de Analytics y de la Inteligencia Artificial de Einstein en todas las nubes de Salesforce.

MCPRO: ¿Qué destacarías de la práctica Salesforce en Deloitte?

Carlos González López: Lo primero es el conocimiento funcional que tenemos de los procesos de negocio; llevamos muchos años trabajando con clientes de todo tipo de sectores, no solo en Utilities y en Telco, y sabemos cuáles son sus necesidades.

En segundo lugar es que nuestra práctica Salesforce está en constante crecimiento. Fomentamos mucho la formación de nuestro personal porque toda la Plataforma Salesforce evoluciona tan deprisa que si no estás en lo último de lo último, te quedas fuera.

Por último comentar el uso de aceleradores como FastEnergy, construidos a partir de las mejores prácticas a lo largo de años de experiencia. Gracias a estos aceleradores logramos que la transformación digital en la que acompañamos a nuestros clientes sea rápida y sin sobresaltos.

Continuar leyendo

Entrevistas

Cisco: “La cuestión no es si vas a tener un problema, sino cuándo”

Publicado el

Eutimio Fernández

Ataques piratas, vulnerabilidades, robo de datos, ciberguerras… raro es el día que nos levantemos sin que haya sucedido en el mundo un ataque cibernético que nos deje a todos en jaque. En paralelo con la innovación tecnológica surge la labor de aquellos que intentan utilizar estas mismas herramientas para lucrarse ilícitamente. Siempre han existido pero ahora son más fuertes que nunca.

Para conocer el punto de vista de algunos de los temas de seguridad IT más candentes de los últimos meses, hemos charlado con Eutimio Fernández, Director de Ciberseguridad en Cisco España. Para ponernos en contexto, se estima que el coste anual del cibercrimen para la economía global está en 450.000 millones de dólares (en torno al 1% del PIB mundial) y los 1.000 millones de dólares, según el Center for Strategic and International Studies y estimaciones del Gobierno de Estados Unidos.

 

El auge de las criptodivisas

MCPRO: 2017 fue, sin lugar a dudas, el año del bitcoin, la criptomoneda con mayor valoración del mercado pasaba en menos de 12 meses de los 900 dólares a superar los 19.000. Precisamente ha sido este valor el que lo ha puesto en la diana de los cibercriminales.

Eutimio Fernández: Se trata de uno de los retos de la seguridad actuales. Nos enfrentamos a una nueva amenaza mucho más rentable (y menos peligrosa para los atacantes) que los denominados ataques BEC (Business Email Compromise): el cryptojacking, o uso ilegítimo de recursos de computación para minar criptomonedas.

En los últimos meses, Talos ha observado un significativo incremento de estos ataques y calculamos que un dispositivo típico controlado por un hacker podría generar 0,25 dólares en la moneda Monero cada día, por lo que controlando 2.000 equipos podría obtener 500 dólares diarios o 182.500 dólares anuales. Y, si se trata de redes botnet de millones de dispositivos, especialmente IoT al no estar monitorizados, hablamos de más de 100 millones de dólares anuales por cada red botnet.

Además, estos ataques no implican una acción del usuario estafado (como en el caso del ransomware) y tampoco copan tanto de atención mediática. Para infectar a los usuarios se inyecta el malware basado en JavaScript en websites con miles de usuarios. Si notamos que nuestro equipo va ralentizado, lo mejor es utilizar Task Manager (Windows) o Activity Monitor (Mac OS X) para comprobar los picos en el uso de recursos de computación, desactivar JavaScript en el navegador o utilizar extensiones de navegador “No Coin”.

Los problemas de seguridad de Yahoo e Intel

MCPRO: Durante los últimos meses, dos grandes compañías (Yahoo e Intel) han estado cuestionadas por sus problemas de seguridad. De los ataques a la primera nos hemos enterado tres años después y ha costado la cabeza de su CEO, y debido a las vulnerabilidades de la segunda, millones de  fabricantes han visto comprometidos sus equipos. ¿Cómo es posible que ocurra incidentes tan graves en empresas tan conocidos y, sobre todo, como es posible que se gestionen tan mal?

Eutimio Fernández: Siempre que se desarrolla y hay humanos de por medio existe un porcentaje de fallo, es innato al propio desarrollo. De hecho, problemas de seguridad los tenemos todos los fabricantes, nosotros tenemos un departamento de vulnerabilidades descubiertas en nuestro software, luego publicamos vulnerabilidades, con su parche correspondiente y su solución.

Lo malo de esto es ocultarlo y que se descubra por otros medios. Está dentro de las buenas prácticas que si detectas una vulnerabilidad tienes que hacerla pública cuanto antes y darle solución, lo que te hacer perder reputación es intentar ocultarlo, de hecho, las empresas que lo hacen pueden perder hasta un 20% de su negocio.

Decía nuestro CEO, John Chambers, que hay dos tipos de empresas: las que van a ser hackeadas y las que ya lo han sido.

Hasta ahora ha habido mucha indefinición sobre quién debía anunciar las vulnerabilidades (Mayer en el caso de Yahoo) y ese ha sido el problema. Con el GDPR esto queda bien definido porque el responsable de los datos de la empresa establece unos mecanismos de comunicación y unos tiempos.

En el caso de las vulnerabilidades de los chips de Intel, esta ha reaccionado con rapidez. Enseguida publicó nuevos drivers y firmware. Pero, además, al tratarse de una vulnerabilidad de hardware, acaba de anunciar nuevas tecnologías de detección de amenazas a nivel de silicio/basadas en hardware. Estas tecnologías (ITDT) anunciadas en la reciente feria RSA, ayudan a detectar mejor la posible explotación de Meltdown y Spectre.

máscara de gas

La Seguridad as a Service como tendencia

MCPRO: Dentro del auge de las herramientas en la nube y los servicios de pago por uso, está cobrando especial importancia la denominada Seguridad as a Service. ¿Es la falta de profesionales en ciberseguridad la causa de esta tendencia?

Eutimio Fernández: Recuerdo hace muchos años que la gente decía “cómo voy a dejar mi firewall en manos de un tercero”. Pues no tenemos más remedio que hacerlo porque no hay gente suficiente que sepa de seguridad como para ponerla on-premise en todas partes. Digamos que el modelo “como servicio” trae muchas ventajas, tiene medidos los costes, el precio de las infraestructura es menor, etc… te libera de mucho profesional cualificado.

Los proveedores de servicios de seguridad gestionados ayudan a los clientes a proteger su red frente a amenazas avanzadas, a reducir los costes de detección y mitigación del malware y a contar con el apoyo de expertos en ciberseguridad.

Además de la falta de expertos en ciberseguridad, la falta de presupuesto hace que las organizaciones se apoyen cada vez más en el outsourcing. Según el Informe de Ciberseguridad 2018 de Cisco:

  • Un 49% de los profesionales de seguridad externalizaron servicios de monitorización en 2017 (cifra global), frente al 44% en 2016.
  • El 47% externalizaron la respuesta frente a incidentes (42% en 2016) y el 54% optaron por servicios de consultoría (51% en 2016, cifras globales).

Las ciberguerras entre países

MCPRO: Hace un par de meses el secretario general de la ONU, António Guterres, decía: “Ya existen episodios de guerra cibernética entre estados. Y lo peor es que no hay un esquema reglamentario para este tipo de guerra, no está claro si ahí se aplica la Convención de Ginebra o el Derecho Internacional pueden aplicarse en estos casos”, ¿tenemos que estar asustados?

Eutimio Fernández: La ciberguerra es algo real. Escuchando una vez a un ex miembro del Ministerio de Defensa que se movió al mundo de la ciberseguridad, decía: “Yo me voy donde está la guerra en el siglo XXI”, y es verdad. Ya no acabas con una ciudad tirándole una bomba, con que le cortes la luz y el gas un par de días, ya te la has cargado.

Es cierto que un gran número de ciberataques responden a motivos geopolíticos. Y, a veces, se disfrazan de motivos económicos. Por ejemplo, Nyetya, que atacó a las instituciones de Ucrania, fue un ataque geopolítico que pretendía destruir los sistemas de Hacienda de la Administración ucraniana, aunque iba disfrazado de ransomware (rastreamos la dirección para justificar los pagos del rescate y no existían). Las ciberguerras son también preocupantes por la magnitud de sus objetivos: centrales nucleares, suministros eléctricos, etc

Con respecto a los avisos de los gobiernos de Reino Unido y Estados Unidos frente a distintas vulnerabilidades (Telnet, HTTP, SNMP…) Cisco está de acuerdo en las recomendaciones referentes a securizar protocolos y mantener una buena higiene de red. Pero no entramos a comentar la posible explotación de dichas vulnerabilidades por parte de otros gobiernos o agencias extranjeros.

No obstante, los proveedores de seguridad debemos mantenernos al margen de las ciberguerras. No colaborar con Gobiernos o Agencias de Inteligencia y defender lo que realmente importa: a nuestros clientes.

A nivel nacional, en España estamos haciendo las cosas bien, otra coas es asegurar si podemos tener un problema de seguridad, porque podemos tenerlo, como todos. La cuestión no es si vas a tener un problema sino cuándo.

 

Continuar leyendo

Entrevistas

Oracle: “Nuestra visión es llegar a las bases de datos que se auto reparen”

Hablamos con Elena Montoya, Business Development, Coretech and Big Data de Oracle sobre los nuevos desarrollos de la compañía: Autonomous Database y Autonomous Data Warehouse.

Publicado el

Este 2018 Oracle ha iniciado una enorme transformación de su portfolio de productos revolucionando el paradigma tradicional. Añadir IA y Machine Learning a las bases de datos es una decisión que, en palabras de Larry Ellison, CEO de Oracle, “es la más importante que nunca hemos tomado” y quieren aplicarlo en todas las capas del software. Aprovechando el anuncio de los primeros productos y servicios de bases de datos autónomas (con inteligencia) que ha hecho Oracle Ibérica, hemos charlado con Elena Montoya, Business Development, Coretech and Big Data Director de la compañía en España.

MCPRO: Oracle acaba de hacer varios anuncios sobre bases de datos inteligentes, en las que determinadas tareas se realizan sin que el usuario tenga que ordenarlas explícitamente. Para entender bien el cambio que esto significa, me gustaría saber ¿cómo eran las BD hasta ahora? ¿qué es lo que cambia con esta nueva oferta?

 

Elena Montoya: Lo que hemos anunciado en todo nuestro offering de PaaS (Product as a Service) es el software autónomo. Que pueda conseguir esa autonomía. De entre nuestra oferta de PaaS, la 1ª plataforma que sale como software autónomo es Autonomous Database, la capa original de Oracle, la capa central que es la de la base de datos.

Y luego el primer producto que hemos lanzado es una nueva versión de Autonomous Database porque para que los productos sean autónomos tienen que aprender, se les tiene que entrenar. Nosotros estamos entrenando ahora mismo a Autonomous Database en cargas de trabajo que tienen que ver con Data Warehouse. Por eso el “sabor” que sacamos es Autonomous Data Warehouse. A finales de este año tendremos Autonomous OLTP, para cargas de trabajo OLTP, y finalmente esas dos capas confluirán en Autonomous Database para cualquier tipo de necesidad.

A tu pregunta de cómo cambian, nosotros en base de datos, si has seguido un poco nuestra historia,hemos ido dotando a la base de datos de un montón de funcionalidad, digamos, automática. Es decir, teníamos Advisors (Asistentes de recomendación) que nos permitían ayudar al usuario a controlar la base de datos. El sistema le daba sugerencias sobre planes de ejecución, sobre estructuras que tenía que crear, sobre problemas que se iban a producir.

Esta mañana nos contaban en el Keynote que es como si un coche tiene distintos automatismos. Tienes el control de velocidad, el pitido que te da cuando vas a aparcar,… Lo que se hace ahora es dar un salto más utilizando todos esos automatismos que hemos ido creando a lo largo de muchos años. Porque esto es algo que no se hace de la noche a la mañana. A lo largo de las versiones 10, 11, 12 se han ido creando todos estos paquetes automáticos que, ahora, pasan a ser utilizados por la base de datos sin necesidad de pasar por el DBA (Administrador de Bases de Datos) tradicional. Es decir, hoy la base de datos toma el mando como si fuera el coche autónomo y, con todos esos mecanismos, conduce sola.

La idea que subyace detrás de todo es que quien vaya a hacer uso de la base de datos tenga que preocuparse sólo de cargar los datos.

Toda esta línea de investigación del software autónomo no es nueva para nosotros. Hace unos 10 años que está Exadata en el mercado, y ya consiguió que la gestión de la base de datos se automatizase. Que fuera menos rudimentaria la gestión de discos, de contenidos, etc. Nosotros siempre hemos tenido una máxima en Oracle: llevar los algoritmos al dato. Exadata hizo esto en la parte de hardware, creó una estructura que gestionaba la base de datos. Ahora mismo todos los automatismos y el Machine Learning aplicado dentro de la base de datos lo que proporcionan es beneficio a la base de datos y a los usuarios que la gobiernan.

Gracias a estos avances se pueden automatizar tareas que estaban consumiendo mucho tiempo, y que además son la base de la mayoría de los problemas que tienen los usuarios, que normalmente son errores humanos. Errores como volúmenes que se han quedado sin espacio o cambios en las programaciones que se han hecho. Es decir, un montón de cosas que, con la mejor voluntad, al final son responsabilidad de quienes administran la base de datos.

Eso es lo que se sustituye por un sistema autónomo, que va aprendiendo tanto de la infraestructura como del propio gobierno de la base de datos. Y pone así todos los automatismos que se han ido creando al servicio automático de las personas que están utilizando los datos. Esta es la visión de Autonomous Database.

Esto no se consigue desde la primera versión que acabamos de sacar, digamos que ahora hay algunos clientes que lo están probando, los sistemas se van entrenando. De ahí que se entrenen en esta carga de trabajo que es típicamente Data Warehouse y que vayan incorporando todo el conocimiento para llegar a las tres cosas que estamos diciendo con respecto a Autonomous Database:

  • Que la BD sea capaz de automanejarse
  • Que la BD sea capaz de responder a violaciones de la seguridad.
  • Que la BD sea capaz de autoescalarse.

MCPRO: Siempre que se habla de IA se menciona su aplicación a un dominio concreto a un campo, a un contexto concreto. En este caso, ¿las capacidades de aprendizaje están contenidas en una parte común a toda clase de escenarios o tenéis previsto que más adelante, aparte de la distinción entre Data Warehouse y OLTP, haya incluso más aplicaciones verticales en distintos sectores?

Elena Montoya: En el caso de Autonomous Database la IA, el aprendizaje, es común para cualquier tipo de uso que se haga del software. Es verdad también que vamos a aplicar Machine Learning en toda nuestra gama de tecnologías y productos, tanto PaaS como SaaS. Esto lo llevamos haciendo fundamentalmente en aplicaciones desde hace varios años ya. En la capa de aplicación, que sí que puede ser más específica en caso de, por ejemplo, Recursos Humanos, o Supply Chain, o ERP, Machine Learning pone esos algoritmos dentro de las aplicaciones y, obviamente, aprenden dentro de un contexto más específico. Quizás no tanto industrial, pero sí aplicado a una parte dentro del negocio. Esa capa está dentro de las aplicaciones en SaaS, y fue la primera en incorporar Machine Learning. Ahora mismo lo que hemos incorporado de Machine Learning en bases de datos es de propósito general. Cualquier usuario en cualquier negocio que quiera hacer uso de una bases de datos autónoma se va a beneficiar de todo lo que el sistema ha aprendido de usuarios como él y de usuarios de cualquier otro negocio.

MCPRO: ¿Podemos decir que esta incorporación de Machine Learning va ligada a entornos Cloud?

Elena Montoya: Es algo íntimamente ligado a Cloud. Aquí hay dos cosas que son importantes. Por un lado los propios automatismos que tiene la BD y, por otro, la plataforma sobre la que funciona. Hay mucho aprendizaje que tiene que ver son la infraestructura en la que está situada esa base de datos.

Sabes que Autonomous Data Warehouse lleva por detrás, como plataforma, Exadata. Entonces, Exadata para el cliente es transparente. Nos garantiza tener rendimiento pero también nos garantiza el proceso de aprendizaje desde el disco hasta el software. Es decir, en todas las capas.

El aprendizaje en infraestructura es también muy importante. Por eso, para que el proceso de IA sea completo tenemos que controlar tanto la parte de infraestructura como la de software. Y eso ahora sólo puede hacerse en el cloud.

Con el tiempo, y eso ya lo anunció Larry Ellison, se incorporará también a la oferta de Cloud híbrida de Oracle, que es lo que llamamos “Cloud at Customer”. Aquí las máquinas son propiedad del cliente y se instalan en su centro de datos, pero el modelo de “Delivery” es Cloud.

Hay algunos clientes que por seguridad en su negocio no pueden permitirse ir al Cloud público 100%, pero sí se pueden beneficiar de los sistemas de auto-parcheado, de prevención. Por eso los automatismos están presentes en la base de datos y están incorporados, pero la Inteligencia Artificial es mucho más que eso. La gestión autónoma de una plataforma, el auto-parcheado y la auto-reparación que tiene que ver con todas las capas incluyendo las capas físicas. Por eso está en el cloud.

MCPRO: El auto-parcheado, esto es, todas estas soluciones en las que el software es “consciente” en cierta medida, ¿hasta qué punto es realmente autónomo? Es decir, ¿son un conjunto de reglas que evolucionan o es una capacidad del software para detectar que algo no está bien y que tiene que ser solucionado?

Elena Montoya: Hoy por hoy lo que hace el software autónomo, en esta primera versión para Data Warehouse, es la detección y recomendación. El proceso de parcheado lo hacen nuestros especialistas en los Data Centers. El software hoy no se auto-parchea por su cuenta. Lo que sí tiene son patrones para detectar riesgos, intrusos, comportamientos anómalos,… con una serie de técnicas que le permiten detectar cuándo se están produciendo cambios en la plataforma que requieren algún tipo de intervención o de parcheado.

Los parches hoy los aplica una persona. Nuestra visión es llegar a la auto-reparación del sistema de base de datos. Hoy esto todavía no es así.

Lo que sí se resuelve es que nosotros damos un SLA de 99,995% de que el sistema estará completamente online. Que el parcheado se hará completamente online. Ninguno de nuestros clientes que han probado el software como “Early Adopters”, nunca han notado que el sistema haya sido parcheado con distintos niveles de prioridad.

Si son parches que afectan a la integridad del sistema se aplican inmediatamente. Si son parches de incorporación de nuevas funcionalidades entonces es una persona la que decide cuándo se van a aplicar. Los parches de seguridad en su mayoría se aplican automáticamente y lo que sí existe hoy es que los parches se instalan sin interrumpir el servicio.

Los parches de nueva funcionalidad todavía se aplican en momentos de baja demanda. Estamos en el primer paso. Nunca podría funciona el auto-parcheado si no consiguiéramos esa capacidad de hacerlo completamente online.

MCPRO: Entonces, en el caso de esas implantaciones de “Cloud at Customer”, entiendo que son empresas con un interés especial en la seguridad de sus datos. Por definición, si el sistema aprende es porque hay un feedback, de las instalaciones hacia la nube de Oracle. Es decir, sale cierta información de esas nubes tan privadas. ¿Esos clientes no tienen un interés especial en saber qué sale hacia fuera de sus sistemas?

Elena Montoya: En el caso de Cloud at Customer, los datos están en las máquinas del cliente, pero la operación es completamente Cloud. Hay un túnel privado con Oracle bajo un modelo estrictamente de servicio. Esto está operado por la misma Oracle o por un tipo de partners con los que tenemos acuerdos específicos.

Salen algunas cosas, como pueden ser recomendaciones, pero lo que jamás pueden ver las personas de Oracle que están en los Data Centers son los datos sensitivos, la información que el cliente almacena en las bases de datos. Como en toda base de datos existen sistema de alerta, de alarmas, detecciones, es decir, elementos incorporados en el propio software que alimentan la consola de administración o que disparan alertas.

MCPRO: En el caso de los anuncios por llegar, has hablado de la solución OLTP y también está prevista una solución NoSQL para entornos de cadencias muy altas de datos de pequeño tamaño como IoT y otra solución basada en grafos ¿Qué nos puedes avanzar sobre estos futuros servicios y productos?

Elena Montoya: Esta mañana también se ha presentado Automonous Analytics Cloud Service, que es la parte de explotación de los datos. Nuestro core es la gestión de la información, y cada cliente la gestiona desde distintos puntos de vista. Hay gente que utiliza más los datos estructurados (Autonomous Data Warehouse o Database), también tenemos muchos clientes que usan bases de datos NoSQL, como bases de datos no estructuradas. Autonomous NoSQL va a seguir la misma filosofía, vamos a tener NoSQL en el Cloud, On Premises e Híbrida. Y en estas bases de datos hay muchas necesidades de seguridad, de parcheo, de gestión. Tienen a veces que parametrizarse, configurarse la cantidad de procesos paralelos que va a tener, los niveles de concurrencia, los niveles de consumo de CPU, los niveles de crecimiento para saber cuándo te estás quedando sin espacio o no.

Es decir, toda esta problemática es común tanto a una base de datos relacional como Enterprise Edition como a una base de datos NoSQL. Aunque las formas de almacenamiento puedan ser diferentes, los problemas de la gestión son muy comunes en la mayoría de los casos. El aprendizaje automático y el uso Machine Learning es una decisión crucial y puede aplicarse en todas las partes del software. Siempre puedes ir un paso más allá y convertir muchos de los mecanismos de administración, por buenos que sean, en autónomos.

“Incorporar Machine Learning es la decisión más importante que nunca hemos tomado”
Larry Ellison

Autonomous Graph es un servicio que representa la información de un modo muy distinto y que ahora está muy de moda. Tiene dos partes muy diferentes: la propia construcción del grafo, que necesita mucho proceso para hacerla, y luego la analítica que emplea algoritmos propios de inteligencia que los clientes pueden utilizar sobre el grafo. Esto es lo que va a tener el servicio de Autonomous Graph.

Hoy tenemos Graph dentro de Enterprise Edition y de nuestros componentes Big Data. Pero hay gente que sólo quiere cargar datos, que se construya el grafo y analizarlo. Y esto es lo que va a permitir Autonomous Graph Service. Todavía no tenemos fecha definida, pero será uno de los próximos lanzamientos. Muchos de nuestros próximos anuncios incorporarán la etiqueta de “Autonomous”.

Otra de las características que vienen en breve dentro de Autonomous Database y de Autonomous Data Warehouse es toda la parte de “In Memory”. Sabes que tenemos también “In Memory Option”, que es una forma de trabajo Data Warehouse In-Memory con los datos columnares. Esto vendrá pronto dentro de Data Warehouse. Y por supuesto la Analítica, que es la parte de Graph.

La idea de Autonomous Graph Service es que se pueda construir el grafo y hacer la analítica sobre datos que cargue la gente en el servicio no necesariamente requiriendo nuestro Autonomous Database por debajo. Es un poco el símil de quién se beneficia de Autonomous Database o Data Warehouse. Si en una compañía tienes cualquier herramienta de analítica de datos, de tratamiento de datos, tienes un beneficio inmediato de esto.

Cosas tan sencillas y tan difíciles como que los clientes hagan backups y los hagan bien, eso está incluido en el servicio de Autonomous Data Warehouse. Por defecto los datos están cifrados, están seguros. Las comunicaciones están securizadas y los backups se hacen sin intervención del cliente. Esto es muy importante. Cualquier aplicación se beneficia inmediatamente de esto. En Graph sucederá un poco lo mismo. Autonomous Graph tendrá inteligencia de por sí, otra gente querrá cargar datos que no necesariamente vendrán de nuestro propio software. De entornos Big Data, de base de datos, para hacer Graph Analytics.

MCPRO: Por terminar, tiene todo el sentido que en los entornos Cloud la propia arquitectura ayude a autogestionarse, por oposición a los entornos On Premises. Acaba siendo redundante que tengas un panel que te diga “Te estás quedando sin memoria, haz esto”. Y si no lo haces, tengo un problema. ¿No tiene mucha más lógica que se defina un “campo de juego”, con unos límites, con unas alarmas, con unos thresholds y que el propio sistema, en función de una realidad que puede ser que haya unos picos de sobrecarga, se adapte a eso y aprenda y sepa cómo gestionarse? Evitar eso en otros campos ya está resuelto.

Elena Montoya: La verdad es que esa definición de límites, thresholds, alarmas, ya existe. Hay gente que gestiona muchas cosas. Mucha gente está constantemente añadiendo espacio. O gestionando concurrencia, gestionando picos. Hablando de costes, hasta ahora los sistemas se diseñaban para el pico máximo de utilización. El sistema Autonomous Database es autoelástico. Es capaz de saber dónde está respecto a los márgenes que le ha indicado el cliente. Cuáles son sus políticas.

Hoy también existe diferenciación de usuarios, se les puede asignar un perfil de consumo máximo o de consumo mínimo. Pero a partir de ahí el sistema es capaz de saber y de anticipar cuando estará más o menos utilizado. Y podrá dar de baja cores por los cuales el cliente paga. Si no tienes actividad por la noche, las CPUs se apagan y el cliente no paga por ellas.

O cuando estás llegando al umbral de la previsión de carga que sea capaz de aumentarlo. Son tareas que hoy sí que teníamos muchos mecanismos de aviso, recomendación y anticipación. Pero la orquestación de todas ellas es lo que conforma el paso de llegar a ser autónomo.

Por último, hay un aspecto que para nosotros es muy importante, como es la ciberseguridad. Securizar la base de datos desde el origen o el tema del backup. En el futuro también llegará el Disaster Recovery.

Todo eso hace que al final el foco de la preocupación de los clientes vaya más a qué datos tengo que meter aquí y cómo los voy a explotar que no a este tipo de tareas que ya estaban bastante automatizadas pero que no eran autónomas.

MCPRO: Muchas gracias por su tiempo. Ha sido un placer.

Continuar leyendo

Lo más leído