Conecta con nosotros

Entrevistas

Dónde acaba la Analítica y empieza el Machine Learning y la Inteligencia Artificial

José Luis Roncero y Jordi Simón

Director de Business Analytics & Big Data / Responsable de ventas de Analytics y Big Data

Oracle Ibérica

Publicado el

  • En 2018, la Inteligencia Artificial será responsable de 200.000 millones de dólares en ingresos para las empresas (Gartner).
  • En 2020, el mercado de aplicaciones de Machine Learning alcanzará los 40.000 millones de dólares (IDC).
  • El mercado de Big Data y analítica de negocio crecerá un 10,4% en Europa (Gartner).

Inteligencia Artificial, Machine Learning, Analítica, Big Data… ¿cuántas veces habremos oído ya estos términos en el sector IT? Como los expertos dicen que “hay que subirse al carro para ser competitivos“, parece que el hecho de incorporar algunas de estas tecnologías al negocio es coser y cantar. Pero, ¿realmente se distingue cuándo empieza una y acaba otra?

Por otra parte, es obvio que todas ellas comparten puntos en común, como podría ser el tema de los datos, pero exactamente en qué se diferencian, ¿todo el mundo puede desarrollarlas?, ¿cómo de caras les va a salir a las empresas?, ¿cuál es su papel en la archi repetida Transformación Digital? Estas y otras preguntas se las hemos planteado a dos expertos en el tema: José Luis Roncero, director de Business Analytics & Big Data de Oracle Ibérica, y Jordi Simón, responsable de ventas de Analytics y Big Data de Oracle Ibérica.

 

Roncero es ingeniero de Telecomunicaciones y dirige la actividad comercial de Oracle en las áreas antes mencionadas, mientras que Simón posee, entre otras, un máster en Ingeniería de Telecomunicaciones por la Universidad de Lancaster y la Politécnica de Cataluña.

Big Data

Tengo un amigo que me dice que no entiende exactamente lo que significa Big Data, y la respuesta que le doy yo es muy sencilla: antes, los profesionales que hacían temas de analítica utilizaba un pequeño porcentaje de información, que era suficiente para analizar un área concreta de la compañía y tomar decisiones. (José Luis Roncero)

Se trata de un puzzle. La explosión de datos que existe hoy en día y que procede de redes sociales, sensores, IoT, etc.. provoca que aparezca el concepto de Big Data: hay tanta información que te preguntas qué hacer con ella. Pues el Big Data es coger esos datos y almacenarlos. (Jordi Simón)

Analítica

Cuando la información que da lugar al Big Data se multiplica, adquiere diferentes formas y se mezclan datos de diferentes fuentes es cuando se aplica la Analítica para extraer más valor. No es lo mismo tener cinco datos para, por ejemplo, desarrollar productos financieros, que tener millones de datos e intentar deducir algo de ahí. (Roncero)

La analítica puede ser simple, de manera que directamente el ojo humano la pueda hacer, y puede ser avanzada y aquí entran en juego las máquinas y su capacidad de interpretar lo que la persona no puede biológicamente: correlaciones, cosas ocultas, etc. aplicando algoritmos y cálculos matemáticos para ser capaz de sacar a relucir información que, de otra manera, sería imposible. (Simón)

Machine Learning (ML)

El ML es un paso previo a la Inteligencia Artificial (IA) para que esta se desarrolle en su totalidad. Concretamente, es un aprendizaje de máquinas que utilizan muchos datos con el objetivo de ser cada vez más inteligentes a la hora de hacer cosas. El ML se alimenta de algoritmo e información, es algo así como llevar la inteligencia al dato. (Roncero)

El ML está muy unido a la analítica porque esta es la que le dice a la máquina que cierto comportamiento es adecuado o no. Por ejemplo, en una tienda quieren saber si una prenda es interesante para el consumidor o no, a base de que le llegue muchísimas veces la información de que ‘no interesa´, la máquina va aprendiendo que esa prenda no gusta porque nadie la está comprando. (Simón)

Inteligencia Artificial (IA)

Cuando el puzzle del Machine Learning se va completando y llevando a un extremo, se llega a un segundo nivel y se transforma en Inteligencia Artificial o lo que es lo mismo, dar autonomía al aprendizaje. Son conceptos muy ligados y es difícil saber cuándo acaba uno y empieza otro. Muchas empresas ya se están preparando para dar el paso y tienen muchos analistas de datos, muy preparados, para hacerlo… tienen que hacer un esfuerzo importante. (Roncero)

Transformación Digital

Muchas empresas creen que la Transformación Digital se basa en meter más y más tecnología, que hace las cosas de manera diferente, pero no deja de ser solo tecnología al peso porque no cambia nada. Se podría decir que eso solo mejora lo que ya había.

Lo cierto es que la Transformación Digital empieza de verdad con todo el tema de Machine Learning, lo otro es solo digitalizar (que no es lo mismo), pero lo que realmente transforma de manera brutal a una compañía es cuando se hacen las cosas totalmente diferentes. Esto se logra aplicando el tipo de inteligencia del ML. (Roncero)

Seguridad y futuro

La oportunidad que supone incorporar estas tecnologías a las empresas es tan clara como turbio es el uso que podrían darle los cibercriminales. Evidentemente, estos están tan al día o más de cómo funcionan y de cómo de importante va a ser para las empresas. Así que, les preguntamos a José Luis y a Jordi si creían que estos criminales podrían usar Machine Learning e Inteligencia Artificial para burlar los sistemas de seguridad de las empresas.

Sí, de hecho, lo hacen“, contestaron al unísono. “Los malos son mucho más rápidos que los buenos porque solo se dedican a hacer maldades, los buenos nos dedicamos a otras cosas“, indicó José Luis Roncero. La tecnología ha pasado de ser de una utilidad casi exclusiva a nivel empresarial a convertirse en una herramienta con la que hacer cosas útiles para la sociedad y de forma muy directa. Sin embargo, este desarrollo ha sido seguido muy de cerca por los criminales y van “muy por delante” en conocimientos, por lo que hay que tener muy en cuenta este aspecto, porque “en cualquier momento, la montan”, indicaron.

Además de la seguridad, el impacto de estas tecnologías se dejará ver muy en el corto plazo en la empresa, no solo en el aspecto del personal, sino también en el económico, en el TCO y de cara al cliente. Según Jordi Simón, y como ya veníamos anunciando en otros artículos, se va a prescindir de puestos de trabajo de bajo nivel, porque eso lo harán las máquinas, pero a cambio, se van a crear otros de alto nivel. “La tecnología no va sola, para que aprenda hay que enseñarle, educarle y eso lo harán perfiles como los científicos de datos“.

Cierto es que esto no le va a salir gratis a las empresas, que necesitarán redistribuir sus presupuestos si quieren hacer las cosas bien y, sobre todo, pensando que toda esa inversión va a revertirse en su propio beneficio, ya que se rentabiliza muy rápido. No solo se trata de un cambio beneficioso para la sociedad (sectores como la salud y el comercio van a ser grandes favorecidos) sino que los negocios van a conseguir unas aplicaciones y unas experiencia de clientes y usuarios mucho más satisfactorias.

Por ejemplo, comprar ahora un vuelo en internet es mucho más sencillo que antes, y no solo porque la tecnología sea más rápida (que también), sino porque hemos aprendido a cómo hacerlo de forma más fácil y natural… la propia aplicación ya incluso se anticipa a nuestros movimientos“, indicó Simón.

Creo que los modelos de gestión y el comportamiento que ha tenido la empresa en el pasado no son tan aplicables hoy en día. Antes, había modelos muy teóricos que eran capaces de predecir cómo iban las empresas en función de cuatro datos, ahora esto es más variado“, concluye Roncero. El modelo actual exige negocios ágiles, flexibles, con capacidad de repicar algo que ha triunfado en tiempo récord, y teniendo muy clara una cosa: “tú nunca vas a poder ser el mejor, hay mucha gente pensando”.

Periodista especializada en tecnologías corporate, encargada de las entrevistas en profundidad y los reportajes de investigación en MuyComputerPRO. En el ámbito del marketing digital, gestiono y ejecuto las campañas de leads generation y gestión de eventos.

Entrevistas

Deloitte: “Los usuarios de negocio han acogido muy bien la plataforma ágil de Salesforce”

Hablamos con Carlos González López, gerente de Deloitte en Utilities y Telecomunicaciones, sobre la práctica Salesforce en estos dos sectores.

Publicado el

Carlos González López, gerente de Deloitte especializado en la práctica Salesforce

Carlos González López es gerente del área de Utilities (compañías que ofrecen servicios públicos como agua, gas, electricidad o autopistas), Medios y Telecomunicaciones de Deloitte. Trabaja principalmente en proyectos de implantación de Salesforce en todo su ciclo de vida: desde la detección de oportunidades, venta y ejecución del proyecto, hasta el día a día de las tres actualizaciones que la Plataforma Salesforce realiza anualmente.

Además, en su faceta de “evangelizador” se ocupa de impulsar la práctica de Salesforce en los proyectos de Deloitte relacionados con los sectores de Utilities y Telecomunicaciones, y supervisa un programa personalizado y específico de formación interna para que el conocimiento y las certificaciones Salesforce dentro de Deloitte aumenten y se cuente con el talento adecuado para ejecutar los proyectos con plenas garantías.

 

Dentro de Deloitte, el área de consultoría se ocupa de enfoques estratégicos, planteamiento de soluciones y definición de la solución final para el cliente. En cuanto a la práctica Salesforce, en Deloitte son más de 4.000 los consultores localizados en 30 países y entre todos ellos superan las 5.600 certificaciones. En la zona de EMEA (Europa, Oriente Medio y África) cuentan con 900 consultores Salesforce y en España la cifra supera ya los 120, manteniéndose los actuales centros de delivery de Huesca y Zaragoza, que se han complementado con otro nuevo centro en Sevilla.

Estos centros de delivery están especializados en proyectos de desarrollo remoto que aseguran la solución desde el punto de vista técnico a la hora de hacer las personalizaciones propias de la operativa particular de cada cliente. Su objetivo es aportar especialistas que garanticen que la solución técnica que se quiere implantar es robusta y escalable, al tiempo que proveen de desarrolladores para todo lo que tenga que ver con el código de la solución, ya que la configuración es responsabilidad del área de consultoría.

MCPRO: ¿Qué es FastEnergy?

Carlos González López: Básicamente es un acelerador para Utilities, de manera que cualquier empresa del sector energético aprovechará las ventajas de la plataforma para acelerar la implantación de Salesforce. Queremos facilitar la vida a nuestros clientes y por eso entre el 85% y el 90% de nuestra solución es configuración. El porcentaje restante es desarrollo, con ejemplos como la integración con el middleware gracias a MuleSoft [empresa recientemente comprada por Salesforce].

FastEnergy es consecuencia de toda la experiencia y conocimiento de negocio que tiene Deloitte en el sector de Utilities. Implementamos procesos de alto nivel tanto para clientes B2B como B2C que nos permiten acompañarles en todo el ciclo de vida de relación con la empresa.

FastEnergy proporciona una visión de 360º del cliente e incluye CPQ (Configure Price Quote, que ayuda a las empresas a definir con precisión el precio de los bienes a través de un amplio y constante espectro de variables), portal de clientes, marketing automation y herramientas de business intelligence que resaltan las oportunidades y permiten la venta cruzada.

Otro aspecto muy interesante de FastEnergy es la integración con Social Media. Es posible configurar “escuchas” en función a palabras o semántica para que los resultados se puedan incorporar al sistema como casos; si es un cliente asociado a su ficha y si no lo es, como un cliente potencial.

MCPRO: ¿Qué papel juega la Inteligencia Artificial de Salesforce Einstein en FastEnergy?

Carlos González López: Todavía no hemos integrado Salesforce Einstein en FastEnergy, pero obviamente llegará. Con lo que sí contamos es que toda la parte de paneles y gráficos, los llamados dashboards, se generan con Salesforce Analytics. Y también nos integramos con las comunidades de Salesforce, tanto para partners como para clientes; damos servicios a los clientes para que puedan generar nuevas solicitudes o incluso nuevos pedidos, y para que los partners cuenten con su espacio de trabajo y puedan hacer un seguimiento de sus objetivos y de las ventas que van realizando.

MCPRO: ¿Cómo acomete Deloitte un proyecto de Salesforce?

Carlos González López: Normalmente los prescriptores de proyectos de transformación digital basados en la Plataforma Salesforce son gente de negocio. Es una herramienta muy ágil que cambia el paradigma marcado por otras soluciones que tradicionalmente han sido muy rígidas, y como negocio siempre demanda agilidad con los cambios, por eso son los más interesados en la Plataforma Salesforce.

Como es lógico, todos los proyectos en Salesforce van en metodología agile, con lo cual se trabajan mucho las pruebas de concepto y las demos con los clientes para comprender muy bien sus necesidades. Siempre buscamos que en las pruebas de concepto los clientes vean reflejado su proceso de negocio.

En cuanto a las nubes de Salesforce más demandadas por nuestros clientes, la de marketing es probablemente la que tiene un retorno más inmediato y una integración más ágil, por eso tiene muy buena acogida. Pero qué duda cabe que Salesforce nació con la nube de ventas y luego evolucionó a la de servicio. Entre las tres -marketing, ventas y servicio- junto con la parte de comunidades es donde más se mueven nuestros clientes.

Además, como todo evoluciona muy rápido, también auguramos una gran demanda de la nube de IoT y del uso de Analytics y de la Inteligencia Artificial de Einstein en todas las nubes de Salesforce.

MCPRO: ¿Qué destacarías de la práctica Salesforce en Deloitte?

Carlos González López: Lo primero es el conocimiento funcional que tenemos de los procesos de negocio; llevamos muchos años trabajando con clientes de todo tipo de sectores, no solo en Utilities y en Telco, y sabemos cuáles son sus necesidades.

En segundo lugar es que nuestra práctica Salesforce está en constante crecimiento. Fomentamos mucho la formación de nuestro personal porque toda la Plataforma Salesforce evoluciona tan deprisa que si no estás en lo último de lo último, te quedas fuera.

Por último comentar el uso de aceleradores como FastEnergy, construidos a partir de las mejores prácticas a lo largo de años de experiencia. Gracias a estos aceleradores logramos que la transformación digital en la que acompañamos a nuestros clientes sea rápida y sin sobresaltos.

Continuar leyendo

Entrevistas

Cisco: “La cuestión no es si vas a tener un problema, sino cuándo”

Publicado el

Eutimio Fernández

Ataques piratas, vulnerabilidades, robo de datos, ciberguerras… raro es el día que nos levantemos sin que haya sucedido en el mundo un ataque cibernético que nos deje a todos en jaque. En paralelo con la innovación tecnológica surge la labor de aquellos que intentan utilizar estas mismas herramientas para lucrarse ilícitamente. Siempre han existido pero ahora son más fuertes que nunca.

Para conocer el punto de vista de algunos de los temas de seguridad IT más candentes de los últimos meses, hemos charlado con Eutimio Fernández, Director de Ciberseguridad en Cisco España. Para ponernos en contexto, se estima que el coste anual del cibercrimen para la economía global está en 450.000 millones de dólares (en torno al 1% del PIB mundial) y los 1.000 millones de dólares, según el Center for Strategic and International Studies y estimaciones del Gobierno de Estados Unidos.

 

El auge de las criptodivisas

MCPRO: 2017 fue, sin lugar a dudas, el año del bitcoin, la criptomoneda con mayor valoración del mercado pasaba en menos de 12 meses de los 900 dólares a superar los 19.000. Precisamente ha sido este valor el que lo ha puesto en la diana de los cibercriminales.

Eutimio Fernández: Se trata de uno de los retos de la seguridad actuales. Nos enfrentamos a una nueva amenaza mucho más rentable (y menos peligrosa para los atacantes) que los denominados ataques BEC (Business Email Compromise): el cryptojacking, o uso ilegítimo de recursos de computación para minar criptomonedas.

En los últimos meses, Talos ha observado un significativo incremento de estos ataques y calculamos que un dispositivo típico controlado por un hacker podría generar 0,25 dólares en la moneda Monero cada día, por lo que controlando 2.000 equipos podría obtener 500 dólares diarios o 182.500 dólares anuales. Y, si se trata de redes botnet de millones de dispositivos, especialmente IoT al no estar monitorizados, hablamos de más de 100 millones de dólares anuales por cada red botnet.

Además, estos ataques no implican una acción del usuario estafado (como en el caso del ransomware) y tampoco copan tanto de atención mediática. Para infectar a los usuarios se inyecta el malware basado en JavaScript en websites con miles de usuarios. Si notamos que nuestro equipo va ralentizado, lo mejor es utilizar Task Manager (Windows) o Activity Monitor (Mac OS X) para comprobar los picos en el uso de recursos de computación, desactivar JavaScript en el navegador o utilizar extensiones de navegador “No Coin”.

Los problemas de seguridad de Yahoo e Intel

MCPRO: Durante los últimos meses, dos grandes compañías (Yahoo e Intel) han estado cuestionadas por sus problemas de seguridad. De los ataques a la primera nos hemos enterado tres años después y ha costado la cabeza de su CEO, y debido a las vulnerabilidades de la segunda, millones de  fabricantes han visto comprometidos sus equipos. ¿Cómo es posible que ocurra incidentes tan graves en empresas tan conocidos y, sobre todo, como es posible que se gestionen tan mal?

Eutimio Fernández: Siempre que se desarrolla y hay humanos de por medio existe un porcentaje de fallo, es innato al propio desarrollo. De hecho, problemas de seguridad los tenemos todos los fabricantes, nosotros tenemos un departamento de vulnerabilidades descubiertas en nuestro software, luego publicamos vulnerabilidades, con su parche correspondiente y su solución.

Lo malo de esto es ocultarlo y que se descubra por otros medios. Está dentro de las buenas prácticas que si detectas una vulnerabilidad tienes que hacerla pública cuanto antes y darle solución, lo que te hacer perder reputación es intentar ocultarlo, de hecho, las empresas que lo hacen pueden perder hasta un 20% de su negocio.

Decía nuestro CEO, John Chambers, que hay dos tipos de empresas: las que van a ser hackeadas y las que ya lo han sido.

Hasta ahora ha habido mucha indefinición sobre quién debía anunciar las vulnerabilidades (Mayer en el caso de Yahoo) y ese ha sido el problema. Con el GDPR esto queda bien definido porque el responsable de los datos de la empresa establece unos mecanismos de comunicación y unos tiempos.

En el caso de las vulnerabilidades de los chips de Intel, esta ha reaccionado con rapidez. Enseguida publicó nuevos drivers y firmware. Pero, además, al tratarse de una vulnerabilidad de hardware, acaba de anunciar nuevas tecnologías de detección de amenazas a nivel de silicio/basadas en hardware. Estas tecnologías (ITDT) anunciadas en la reciente feria RSA, ayudan a detectar mejor la posible explotación de Meltdown y Spectre.

máscara de gas

La Seguridad as a Service como tendencia

MCPRO: Dentro del auge de las herramientas en la nube y los servicios de pago por uso, está cobrando especial importancia la denominada Seguridad as a Service. ¿Es la falta de profesionales en ciberseguridad la causa de esta tendencia?

Eutimio Fernández: Recuerdo hace muchos años que la gente decía “cómo voy a dejar mi firewall en manos de un tercero”. Pues no tenemos más remedio que hacerlo porque no hay gente suficiente que sepa de seguridad como para ponerla on-premise en todas partes. Digamos que el modelo “como servicio” trae muchas ventajas, tiene medidos los costes, el precio de las infraestructura es menor, etc… te libera de mucho profesional cualificado.

Los proveedores de servicios de seguridad gestionados ayudan a los clientes a proteger su red frente a amenazas avanzadas, a reducir los costes de detección y mitigación del malware y a contar con el apoyo de expertos en ciberseguridad.

Además de la falta de expertos en ciberseguridad, la falta de presupuesto hace que las organizaciones se apoyen cada vez más en el outsourcing. Según el Informe de Ciberseguridad 2018 de Cisco:

  • Un 49% de los profesionales de seguridad externalizaron servicios de monitorización en 2017 (cifra global), frente al 44% en 2016.
  • El 47% externalizaron la respuesta frente a incidentes (42% en 2016) y el 54% optaron por servicios de consultoría (51% en 2016, cifras globales).

Las ciberguerras entre países

MCPRO: Hace un par de meses el secretario general de la ONU, António Guterres, decía: “Ya existen episodios de guerra cibernética entre estados. Y lo peor es que no hay un esquema reglamentario para este tipo de guerra, no está claro si ahí se aplica la Convención de Ginebra o el Derecho Internacional pueden aplicarse en estos casos”, ¿tenemos que estar asustados?

Eutimio Fernández: La ciberguerra es algo real. Escuchando una vez a un ex miembro del Ministerio de Defensa que se movió al mundo de la ciberseguridad, decía: “Yo me voy donde está la guerra en el siglo XXI”, y es verdad. Ya no acabas con una ciudad tirándole una bomba, con que le cortes la luz y el gas un par de días, ya te la has cargado.

Es cierto que un gran número de ciberataques responden a motivos geopolíticos. Y, a veces, se disfrazan de motivos económicos. Por ejemplo, Nyetya, que atacó a las instituciones de Ucrania, fue un ataque geopolítico que pretendía destruir los sistemas de Hacienda de la Administración ucraniana, aunque iba disfrazado de ransomware (rastreamos la dirección para justificar los pagos del rescate y no existían). Las ciberguerras son también preocupantes por la magnitud de sus objetivos: centrales nucleares, suministros eléctricos, etc

Con respecto a los avisos de los gobiernos de Reino Unido y Estados Unidos frente a distintas vulnerabilidades (Telnet, HTTP, SNMP…) Cisco está de acuerdo en las recomendaciones referentes a securizar protocolos y mantener una buena higiene de red. Pero no entramos a comentar la posible explotación de dichas vulnerabilidades por parte de otros gobiernos o agencias extranjeros.

No obstante, los proveedores de seguridad debemos mantenernos al margen de las ciberguerras. No colaborar con Gobiernos o Agencias de Inteligencia y defender lo que realmente importa: a nuestros clientes.

A nivel nacional, en España estamos haciendo las cosas bien, otra coas es asegurar si podemos tener un problema de seguridad, porque podemos tenerlo, como todos. La cuestión no es si vas a tener un problema sino cuándo.

 

Continuar leyendo

Entrevistas

Oracle: “Nuestra visión es llegar a las bases de datos que se auto reparen”

Hablamos con Elena Montoya, Business Development, Coretech and Big Data de Oracle sobre los nuevos desarrollos de la compañía: Autonomous Database y Autonomous Data Warehouse.

Publicado el

Este 2018 Oracle ha iniciado una enorme transformación de su portfolio de productos revolucionando el paradigma tradicional. Añadir IA y Machine Learning a las bases de datos es una decisión que, en palabras de Larry Ellison, CEO de Oracle, “es la más importante que nunca hemos tomado” y quieren aplicarlo en todas las capas del software. Aprovechando el anuncio de los primeros productos y servicios de bases de datos autónomas (con inteligencia) que ha hecho Oracle Ibérica, hemos charlado con Elena Montoya, Business Development, Coretech and Big Data Director de la compañía en España.

MCPRO: Oracle acaba de hacer varios anuncios sobre bases de datos inteligentes, en las que determinadas tareas se realizan sin que el usuario tenga que ordenarlas explícitamente. Para entender bien el cambio que esto significa, me gustaría saber ¿cómo eran las BD hasta ahora? ¿qué es lo que cambia con esta nueva oferta?

 

Elena Montoya: Lo que hemos anunciado en todo nuestro offering de PaaS (Product as a Service) es el software autónomo. Que pueda conseguir esa autonomía. De entre nuestra oferta de PaaS, la 1ª plataforma que sale como software autónomo es Autonomous Database, la capa original de Oracle, la capa central que es la de la base de datos.

Y luego el primer producto que hemos lanzado es una nueva versión de Autonomous Database porque para que los productos sean autónomos tienen que aprender, se les tiene que entrenar. Nosotros estamos entrenando ahora mismo a Autonomous Database en cargas de trabajo que tienen que ver con Data Warehouse. Por eso el “sabor” que sacamos es Autonomous Data Warehouse. A finales de este año tendremos Autonomous OLTP, para cargas de trabajo OLTP, y finalmente esas dos capas confluirán en Autonomous Database para cualquier tipo de necesidad.

A tu pregunta de cómo cambian, nosotros en base de datos, si has seguido un poco nuestra historia,hemos ido dotando a la base de datos de un montón de funcionalidad, digamos, automática. Es decir, teníamos Advisors (Asistentes de recomendación) que nos permitían ayudar al usuario a controlar la base de datos. El sistema le daba sugerencias sobre planes de ejecución, sobre estructuras que tenía que crear, sobre problemas que se iban a producir.

Esta mañana nos contaban en el Keynote que es como si un coche tiene distintos automatismos. Tienes el control de velocidad, el pitido que te da cuando vas a aparcar,… Lo que se hace ahora es dar un salto más utilizando todos esos automatismos que hemos ido creando a lo largo de muchos años. Porque esto es algo que no se hace de la noche a la mañana. A lo largo de las versiones 10, 11, 12 se han ido creando todos estos paquetes automáticos que, ahora, pasan a ser utilizados por la base de datos sin necesidad de pasar por el DBA (Administrador de Bases de Datos) tradicional. Es decir, hoy la base de datos toma el mando como si fuera el coche autónomo y, con todos esos mecanismos, conduce sola.

La idea que subyace detrás de todo es que quien vaya a hacer uso de la base de datos tenga que preocuparse sólo de cargar los datos.

Toda esta línea de investigación del software autónomo no es nueva para nosotros. Hace unos 10 años que está Exadata en el mercado, y ya consiguió que la gestión de la base de datos se automatizase. Que fuera menos rudimentaria la gestión de discos, de contenidos, etc. Nosotros siempre hemos tenido una máxima en Oracle: llevar los algoritmos al dato. Exadata hizo esto en la parte de hardware, creó una estructura que gestionaba la base de datos. Ahora mismo todos los automatismos y el Machine Learning aplicado dentro de la base de datos lo que proporcionan es beneficio a la base de datos y a los usuarios que la gobiernan.

Gracias a estos avances se pueden automatizar tareas que estaban consumiendo mucho tiempo, y que además son la base de la mayoría de los problemas que tienen los usuarios, que normalmente son errores humanos. Errores como volúmenes que se han quedado sin espacio o cambios en las programaciones que se han hecho. Es decir, un montón de cosas que, con la mejor voluntad, al final son responsabilidad de quienes administran la base de datos.

Eso es lo que se sustituye por un sistema autónomo, que va aprendiendo tanto de la infraestructura como del propio gobierno de la base de datos. Y pone así todos los automatismos que se han ido creando al servicio automático de las personas que están utilizando los datos. Esta es la visión de Autonomous Database.

Esto no se consigue desde la primera versión que acabamos de sacar, digamos que ahora hay algunos clientes que lo están probando, los sistemas se van entrenando. De ahí que se entrenen en esta carga de trabajo que es típicamente Data Warehouse y que vayan incorporando todo el conocimiento para llegar a las tres cosas que estamos diciendo con respecto a Autonomous Database:

  • Que la BD sea capaz de automanejarse
  • Que la BD sea capaz de responder a violaciones de la seguridad.
  • Que la BD sea capaz de autoescalarse.

MCPRO: Siempre que se habla de IA se menciona su aplicación a un dominio concreto a un campo, a un contexto concreto. En este caso, ¿las capacidades de aprendizaje están contenidas en una parte común a toda clase de escenarios o tenéis previsto que más adelante, aparte de la distinción entre Data Warehouse y OLTP, haya incluso más aplicaciones verticales en distintos sectores?

Elena Montoya: En el caso de Autonomous Database la IA, el aprendizaje, es común para cualquier tipo de uso que se haga del software. Es verdad también que vamos a aplicar Machine Learning en toda nuestra gama de tecnologías y productos, tanto PaaS como SaaS. Esto lo llevamos haciendo fundamentalmente en aplicaciones desde hace varios años ya. En la capa de aplicación, que sí que puede ser más específica en caso de, por ejemplo, Recursos Humanos, o Supply Chain, o ERP, Machine Learning pone esos algoritmos dentro de las aplicaciones y, obviamente, aprenden dentro de un contexto más específico. Quizás no tanto industrial, pero sí aplicado a una parte dentro del negocio. Esa capa está dentro de las aplicaciones en SaaS, y fue la primera en incorporar Machine Learning. Ahora mismo lo que hemos incorporado de Machine Learning en bases de datos es de propósito general. Cualquier usuario en cualquier negocio que quiera hacer uso de una bases de datos autónoma se va a beneficiar de todo lo que el sistema ha aprendido de usuarios como él y de usuarios de cualquier otro negocio.

MCPRO: ¿Podemos decir que esta incorporación de Machine Learning va ligada a entornos Cloud?

Elena Montoya: Es algo íntimamente ligado a Cloud. Aquí hay dos cosas que son importantes. Por un lado los propios automatismos que tiene la BD y, por otro, la plataforma sobre la que funciona. Hay mucho aprendizaje que tiene que ver son la infraestructura en la que está situada esa base de datos.

Sabes que Autonomous Data Warehouse lleva por detrás, como plataforma, Exadata. Entonces, Exadata para el cliente es transparente. Nos garantiza tener rendimiento pero también nos garantiza el proceso de aprendizaje desde el disco hasta el software. Es decir, en todas las capas.

El aprendizaje en infraestructura es también muy importante. Por eso, para que el proceso de IA sea completo tenemos que controlar tanto la parte de infraestructura como la de software. Y eso ahora sólo puede hacerse en el cloud.

Con el tiempo, y eso ya lo anunció Larry Ellison, se incorporará también a la oferta de Cloud híbrida de Oracle, que es lo que llamamos “Cloud at Customer”. Aquí las máquinas son propiedad del cliente y se instalan en su centro de datos, pero el modelo de “Delivery” es Cloud.

Hay algunos clientes que por seguridad en su negocio no pueden permitirse ir al Cloud público 100%, pero sí se pueden beneficiar de los sistemas de auto-parcheado, de prevención. Por eso los automatismos están presentes en la base de datos y están incorporados, pero la Inteligencia Artificial es mucho más que eso. La gestión autónoma de una plataforma, el auto-parcheado y la auto-reparación que tiene que ver con todas las capas incluyendo las capas físicas. Por eso está en el cloud.

MCPRO: El auto-parcheado, esto es, todas estas soluciones en las que el software es “consciente” en cierta medida, ¿hasta qué punto es realmente autónomo? Es decir, ¿son un conjunto de reglas que evolucionan o es una capacidad del software para detectar que algo no está bien y que tiene que ser solucionado?

Elena Montoya: Hoy por hoy lo que hace el software autónomo, en esta primera versión para Data Warehouse, es la detección y recomendación. El proceso de parcheado lo hacen nuestros especialistas en los Data Centers. El software hoy no se auto-parchea por su cuenta. Lo que sí tiene son patrones para detectar riesgos, intrusos, comportamientos anómalos,… con una serie de técnicas que le permiten detectar cuándo se están produciendo cambios en la plataforma que requieren algún tipo de intervención o de parcheado.

Los parches hoy los aplica una persona. Nuestra visión es llegar a la auto-reparación del sistema de base de datos. Hoy esto todavía no es así.

Lo que sí se resuelve es que nosotros damos un SLA de 99,995% de que el sistema estará completamente online. Que el parcheado se hará completamente online. Ninguno de nuestros clientes que han probado el software como “Early Adopters”, nunca han notado que el sistema haya sido parcheado con distintos niveles de prioridad.

Si son parches que afectan a la integridad del sistema se aplican inmediatamente. Si son parches de incorporación de nuevas funcionalidades entonces es una persona la que decide cuándo se van a aplicar. Los parches de seguridad en su mayoría se aplican automáticamente y lo que sí existe hoy es que los parches se instalan sin interrumpir el servicio.

Los parches de nueva funcionalidad todavía se aplican en momentos de baja demanda. Estamos en el primer paso. Nunca podría funciona el auto-parcheado si no consiguiéramos esa capacidad de hacerlo completamente online.

MCPRO: Entonces, en el caso de esas implantaciones de “Cloud at Customer”, entiendo que son empresas con un interés especial en la seguridad de sus datos. Por definición, si el sistema aprende es porque hay un feedback, de las instalaciones hacia la nube de Oracle. Es decir, sale cierta información de esas nubes tan privadas. ¿Esos clientes no tienen un interés especial en saber qué sale hacia fuera de sus sistemas?

Elena Montoya: En el caso de Cloud at Customer, los datos están en las máquinas del cliente, pero la operación es completamente Cloud. Hay un túnel privado con Oracle bajo un modelo estrictamente de servicio. Esto está operado por la misma Oracle o por un tipo de partners con los que tenemos acuerdos específicos.

Salen algunas cosas, como pueden ser recomendaciones, pero lo que jamás pueden ver las personas de Oracle que están en los Data Centers son los datos sensitivos, la información que el cliente almacena en las bases de datos. Como en toda base de datos existen sistema de alerta, de alarmas, detecciones, es decir, elementos incorporados en el propio software que alimentan la consola de administración o que disparan alertas.

MCPRO: En el caso de los anuncios por llegar, has hablado de la solución OLTP y también está prevista una solución NoSQL para entornos de cadencias muy altas de datos de pequeño tamaño como IoT y otra solución basada en grafos ¿Qué nos puedes avanzar sobre estos futuros servicios y productos?

Elena Montoya: Esta mañana también se ha presentado Automonous Analytics Cloud Service, que es la parte de explotación de los datos. Nuestro core es la gestión de la información, y cada cliente la gestiona desde distintos puntos de vista. Hay gente que utiliza más los datos estructurados (Autonomous Data Warehouse o Database), también tenemos muchos clientes que usan bases de datos NoSQL, como bases de datos no estructuradas. Autonomous NoSQL va a seguir la misma filosofía, vamos a tener NoSQL en el Cloud, On Premises e Híbrida. Y en estas bases de datos hay muchas necesidades de seguridad, de parcheo, de gestión. Tienen a veces que parametrizarse, configurarse la cantidad de procesos paralelos que va a tener, los niveles de concurrencia, los niveles de consumo de CPU, los niveles de crecimiento para saber cuándo te estás quedando sin espacio o no.

Es decir, toda esta problemática es común tanto a una base de datos relacional como Enterprise Edition como a una base de datos NoSQL. Aunque las formas de almacenamiento puedan ser diferentes, los problemas de la gestión son muy comunes en la mayoría de los casos. El aprendizaje automático y el uso Machine Learning es una decisión crucial y puede aplicarse en todas las partes del software. Siempre puedes ir un paso más allá y convertir muchos de los mecanismos de administración, por buenos que sean, en autónomos.

“Incorporar Machine Learning es la decisión más importante que nunca hemos tomado”
Larry Ellison

Autonomous Graph es un servicio que representa la información de un modo muy distinto y que ahora está muy de moda. Tiene dos partes muy diferentes: la propia construcción del grafo, que necesita mucho proceso para hacerla, y luego la analítica que emplea algoritmos propios de inteligencia que los clientes pueden utilizar sobre el grafo. Esto es lo que va a tener el servicio de Autonomous Graph.

Hoy tenemos Graph dentro de Enterprise Edition y de nuestros componentes Big Data. Pero hay gente que sólo quiere cargar datos, que se construya el grafo y analizarlo. Y esto es lo que va a permitir Autonomous Graph Service. Todavía no tenemos fecha definida, pero será uno de los próximos lanzamientos. Muchos de nuestros próximos anuncios incorporarán la etiqueta de “Autonomous”.

Otra de las características que vienen en breve dentro de Autonomous Database y de Autonomous Data Warehouse es toda la parte de “In Memory”. Sabes que tenemos también “In Memory Option”, que es una forma de trabajo Data Warehouse In-Memory con los datos columnares. Esto vendrá pronto dentro de Data Warehouse. Y por supuesto la Analítica, que es la parte de Graph.

La idea de Autonomous Graph Service es que se pueda construir el grafo y hacer la analítica sobre datos que cargue la gente en el servicio no necesariamente requiriendo nuestro Autonomous Database por debajo. Es un poco el símil de quién se beneficia de Autonomous Database o Data Warehouse. Si en una compañía tienes cualquier herramienta de analítica de datos, de tratamiento de datos, tienes un beneficio inmediato de esto.

Cosas tan sencillas y tan difíciles como que los clientes hagan backups y los hagan bien, eso está incluido en el servicio de Autonomous Data Warehouse. Por defecto los datos están cifrados, están seguros. Las comunicaciones están securizadas y los backups se hacen sin intervención del cliente. Esto es muy importante. Cualquier aplicación se beneficia inmediatamente de esto. En Graph sucederá un poco lo mismo. Autonomous Graph tendrá inteligencia de por sí, otra gente querrá cargar datos que no necesariamente vendrán de nuestro propio software. De entornos Big Data, de base de datos, para hacer Graph Analytics.

MCPRO: Por terminar, tiene todo el sentido que en los entornos Cloud la propia arquitectura ayude a autogestionarse, por oposición a los entornos On Premises. Acaba siendo redundante que tengas un panel que te diga “Te estás quedando sin memoria, haz esto”. Y si no lo haces, tengo un problema. ¿No tiene mucha más lógica que se defina un “campo de juego”, con unos límites, con unas alarmas, con unos thresholds y que el propio sistema, en función de una realidad que puede ser que haya unos picos de sobrecarga, se adapte a eso y aprenda y sepa cómo gestionarse? Evitar eso en otros campos ya está resuelto.

Elena Montoya: La verdad es que esa definición de límites, thresholds, alarmas, ya existe. Hay gente que gestiona muchas cosas. Mucha gente está constantemente añadiendo espacio. O gestionando concurrencia, gestionando picos. Hablando de costes, hasta ahora los sistemas se diseñaban para el pico máximo de utilización. El sistema Autonomous Database es autoelástico. Es capaz de saber dónde está respecto a los márgenes que le ha indicado el cliente. Cuáles son sus políticas.

Hoy también existe diferenciación de usuarios, se les puede asignar un perfil de consumo máximo o de consumo mínimo. Pero a partir de ahí el sistema es capaz de saber y de anticipar cuando estará más o menos utilizado. Y podrá dar de baja cores por los cuales el cliente paga. Si no tienes actividad por la noche, las CPUs se apagan y el cliente no paga por ellas.

O cuando estás llegando al umbral de la previsión de carga que sea capaz de aumentarlo. Son tareas que hoy sí que teníamos muchos mecanismos de aviso, recomendación y anticipación. Pero la orquestación de todas ellas es lo que conforma el paso de llegar a ser autónomo.

Por último, hay un aspecto que para nosotros es muy importante, como es la ciberseguridad. Securizar la base de datos desde el origen o el tema del backup. En el futuro también llegará el Disaster Recovery.

Todo eso hace que al final el foco de la preocupación de los clientes vaya más a qué datos tengo que meter aquí y cómo los voy a explotar que no a este tipo de tareas que ya estaban bastante automatizadas pero que no eran autónomas.

MCPRO: Muchas gracias por su tiempo. Ha sido un placer.

Continuar leyendo

Lo más leído