Entrevistas
«La modernización ya no es sólo migrar a la nube; es preparar el terreno para la IA»
Andrés Marín Martínez / Giulio Vezzelli
Vice Presidente para la región de Iberia / Solutions Architect Manager para el Sur de EMEA
MongoDB
Madrid se ha convertido el pasado 10 de diciembre de 2025, en el epicentro de la estrategia de datos en el sur de Europa. En el marco del MongoDB.local Madrid, celebrado en IFEMA, la compañía tecnológica ha reunido a expertos, partners y clientes para abordar una realidad ineludible: la Inteligencia Artificial Generativa ha dejado de ser una promesa para convertirse en un imperativo industrial. Sin embargo, para que esta tecnología escale, las empresas españolas se enfrentan a un obstáculo arquitectónico: la convivencia con sistemas heredados (legacy) que dificultan la innovación.
Durante el evento, MuyComputerPro ha tenido la oportunidad de entrevistar en exclusiva a dos de las figuras clave de la compañía en la región: Andrés Marín Martínez, Regional Vice President de MongoDB para Iberia, y Giulio Vezzelli, Solutions Architect Manager para el Sur de EMEA. En esta conversación a dos bandas, analizamos cómo su nuevo programa de modernización (AMP) está utilizando la propia IA para reescribir el código del pasado, por qué el 95% de los pilotos de IA fallan al ignorar el contexto del dato y cómo tecnologías como la encriptación en uso están resolviendo el dilema de la soberanía digital.
[MCPRO] MongoDB, con su programa AMP (Application Modernization Program), promete alcanzar la modernización de sistemas legados mediante el uso de IA. Considerando que sectores clave en España, como la banca y los seguros, todavía dependen mucho del mainframe y de arquitecturas relacionales muy monolíticas, ¿cuál está siendo la recepción real del mercado español ante una propuesta de refactorización que va más allá del simple «lift and shift»?
[Andrés Marín]: Bueno, en este momento muchos clientes lo ven con sorpresa, pero con mucha expectación. La razón de fondo es que la mayoría de estas compañías que mencionas llevan muchos años intentando modernizar sus sistemas tecnológicos, intentando innovar, y a menudo encontrándose con barreras muy altas.
Nosotros en MongoDB, inicialmente, hace unos años, crecimos mucho para nuevas aplicaciones. Es decir, cuando una compañía grande o pequeña quería desarrollar una nueva aplicación moderna, empezaba a elegir MongoDB porque era más apropiada para las necesidades que hoy en día tienen las aplicaciones digitales: flexibilidad, velocidad, escalabilidad.
Pero claro, ¿qué es lo que pasa? Como bien dices, hay muchas compañías que no han nacido ayer; muchas compañías que llevan decenas de años con aplicaciones y sistemas antiguos en funcionamiento crítico. Entonces, ¿cómo ayudarles? Para nosotros, hemos ido un poco más allá del valor que aporta la tecnología per se, del valor de la base de datos, para ayudar a los clientes a ser capaces de llevar una aplicación del punto A al punto B. Es decir, tomar esa aplicación que está en sistemas legacy y llevarla a una arquitectura moderna que les permita innovar mucho más rápido, que les permita dar un mejor servicio a sus clientes y ser más competitivos. AMP va de eso: va de ayudarles a reducir drásticamente el tiempo, el esfuerzo y la complejidad de hacer esa transformación, que históricamente ha sido muy dolorosa.

[MCPRO] Y además de banca y seguros, que digamos es el caso paradigmático de tener estos sistemas monolíticos Legacy, ¿qué otros sectores veis que pueden estar interesados en esta modernización profunda?
[Andrés Marín]: Son muchas compañías. Si miramos el IBEX 35, es verdad que tenemos mucha banca y mucho seguro en España, que son sectores muy pesados en datos y transacciones, pero también vemos mucho interés en compañías de retail, energía y telecomunicaciones.
Y es importante matizar algo: no solo hablamos de salida del mainframe. Hablamos de sistemas monolíticos en general, hablamos de sistemas que corren en bases de datos relacionales tradicionales (RDBMS) que se han vuelto gigantescas y difíciles de manejar. Hablamos de arquitecturas que no están preparadas para dar respuesta a los niveles de rendimiento, a la baja latencia y a la concurrencia masiva que piden hoy en día los usuarios que usan las aplicaciones móviles y web.
[MCPRO] El tema presupuestario también es delicado. Para un CIO que se enfrenta a restricciones presupuestarias —como todos los CIOs se enfrentan periódicamente— y que ve que una inversión inicial en modernización puede ser una barrera, ¿qué casos de éxito o métricas financieras tenéis donde AMP haya sido eficaz para optimizar estos recursos?
[Andrés Marín]: Absolutamente. En los clientes que ya están más avanzados con AMP, los primeros clientes early adopters que decidieron apostar por esa aproximación de modernización asistida por IA, se han conseguido ratios de entre 3 y 6 veces de mejora en los tiempos de modernización.
Esto es fundamental: no solo hablamos de reducir los tiempos de calendario, sino de reducir la necesidad de recursos humanos y técnicos para hacer este tipo de proyectos. Por lo tanto, hay un ahorro de costes directos derivado de hacer esta modernización más rápido y con menos gente. En algunos casos, si esto no se hubiera hecho con AMP, los clientes no solo no hubieran sido capaces de llegar a tiempo a lo que les pedía su negocio (time-to-market), sino que los costes habrían hecho quizá difícil o improbable que se hubieran decidido a llevar a cabo esa modernización.
Además, MongoDB ayuda a los clientes a ahorrar costes operativos (TCO) por cómo escala: comparado con una base de datos relacional que escala verticalmente (necesitando máquinas más grandes y caras), MongoDB escala en horizontal con hardware commodity. Y luego también porque el tiempo de los desarrolladores es el recurso más costoso, y con nuestra plataforma implementan cambios mucho más rápido.

[MCPRO] También desde el punto de vista financiero, imagino que la eficiencia de la plataforma influye, especialmente con la llegada de la IA.
[Andrés Marín]: Claro. Y sobre todo, como tú decías, con la inteligencia artificial, uno de los miedos más enormes que hay ahora mismo es el incremento del coste de la computación. «Necesito más computación para mis aplicaciones si incorporo inteligencia artificial generativa». Pues con MongoDB, debido a la eficiencia de nuestra arquitectura y gestión de recursos, el coste de la computación es mucho menor que con otras bases de datos relacionales o vectoriales separadas. Es mucho más eficiente.
[MCPRO] Quería preguntarte sobre el futuro de la inteligencia artificial y su adopción por parte de las empresas. Hay cifras, y creo que habéis enseñado algunas vosotros también, sobre que las empresas que han aplicado proyectos de inteligencia artificial todavía no ven un retorno claro. Un estudio del MIT indicaba que el 95% de los proyectos fallan. ¿Cómo veis ese futuro? ¿Están avanzando proyectos ya más serios con un retorno claro?
[Giulio Vezzelli]: Cierto. Si tomamos precisamente el estudio del MIT, la consideración es impactante: el 95% de los proyectos enterprise de IA no están dando los resultados esperados. Creo que hay diversos modos de leer esta estadística.
Uno es, seguramente, el que hemos visto hoy en la presentación: que no han tomado en consideración plenamente el papel de los datos en estos proyectos. Si habéis utilizado aplicaciones de inteligencia artificial generativa como usuarios —ChatGPT, Claude, etc.—, veréis que son más valiosas cuanto más entienden el contexto de vuestro problema, de vuestra pregunta. Para las aplicaciones empresariales es exactamente lo mismo.
Si yo, como empresa, no consigo conectar mis datos de negocio —mis datos «reales», operativos— a estas aplicaciones, no consigo superar ese primer nivel que es, digamos, un nivel de productividad personal (hacer un resumen, escribir un email mejor). Pero no logro realmente mejorar un proceso de negocio core. Cuando pongo juntos mis datos de negocio, y no solo los de ahora, sino también todos los históricos, y pongo a factor común todo esto para explotar esta tecnología, entonces sí vemos el retorno. Probablemente ese 5% de éxito corresponde a quienes han entendido que el dato es el combustible.

[MCPRO] ¿Pero piensas que en un futuro próximo habrá esta evolución? ¿Que habrá proyectos que tomen en consideración más cómo funciona el negocio?
[Giulio Vezzelli]: Absolutamente sí. La tecnología está dando pasos de gigante; los LLMs ya son extremadamente potentes y cada vez más sostenibles económicamente. Así que la tecnología no me preocupa. Creo que ahora también la cultura del proyecto está llegando exactamente a donde debe llegar. Las consideraciones que hemos hecho hoy en el evento van en esa línea. Creo que la respuesta es un rotundo sí.
[MCPRO] Y esta transformación y evolución de la IA generativa a la IA «Agéntica» (Agentic AI), ¿es estratégica? ¿Y cuál es el desafío más grande que afronta una empresa cuando hace esta transformación?
[Giulio Vezzelli]: Creo que hay al menos dos desafíos que vale la pena citar. Una es la vieja y querida gestión del cambio. Y esto es fundamental porque una verdadera inteligencia artificial agéntica cambia el modo de interactuar con la tecnología.
Satya Nadella ha imaginado un futuro en el que las aplicaciones ya no son interfaces de botones para pulsar, sino interfaces conversacionales y de intención. Imaginad qué cambio requiere esto en la mentalidad de los empleados y clientes. Así que hay toda una gestión del cambio que debemos gestionar y ayudar a nuestros equipos a comprender.
Y luego existe el desafío del dato, que claramente para nosotros es un desafío muy cercano al corazón. Sirve un modo de poner todos los datos históricos, en tiempo real, de cualquier forma (estructurados o no estructurados), a factor común, al servicio de estos agentes. De lo contrario, estos agentes no lograrán nunca hacer su trabajo de razonamiento y ejecución.
[MCPRO] Quería volver un poco a la modernización AMP. He leído que hay cierta preocupación de que esto sea una «caja negra», en el sentido de que no hay transparencia en la transformación que gestiona la IA de AMP. ¿Cómo se garantiza que sea gobernable, transparente y visible para los responsables?
[Giulio Vezzelli]: Es una consideración interesante. Lo primero que me vendría a la mente es que deberíamos definir qué es esa «caja negra», porque podría decirse que quizás un LLM en sí mismo es una caja negra.
En realidad, nosotros nos aseguramos —más allá de las herramientas— de que el output modernizado, el resultado, sea algo que respeta los criterios y las líneas guía arquitectónicas del cliente. No damos al cliente un resultado modernizado basado en componentes oscuros que el cliente no puede controlar.
Una de las primeras cosas que decidimos junto a los clientes es: «decidnos cuáles son las guías arquitectónicas, qué componentes y tecnologías queréis que el resultado siga». Es una pregunta que nos hacen todos: «¿Después tenemos que usar una librería propietaria de MongoDB?». No. MongoDB es siempre MongoDB, con drivers open source. Es importante concentrarse en la apertura del resultado. Además, trabajamos con metodologías ágiles, donde cada semana el cliente tiene una reunión de avance y ve paso a paso qué está sucediendo. Es un enfoque muy integrado y abierto, no una caja negra donde metes algo y esperas a ver qué sale.
[MCPRO] Existe también otro debate sobre la adopción de estas bases de datos vectoriales muy específicas frente a una plataforma de datos convergente. ¿Cuál es la visión de MongoDB sobre esta consolidación tecnológica? ¿Qué debería hacer un arquitecto para evitar la fragmentación?
[Giulio Vezzelli]: Es un punto crítico. Claro que si miramos el panorama de las bases de datos vectoriales, puedo encontrar la última base de datos «brillante» (shiny), la que está de moda esta semana, que quizás tiene alguna característica única.
Pero si miramos estos instrumentos, primero debemos preguntarnos si son capaces de operar en una arquitectura de nivel enterprise. Si la adopto, ¿quién me da soporte? ¿Qué tipo de skills encuentro en el mercado? Esa es la primera consideración. La segunda es: ¿cuáles son las funcionalidades que verdaderamente mueven la aguja en términos de valor de negocio?
Un arquitecto debe tener en cuenta que a la complejidad arquitectural corresponde inmediatamente un coste operacional y un riesgo operacional. Y finalmente, debo considerar qué experiencia de desarrollo quiero ofrecer a mis equipos. Si tengo diez tecnologías diversas, deben aprender diez tecnologías diversas. No puedo perseguir un objetivo académico; debo garantizar un time-to-market. Por eso nuestra visión es la plataforma convergente: vectores, operacional, búsqueda y streams en un solo lugar.
[MCPRO] Hablando de competencia, los superescalares (AWS, Google, Azure) también están integrando bases de datos vectoriales nativas. ¿Cómo convencéis a vuestros clientes de que Atlas es la respuesta frente a estas propuestas nativas de la nube?
[Andrés Marín]: Hay algunos diferenciadores que son obvios y otros que requieren entrar más al detalle. Quizás el más obvio es la posibilidad que ofrece MongoDB de correr en cualquier lugar (run anywhere). Es decir, servicio gestionado en cualquiera de los tres mayores hiperescalares de manera indiferente. Pero también en on-premise, e incluso hasta en un portátil para desarrollo local.
Con la misma tecnología puedes correr como servicio gestionado en la nube o bien en on-premise con tus propios recursos. Lo cual al cliente le da mucha tranquilidad y garantía, ya que le ayuda a evitar el vendor lock-in que tendrías desplegando tus aplicaciones en la arquitectura nativa propietaria de un solo hiperescalar.
Además, históricamente hemos demostrado que cuando una aplicación escala, escala mucho mejor con MongoDB. Cuando necesitas disponibilizarla para millones de usuarios en tiempo real, es cuando sufren esas tecnologías nativas o relacionales adaptadas. Con MongoDB funciona mejor y es más económico a escala.

[MCPRO] Has mencionado el tema del vendor lock-in, que sé que es una preocupación muy importante. ¿Cómo de sensibles ves a vuestros clientes potenciales en el tema concreto de la soberanía del dato? ¿Qué podéis ofrecerles en ese sentido?
[Andrés Marín]: Es un punto muy de actualidad. Vemos un interés brutal en los clientes en implementar arquitecturas híbridas. Por distintos motivos: uno suele ser la resiliencia, otro es la soberanía del dato y la regulación (especialmente en banca y seguros).
Pero por otro lado, también quieren acceder a los beneficios del cloud a nivel de agilidad e innovación (IA, LLMs). Quieren esa tecnología, pero no quieren perder el cumplimiento normativo. MongoDB es una de las únicas tecnologías que habilita la posibilidad de desplegar una misma aplicación en distintos cloud vendors, en distintas regiones y en on-premise de manera simultánea, garantizando que te puedes llevar los datos de un lugar a otro en caso de necesidad o emergencia regulatoria.
[MCPRO] Querría hablar un poco de la seguridad y la privacidad, que es una de las preocupaciones grandes para la adopción de la IA. ¿Cómo resolvéis vosotros el problema? ¿Es posible garantizar que un modelo de IA respete las políticas de seguridad de una compañía?
[Giulio Vezzelli]: Absolutamente sí. Las políticas, ante todo, incluyen clasificación de datos y también criptografía. MongoDB tiene características de seguridad de nivel enterprise (RBAC, auditoría). Pero es en la criptografía donde tenemos un diferenciador absolutamente único: el concepto de Criptografía en Uso (Queryable Encryption).
Existe la criptografía en reposo y en tránsito. Pero el concepto de «en uso» significa que el dato está encriptado incluso en la memoria del servidor de base de datos, hasta que efectivamente el usuario autorizado lo visualiza. Esto permite dos cosas pioneras: primero, puedo usar una clave distinta para cada usuario y, si la destruyo, el dato se vuelve ilegible inmediatamente (derecho al olvido). Segundo, las claves están en posesión del cliente, no del proveedor cloud ni de nosotros. Nadie más puede ver el dato. Y lo más importante: estos datos pueden ser interrogados mientras están encriptados. Esto permite un nivel de cumplimiento regulatorio altísimo para la IA.
[MCPRO] El tejido empresarial español está compuesto principalmente de pymes. ¿Vuestra oferta y esta innovación ligada a la IA es accesible para las pymes?
[Andrés Marín]: Desde luego. La fortaleza de MongoDB en el mercado se refleja en nuestra amplia adopción entre startups de alto crecimiento y pequeñas y medianas empresas, muchas de las cuales están creciendo rápidamente y representan la próxima generación de empresas líderes españolas.
Muchas startups comenzaron a desplegar sus nuevas soluciones de IA en MongoDB incluso antes del boom de ChatGPT, porque nuestra tecnología se adecua muy bien. La posibilidad de no tener que desplegar tu propia infraestructura física, de desplegar clústeres en Atlas a golpe de clic en minutos, lo hace muy económico y facilita mucho comenzar a desarrollar desde un portátil y disponibilizar la app a bajo coste y súper rápido.
[MCPRO] Y para finalizar, con toda esta automatización y la IA, ¿cómo debe evolucionar el rol de la ingeniería de datos y los desarrolladores? ¿Se enviará a la gente a casa?
[Giulio Vezzelli]: Es una pregunta muy interesante. Mi respuesta se conecta con lo que dije sobre AMP: no puedes simplemente volcar una aplicación en un LLM y esperar que salga modernizada. No funciona así.
El rol del desarrollador evoluciona: ya no es solo quien escribe el código, sino quien sabe cómo debe escribirse el código y cómo descomponer los problemas para que la IA los resuelva. Deben gobernar estos sistemas. Si pensamos que podemos sustituir a los desarrolladores con LLMs, es una visión a corto plazo y poco evolucionada que nos llevará a ese 95% de fracaso en los proyectos.
Es como el periodismo: no podemos sustituir a los periodistas con LLMs porque los resultados serían devastadores. Debemos darles estas herramientas para elevar sus profesiones, no para sustituirlos.
-
A FondoHace 5 díasPíldora roja o píldora azul
-
NoticiasHace 7 díasAgentic Workflows, el proyecto abierto de GitHub Next ya está disponible
-
NoticiasHace 6 díasASUS presenta el portátil para empresas, ExpertBook B3 G2
-
EntrevistasHace 5 días«Es crucial conectar la IA a conocimiento interno y a los flujos reales de trabajo»

