Entrevistas
«La mejor forma de acelerar la IA no es mover más datos, es llevar la IA allá donde están»
Óscar Rivas
Director de Preventa para Iberia
Dell Technologies
Óscar Rivas, director de Preventa para Iberia en Dell Technologies, defiende una idea contundente: la IA solo funciona cuando los datos dejan de ser un problema y se convierten en una plataforma orquestable sobre la que construir negocio. En lugar de empezar por contar GPUs o levantar nuevos clusters, la estrategia de Dell pasa por entender el recorrido del dato, gobernarlo y diseñar toda la infraestructura (con almacenamiento, cómputo y red) alrededor de ese ciclo de vida.
En este enfoque, la AI Data Platform hace de columna vertebral ya que combina motores de almacenamiento de alto rendimiento (fichero y objeto), motores de datos (catálogos, analítica, gobierno) y una capa de cómputo flexible para que los datos estén siempre donde deben y con el throughput que exigen los modelos de IA empresarial. Una vez que el dato está controlado, el debate sobre cómputo deja de ser un cuello de botella y pasa a depender de parámetros como la latencia, la regulación o los costes, algo especialmente relevante en un mercado como el español, muy presionado por el regulador en materia de protección de datos y digitalización.
Óscar Rivas constata además un patrón claro en el terreno: los proyectos de IA que realmente escalan no se diferencian tanto por el modelo elegido o por el número de GPUs, sino por el rigor con el que tratan el dato. Allí donde hay gobierno de datos serio, calidad industrializada y productos de datos reutilizables, los pilotos dejan de ser “juguetes” y se convierten en servicios en producción que generan retorno y abren la puerta a nuevos casos de uso. España, dice, va por delante en adopción de IA empresarial, pero sigue teniendo demasiados pilotos atascados por falta de calidad del dato y capacidades muy específicas, más que por una mala elección del modelo.
En paralelo, el almacenamiento ha dejado de ser “el aire acondicionado del CPD” (solo visible cuando falla) para convertirse en un motor de crecimiento ya que determina cuánto partido se le saca a unas GPUs que no son baratas, condiciona la capacidad de escalar casos de uso sin rehacer la infraestructura cada año y es pieza clave para cumplir con los crecientes requisitos de ciberresiliencia y soberanía del dato.
Sobre esta base, Dell propone un tejido de datos multicloud e híbrido, políticas de protección coherentes de extremo a extremo y modelos de consumo flexibles (compra tradicional, pago por uso, consumo directo en nube pública vía APEX) para que sea el negocio, y no la tecnología, quien decida dónde vive cada carga de IA.
[MCPRO] Dell habla cada vez más de plataformas de datos para IA y de una infraestructura diseñada “alrededor de los datos” más que del mero cómputo. ¿Cómo resumirías la visión de Dell sobre el nuevo papel que están jugando los datos en las iniciativas de IA y cloud de vuestros clientes?
[Óscar Rivas] La forma más sencilla de resumirlo es que la Inteligencia Artificial solo funciona cuando los datos dejan de ser un problema y se convierten en una plataforma que puedes orquestar y gestionar con sentido. Durante años, el punto de partida eran servidores y cabinas, y los datos se adaptaban como podían a esa infraestructura; ahora, en los proyectos de IA que vemos en España, el punto de partida es justo el contrario: entender el recorrido del dato y diseñar la infraestructura alrededor de él.
Nuestra AI Data Platform refleja muy bien esta visión, porque combina motores de almacenamiento de fichero y objeto que garantizan que los datos estén donde deben y con el rendimiento que necesitan los modelos; motores de datos que permiten descubrir, gobernar y exponer esos datos de forma consistente, y una capa de cómputo que puedes elegir con mucha más libertad en función de latencia, regulación o costes. En un mercado tan regulado como el español, esa visión centrada en el dato es lo que diferencia los proyectos que se consolidan y generan valor de los que se quedan en piloto.
[MCPRO] Muchas organizaciones se han quedado atascadas en pilotos de IA porque sus datos están distribuidos, duplicados o encerrados en silos. ¿Qué estáis viendo en los proyectos que sí escalan a producción?
[Óscar Rivas] Lo que vemos es un patrón bastante claro: los proyectos de IA que escalan no se parecen entre sí por el modelo que usan o por la cantidad de GPUs, sino por cómo tratan el dato. Lo primero es contar con un gobierno de datos serio, con fuentes de referencia bien definidas, dominios de datos claros y responsables identificados; eso evita tener múltiples versiones del mismo dato y esos «Excel paralelos» que todos hemos sufrido.
Lo segundo es industrializar la calidad y el ciclo de vida del dato, de forma que la limpieza, el enriquecimiento y la actualización formen parte del día a día, no de un esfuerzo puntual cada vez que arrancas un piloto. A partir de ahí, el paso natural es hablar de productos de datos reutilizables entre distintas áreas de negocio, que permiten que un caso de uso exitoso no sea una excepción sino la base para otros muchos. España está por encima de la media en adopción de IA empresarial, pero muchos pilotos se quedan en fases tempranas no tanto por la elección del modelo como por falta de calidad de datos y de ciertas capacidades muy específicas.
[MCPRO] En este contexto, ¿hasta qué punto el almacenamiento ha pasado de ser un componente de backoffice a un auténtico motor de crecimiento en los proyectos de IA y GenIA?
[Óscar Rivas] Tradicionalmente, el almacenamiento se veía como algo de backoffice, casi como el «aire acondicionado del CPD», solo te acuerdas de él cuando falla. Era una capacidad necesaria, pero poco visible para el negocio. Con la IA eso cambia por completo, porque se convierte en un motor de crecimiento. No es solo la GPU, de la que hablamos todos, la que impulsa ese crecimiento, sino la plataforma de datos que la alimenta. Se sigue cumpliendo el principio de “Garbage In, Garbage Out”; si los datos no llegan a tiempo o no llegan con la calidad adecuada, la inversión en modelos y aceleradores no se amortiza.
El almacenamiento pasa a determinar cuánto partido sacas de tus GPUs, hasta el punto de que si el throughput no acompaña, muchos casos de uso simplemente no son viables y te obliga a rehacer la plataforma cada poco tiempo. Por eso insistimos en planificar desde el principio una plataforma capaz de acompañar el viaje desde el estado inicial hasta una puesta en producción a gran escala, y de hacerlo además cumpliendo con requisitos de riesgo operativo y regulatorio, incluidas capacidades de recuperación frente a incidentes de seguridad o ransomware.
[MCPRO] Muchos equipos de datos se quejan de que sus GPUs están infrautilizadas porque la arquitectura de datos no da más de sí. ¿Cómo está abordando Dell este cuello de botella y qué buenas prácticas recomendarías para “llevar la IA a los datos” en lugar de mover continuamente los datos hacia la IA?
[Óscar Rivas] Es una queja muy habitual que te encuentres clusters de IA muy potentes, pero con GPUs trabajando al treinta o cuarenta por ciento porque la capa de datos no alimenta los modelos al ritmo que necesitan. El cuello de botella no está en el modelo ni en la inversión en cómputo, sino en una arquitectura de datos que no está pensada para procesos masivamente paralelos. Desde la óptica de almacenamiento, la primera buena práctica es nacer con una arquitectura preparada para crecer en modo scale-out, no solo en capacidad de almacenamiento sino en capacidad de proceso de ese almacenamiento. Ajustar la arquitectura a posteriori es mucho más complejo y tiende a crear silos.
La segunda buena práctica es reducir al mínimo el movimiento de datos, acercando el cómputo allí donde están los datos en lugar de copiarlos entre entornos. Y la tercera es diseñar desde el principio para múltiples proyectos concurrentes, con una capa de datos común capaz de ofrecer distintos niveles de servicio en función de la prioridad de cada proyecto. Cuando aplicas este enfoque, el impacto se ve en dos métricas que interesan mucho al CIO: mayor utilización de los recursos de cómputo y menos tiempo perdido, tanto por los sistemas como por los equipos de datos, en tareas de logística del dato.
[MCPRO] Con propuestas como APEX File Storage para Azure y la extensión de PowerScale y ObjectScale al cloud público, defendéis un modelo en el que el dato mantiene los mismos servicios y políticas independientemente de dónde resida. ¿Cómo está cambiando este enfoque multicloud la forma en la que las organizaciones planifican sus plataformas de datos para IA?
[Óscar Rivas] La realidad es que prácticamente ningún cliente mediano o grande vive ya en un único entorno; combinan CPDs propios, colocation en centros de terceros y varias nubes públicas simultáneamente. En ese contexto, el dato no vive en un solo sitio y lo primero es asumirlo. Nuestro objetivo es que las reglas y la forma de gestionar ese dato sean las mismas en tu CPD que en cualquier otra ubicación, evitando que el cliente tenga que soportar distintos modelos de gobernanza, almacenamiento y protección en cada entorno. Extender motores de almacenamiento como PowerScale u ObjectScale al cloud público, por ejemplo a través de APEX File Storage para Azure, permite que el cliente consuma en la nube la misma cabina que tiene on-prem y, si quiere, incluso con sus créditos de cloud, manteniendo una experiencia de datos homogénea.
A partir de ahí, los criterios para decidir dónde ubicar cada dato y cada carga de IA pasan por la latencia y la proximidad, la sensibilidad y la regulación, la necesidad de elasticidad ante picos de demanda y, por supuesto, la estructura de costes y de propiedad de la infraestructura. La idea del tejido multicloud es que la decisión sea de negocio, no una limitación tecnológica. La plataforma garantiza las mismas políticas de datos, rendimiento y gestión independientemente del sitio donde corra la carga.
[MCPRO] En vuestros mensajes recientes situáis la ciberresiliencia y la protección del dato como uno de los tres pilares de la estrategia de almacenamiento para IA, junto al cloud privado y la plataforma de datos. ¿Hasta qué punto los requisitos de protección, soberanía y trazabilidad están condicionando las arquitecturas de almacenamiento para IA?
[Óscar Rivas] En Europa, y especialmente en España, sin ciberresiliencia no hay una IA confiable. No basta con entrenar bien un modelo, hay que ser capaz de demostrar qué datos se han utilizado, protegerlos frente a ataques y recuperar un estado sano en un plazo asumible para el negocio si algo falla.
Esto impone requisitos muy claros a las plataformas de almacenamiento: soberanía y trazabilidad del dato (saber dónde está, quién lo ha tocado y para qué), capacidad real de recuperación ante ransomware y políticas de protección coherentes en todas las localizaciones, incluyendo edge y nube pública.
Nuestra respuesta se articula en tres pilares: seguridad intrínseca en las plataformas (cifrado, aislamiento, control de accesos, auditoría), soluciones específicas de protección como copias inmutables y bóvedas ciberseguras con orquestación automática de la recuperación y, por último, planes de continuidad de negocio ejecutables que incluyen datos, sistemas, modelos y pipelines de IA, no solo ante ciberataques sino también ante fallos de CPD o cortes de suministro. Si uno de esos tres pilares falla, la estrategia de IA se queda coja y, tarde o temprano, las debilidades afloran.
-
A FondoHace 6 díasSubQ: la revolución que promete romper el coste de la IA empresarial
-
NoticiasHace 6 díasPayPal recortará su plantilla un 20% de aquí a tres años
-
NoticiasHace 5 díasAcuerdo en la UE para modificar y retrasar la aplicación de medidas de la Ley de IA
-
NoticiasHace 5 díasSiguen los despidos por culpa de la IA: Cloudflare recortará el 20% de su plantilla y DeepL el 25%

