Conecta con nosotros

Eventos

Inteligencia Artificial, Virtualización y Open Source: Claves para la Transformación Digital

Publicado el

La transformación digital es un imperativo para las organizaciones de hoy, y en su núcleo, la Inteligencia Artificial (IA) emerge como una fuerza disruptiva. Para desentrañar las complejidades y oportunidades que esta tecnología presenta, especialmente en su intersección con la virtualización y el Open Source, MuyComputerPro, con el patrocinio de Red Hat e Intel, organizó una mesa redonda en Valencia. Este encuentro reunió a un panel de expertos de primer nivel, incluyendo a José Manuel Claver (Universitat de València), Carlos Turró (Universitat Politècnica de València), Soledad Valero (Universitat Politècnica de València), Francisco Sanchez (Fermax), Andrés Perales y Matías Piuma (Sesame HR), Jose Ramón Esteve (Kio Networks), Mario Ruiz (Red Hat), Enrique Celma (Intel Iberia) con la moderación de Gustavo de Porcellinis (director de MuyComputerPro).

El debate no solo abordó cómo la IA está redefiniendo los modelos de negocio, la gestión de recursos y la operativa diaria, sino que también profundizó en el papel fundamental que la virtualización y el Open Source desempeñan para una implementación escalable y soberana. Se destacó que, si bien la IA ha generado una «gran ola» de expectativas, como señaló Enrique Celma de Intel , «la verdadera aplicación se encuentra en los casos de uso concretos que resuelven problemas del día a día en el entorno empresarial».

Esta distinción es crucial; la historia tecnológica muestra que, tras periodos de gran entusiasmo, la adopción sostenible se asienta en la utilidad práctica. La atención se desplaza de lo que la IA puede hacer en abstracto a lo que la IA puede hacer para un problema específico, marcando un enfoque más pragmático y orientado a resultados.

La IA como motor de innovación: casos de uso y aplicaciones prácticas

La discusión de la mesa redonda reveló una variedad de aplicaciones de la IA que ya están generando valor en distintos sectores, desde la gestión empresarial hasta la administración pública y concretamente en el sector educativo, representado en la mesa. En el ámbito corporativo, la IA se está convirtiendo en una herramienta esencial para optimizar procesos y tomar decisiones más informadas. Las grandes corporaciones buscan invertir de manera más inteligente en su capital humano.

La IA ofrece la capacidad de analizar vastos conjuntos de datos sobre rendimiento, proyección profesional, formación y habilidades blandas para identificar empleados con alto potencial o aquellos que requieren apoyo. Sin embargo, un desafío persistente es la ausencia de una solución de mercado que ofrezca un «ranking» definitivo de inversión en talento. Esto subraya la inherente complejidad de la evaluación del talento, donde la subjetividad humana y los sesgos algorítmicos plantean retos significativos para la IA en RRHH. Por ejemplo, en el sector hospitalario, la IA podría asistir a los departamentos de recursos humanos en decisiones críticas sobre la defensa de profesionales sanitarios en casos de mala praxis, basándose en registros de formación y procesos de calidad, aunque la dificultad de evaluar el conocimiento real de las personas sigue siendo un obstáculo.

La organización de turnos, un problema que data de los inicios de la programación, sigue siendo un desafío complejo para las grandes empresas. Andrés Perales y Matías Piuma de Sesame HR están desarrollando agentes de IA para interpretar y traducir estructuras de turnos complejas, a menudo presentadas en formatos dispares como PDF, JPG o Excel. Este proceso, que actualmente demanda una semana de descifrado manual por parte del personal, se busca automatizar para detectar patrones y facilitar la confirmación de excepciones con los responsables. El objetivo es reducir drásticamente el tiempo de este proceso, de una semana a apenas dos días, mediante la interacción conversacional con el agente.

Por su parte Francisco Sanchez de Fermax, una multinacional valenciana, comentó cómo esta empresa está implementando la IA para optimizar sus operaciones. Un primer proyecto se centró en la consolidación de información de direcciones, un problema común donde la misma ubicación puede ser registrada de múltiples maneras. El objetivo más ambicioso es integrar técnicos virtuales en su servicio de atención técnica. Esto implica el desarrollo de un chatbot textual capaz de interactuar con cerca de 3.000 manuales técnicos de productos, con una meta de fiabilidad del 99% en la extracción de información. El siguiente paso en esta evolución es la emulación de voz de sus propios técnicos para ofrecer una interacción más natural y familiar a los instaladores que llaman al servicio.

En el ámbito público, la IA también está demostrando su potencial para mejorar la eficiencia y la calidad de los servicios. Un ejemplo destacado es el que comentó el representante de Intel, Enrique Celma, que comentó la implementación de un modelo de IA en el gobierno de Castilla-La Mancha para optimizar la concesión de licencias de impacto medioambiental. Este proceso, que históricamente tardaba dos años, se ha reducido a un plazo de dos meses gracias al sistema de IA. Los funcionarios ahora pueden «chatear con los datos», consultar la documentación y agilizar la interacción con los solicitantes, identificando rápidamente la información faltante.

El rol de los agentes de IA

Un tema recurrente que se compartió en la mesa fue la eficacia de los «agentes» de IA. Estos agentes, ligeros y especializados en tareas concretas, están demostrando ser más efectivos para usos internos y controlados que los chatbots de propósito general. Pueden asistir al personal en tareas específicas, como la atención al cliente o la cualificación de leads, ofreciendo una solución más práctica y menos propensa a «alucinaciones» que los modelos conversacionales abiertos.

Un punto crucial que emergió del debate es la tendencia a «automatizar la mediocridad en lugar de mejorar los procesos subyacentes» como lo definió Francisco Sanchez de Fermax. Se planteó la preocupación de que, en ocasiones, se busca que la IA «arregle» procesos que están fundamentalmente mal diseñados o son ineficientes. Esto puede llevar a que los problemas existentes se ejecuten simplemente más rápido o a mayor escala, sin una verdadera transformación. Una estrategia de IA exitosa requiere una revisión y optimización previas de los procesos de negocio fundamentales, enfocándose en transformar con la IA, no solo en automatizar.

Además, se identificó que el factor humano y la resistencia cultural representan la «última milla» en la adopción de la IA. Un ejemplo claro fue el agente de IA de Sesame HR para la cualificación de leads en México, que, a pesar de estar listo y ser funcional, no fue desplegado debido a la resistencia cultural del equipo de ventas, que percibía la IA como una amenaza a su trabajo. Como señaló Andrés Perales, «culturalmente puede ser que al equipo de ventas de México le moleste mucho que haya una inteligencia artificial haciendo su trabajo«.

Este miedo a la automatización y al desplazamiento laboral puede generar pánico entre los empleados cuando se les pide explicar sus funciones para una posible automatización. Esto pone de manifiesto que, incluso con soluciones tecnológicamente sólidas y beneficiosas, los factores humanos y organizativos pueden ser barreras significativas para la adopción. La implementación exitosa de la IA requiere una sólida gestión del cambio, comunicación transparente y la demostración de cómo la IA mejora los roles en lugar de simplemente reemplazarlos.

El ecosistema Open Source: soberanía, flexibilidad y desafíos

El papel del Open Source en la era de la IA fue un eje central del debate, destacando su importancia para la soberanía del dato, la flexibilidad y la innovación. Los participantes resaltaron que los modelos Open Source son fundamentales para el avance de la tecnología de IA. La publicación de modelos como LLaMA o Pi-4 de Microsoft impulsa la innovación al poner la tecnología al alcance de la comunidad, fomentando la experimentación y la contribución colectiva. Además, los modelos Open Source ofrecen una mayor trazabilidad y control sobre los datos, un aspecto crucial para la confidencialidad y la seguridad, ya que, a diferencia de los modelos privados o en la nube, se puede saber exactamente lo que están haciendo. 

Mario Ruiz de Red Hat enfatizó la distinción entre el Open Source general y el «Open Source empresarial». Red Hat, como líder mundial en Open Source, contribuye activamente a millones de proyectos comunitarios. Sin embargo, su propuesta de valor radica en añadir una capa de estabilidad, parcheado y soporte a estas innovaciones para que las empresas puedan consumir Open Source con seguridad. Como explicó Mario Ruiz, «añadimos ese toque empresarial, precisamente lo que tú decías, para dar estabilidad de versiones, para dar parcheado y para que la empresa que confía en nosotros no tenga que estar pendiente dedicando gente a eso». Esto permite a las compañías beneficiarse de la agilidad y la innovación de la comunidad sin tener que dedicar recursos internos a la gestión de la complejidad y el mantenimiento.

La discusión también giró en torno a la coexistencia de modelos en la nube y soluciones on-premise. Carlos Turró de la Universitat Politècnica de València describió una estrategia híbrida: desarrollar con modelos en la nube (como OpenAI), verificar con modelos locales Open Source, desplegar en servidores propios y, si el escalado lo requiere, desbordar nuevamente a la nube a través de un balanceador de servicios. «El plan es ir para abajo pero volver para arriba», afirmó Carlos Turró. Este enfoque busca mantener la soberanía del dato siempre que sea posible, pero sin sacrificar la capacidad de escalado y el nivel de servicio equivalente que el cliente espera. Kio Networks España reforzó esta idea al señalar que «la soberanía del dato se asegura teniendo el dato localizado«.

Por su parte José Manuel Claver, desde la perspectiva universitaria, compartió: «Nosotros estamos intentando tenerlo todo. A nosotros nos gustaría ser open source, por motivos académicos apostamos, y siempre que podemos por soluciones. Además, por temas históricos y ser una universidad grande tenemos muchos se nuestros sistemas on-premise, lo cual nos da independencia de sistemas propietarios en muchos aspectos, pero no descartamos soluciones en la nube». Y añadió : «En temas de IA nosotros estamos trabajando tanto en modelos propietarios (OpenAI) en a nube y en modelos locales on-premise, utilizando modelos open source, pues hay cuestiones de ética y protección de datos que no debemos olvidar en el uso de estas herramientas«.

A pesar de la promesa del Open Source, Francisco Sanchez de Fermax señaló que, en su experiencia, «los modelos Open Source aún no alcanzan el nivel de calidad y rendimiento de algunos modelos comerciales». Sin embargo, Mario Ruiz de Red Hat contrapuso que la pregunta clave es si realmente se necesita tanto rendimiento para todos los casos de uso. A menudo, un modelo Open Source o local, aunque no alcance los- –benchmarks de un modelo fundacional masivo, puede ser perfectamente eficaz para una tarea específica. Esto revela una tensión entre la búsqueda de la máxima calidad y la necesidad de control y soberanía, llevando a las empresas a sopesar cuidadosamente si la ventaja de rendimiento de los modelos propietarios justifica la dependencia de terceros y la posible pérdida de control sobre los datos y el coste a largo plazo.

Infraestructura y hardware: los cimientos de la revolución IA

La mesa redonda subrayó que el vertiginoso avance de la IA no sería posible sin una infraestructura de hardware robusta y en constante evolución. La historia de la IA está intrínsecamente ligada a la evolución del hardware. Se recordó cómo las primeras GPUs, inicialmente diseñadas para gráficos, fueron adoptadas por la computación de alto rendimiento (HPC) con arquitecturas como CUDA de Nvidia, desencadenando una «revolución gorda» en la IA. La demanda actual de estas tarjetas por parte de hiperescalares como Microsoft y Google es tan «brutal» que ha generado escasez y largas listas de espera de hasta «54 semanas». Ante esta situación, Intel ofrece alternativas como sus aceleradores Gaudi (actualmente Gaudi 3), que ya están siendo probados por clientes y disponibles en la nube, buscando ofrecer una opción viable para el entrenamiento de modelos.

Un enfoque clave es la democratización de la IA mediante el procesamiento en local. Intel está desarrollando CPUs con unidades de procesamiento neuronal (NPUs) diseñadas para ejecutar procesos de IA directamente en el PC, sin necesidad de recurrir a la nube. Esto es especialmente relevante para modelos más ligeros (por debajo de 7 billones de parámetros) que no requieren una infraestructura masiva de GPU para su inferencia. La visión es que muchas de estas capacidades se «democratizarán», permitiendo la ejecución de modelos específicos en entornos locales, lo que contribuye a la soberanía del dato y reduce la dependencia de servicios externos.

La complejidad de diseñar y fabricar CPUs a medida para flujos de trabajo específicos, como los proyectos con Amazon, es «estratosférica» y subraya los desafíos en la cadena de suministro. La demanda insaciable de hardware de IA, combinada con la complejidad de su producción, plantea un reto constante para la disponibilidad y el coste de la infraestructura necesaria para alimentar la innovación en IA.

Regulación, ética y sostenibilidad: el marco del futuro de la IA

El avance de la IA no puede disociarse de las consideraciones regulatorias, éticas y de sostenibilidad, que están configurando el marco en el que se desarrollará esta tecnología. La regulación europea de la IA fue un punto de debate intenso. Se expresó la preocupación de que, si bien Europa se enorgullece de su «avance en legislación», esto podría traducirse en «poner puertas al campo» y frenar la competitividad de la región en IA frente a países como EE. UU. o China, que operan con menos restricciones en el uso de datos.

La Dra. Soledad Valero, experta en IA, señaló que, como investigadores, se sienten «atados de pies y manos» para acceder a grandes conjuntos de datos, a diferencia de sus competidores en China, lo que podría llevar a Europa a ser «tercermundista en IA». La normativa exige que la IA sea «explicable», es decir, que se pueda comprender cómo se llega a un resultado. Sin embargo, la complejidad de la IA moderna hace que esta explicabilidad sea un desafío, ya que implica no solo entender las fuentes de datos, sino también el código subyacente y la lógica interna de los modelos.

La ética de la IA es una preocupación transversal. Francisco Sanchez de Fermax expresó que el uso de la IA «puede ser perverso» , especialmente al tomar decisiones sobre personas, como la predicción del abandono estudiantil, que, aunque prometedora, se ha frenado por «cuestiones éticas». La IA puede introducir sesgos inherentes a los datos con los que se entrena, lo que plantea la cuestión de la «subjetividad» de la IA y la responsabilidad en casos como la conducción autónoma, donde un juez necesitaría determinar quién es el responsable en caso de accidente. La capacidad de la IA para identificar «genios» o «anomalías estadísticas» también genera dilemas sobre qué hacer con tales predicciones y las implicaciones éticas de una identificación temprana.

Un aspecto emergente y cada vez más crítico es la sostenibilidad de la IA. El consumo energético de los centros de datos que albergan las cargas de trabajo de IA es considerable. Se anticipa que, en breve, los centros de datos de más de 500 kilovatios estarán obligados a hacer públicos sus números de eficiencia energética y sostenibilidad medioambiental, incluyendo el consumo de agua y energía. Esto se suma a normativas como la F-GAS, que exige la reducción gradual del uso de gases fluorados en la refrigeración de los centros de datos, impulsando la adopción de gases naturales como el CO2. Estas regulaciones añadirán una capa de importancia a la eficiencia, que, tras un periodo de «matar moscas a cañonazos» en el gasto en la nube, vuelve a ser una prioridad.

El factor humano: adaptación, resistencia y nuevas habilidades

La implementación de la IA no es solo un reto tecnológico, sino, fundamentalmente, un desafío humano y cultural que exige una profunda adaptación. La IA está redefiniendo los roles laborales, generando tanto oportunidades como temores. Se observó por parte de varios asistentes que el «programador junior» que se dedica únicamente a «picar código» podría ver su rol transformado, ya que la IA puede generar código de manera eficiente. Esto ha llevado a una «histeria colectiva» entre los desarrolladores ante herramientas de generación de código como Replit. Sin embargo, la experiencia sugiere que estas herramientas, aunque aceleran tareas rutinarias, aún no son perfectas para aplicaciones complejas, requiriendo la intervención humana para la conexión con bases de datos, depuración y validación.

El temor al desplazamiento laboral es una realidad, y se manifestó en la resistencia de equipos de ventas a adoptar agentes de IA que percibían como una amenaza directa a sus funciones. Este fenómeno, descrito por Francisco Sanchez como la «gestión de la mediocridad» , no es nuevo, pero se exacerba con la IA, ya que la automatización de procesos rutinarios puede generar pánico entre los empleados.

Ante este panorama, la necesidad de upskilling y reskilling es imperativa. La discusión destacó que el valor ya no reside en la memorización o en la capacidad de «picar código» de forma rutinaria, sino en habilidades como el pensamiento crítico, la comunicación con el cliente, la comprensión de expectativas y la capacidad de «hablar con la máquina» a través de un «buen prompting». El concepto de los desarrolladores «100x» (cien veces más eficientes) podría evolucionar a «200x» al aprovechar las capacidades de la IA, mientras que aquellos con menor eficiencia también podrían mejorar. Como señaló Francisco Sanchez, la IA es un «potenciador brutal» de las capacidades humanas. Las instituciones educativas tienen un papel crucial en esta reeducación, adaptando sus asignaturas para fomentar el uso de la IA como herramienta, pero exigiendo a los estudiantes una comprensión profunda y una capacidad crítica para validar sus resultados.

Finalmente, se identificó una brecha significativa entre las expectativas de los usuarios y la realidad de las soluciones de IA empresariales. Los usuarios, acostumbrados a la calidad y fluidez de la IA de consumo (como ChatGPT o Copilot en sus dispositivos móviles), esperan el mismo nivel de servicio de los departamentos de TI internos. Esto genera una presión considerable sobre los equipos de TI, que deben esforzarse por ofrecer soluciones de calidad comparable con recursos y restricciones diferentes.

Conclusiones y perspectivas futuras: hacia una IA responsable y eficiente

La mesa redonda de Valencia dejó claro que la Inteligencia Artificial no es una moda pasajera, sino una fuerza transformadora que ya está redefiniendo el panorama empresarial y académico. Sin embargo, su adopción exitosa requiere un enfoque matizado y estratégico que vaya más allá del mero entusiasmo tecnológico. En primer lugar, se subraya la importancia de un enfoque pragmático y centrado en el caso de uso. La verdadera utilidad de la IA reside en su capacidad para resolver problemas concretos y optimizar procesos existentes, no en la mera implementación de tecnología por el simple hecho de hacerlo. Las organizaciones deben identificar dónde la IA puede generar un valor tangible, en lugar de intentar «arreglar» procesos fundamentalmente defectuosos con soluciones tecnológicas.

En segundo lugar, el equilibrio entre el Open Source y los modelos propietarios en la nube es fundamental. Si bien las soluciones propietarias ofrecen un rendimiento y una facilidad de uso impresionantes, el Open Source proporciona la flexibilidad, la soberanía del dato y la trazabilidad necesarias para entornos críticos y para mitigar el riesgo de vendor lock-in. Las estrategias híbridas, que combinan lo mejor de ambos mundos, emergen como el camino más viable para muchas organizaciones.

En tercer lugar, la infraestructura y el hardware son los cimientos invisibles pero esenciales de esta revolución. La demanda de capacidades de procesamiento, especialmente GPUs y aceleradores, sigue siendo un cuello de botella, impulsando la innovación en el procesamiento de IA en local y la búsqueda de alternativas. La eficiencia energética y la sostenibilidad de esta infraestructura se están convirtiendo, además, en imperativos regulatorios y de imagen corporativa.

Finalmente, el factor humano es, quizás, el más crítico. La transformación digital impulsada por la IA no solo implica la adopción de nuevas herramientas, sino una redefinición de roles, habilidades y mentalidades. La gestión del cambio, la superación de la resistencia al desplazamiento laboral y la inversión en upskilling son tan importantes como la propia tecnología. Las instituciones educativas tienen la responsabilidad de formar a profesionales con pensamiento crítico, capaces de interactuar con la IA como un potenciador, no como un sustituto de la comprensión fundamental.

En síntesis, la IA es una herramienta poderosa, pero su verdadero potencial se desbloqueará cuando las organizaciones adopten un enfoque holístico que integre la tecnología con una visión clara de sus casos de uso, un marco regulatorio y ético sólido, y una profunda comprensión de las implicaciones para su capital humano. La colaboración entre las instituciones académicas, la industria y los reguladores será clave para navegar esta era de transformación y construir un futuro donde la IA sea responsable, eficiente y beneficie a todos.

Lo más leído