Conecta con nosotros

A Fondo

Davos 2026: El futuro de la IA según sus arquitectos

Publicado el

El Foro Económico Mundial de Davos 2026 ha sido testigo de un cambio significativo en el discurso sobre inteligencia artificial. Si hace un año el evento estuvo marcado por el optimismo con una gran fascinación fruto de una falta de datos sobre el verdadero impacto de este fenómeno, este año los líderes tecnológicos han adoptado un tono más pragmático, centrándose en los desafíos reales de implementación, retorno de inversión y la necesidad de unas infraestructuras colosales a escala planetaria y una estimación de recursos que empieza a dar miedo.

La mayor inversión en infraestructura de la historia

En su conversación con Larry Fink, CEO de BlackRock, Jensen Huang, CEO de Nvidia, no describió la inteligencia artificial como una industria vertical más, sino como la base fundacional de lo que denominó «la mayor construcción de infraestructura en la historia de la humanidad», estructurándola como un «pastel de cinco capas» que abarca energía, chips, centros de datos cloud, modelos de IA y aplicaciones. Huang explicó que cada una de estas capas requiere inversiones masivas y está creando demanda de trabajadores especializados en todos los niveles.

Huang enfatizó que el valor económico real para la mayoría de las empresas no residirá en la creación de modelos fundacionales (capa 4), sino en la capa de aplicación (capa 5). Es en la aplicación de la inteligencia a problemas específicos (descubrimiento de fármacos, optimización logística, diseño de materiales) donde se producirá el retorno de la inversión. Un concepto clave introducido por Huang y reforzado en otras sesiones es la idea de la «Inteligencia Nacional» o soberanía de la IA. Huang instó a las naciones a «desarrollar su propia IA, continuar refinándola y tener su inteligencia nacional como parte de su ecosistema».

Esto tiene una lectura interesante para el entorno corporativo: la Soberanía de la IA Empresarial. Las organizaciones no pueden permitirse externalizar completamente su «cerebro» corporativo a proveedores terceros sin retener la propiedad intelectual de los ajustes finos (fine-tuning) y los datos de contexto. La infraestructura de IA debe ser tratada con la misma criticidad que las redes eléctricas o las carreteras nacionales: una utilidad pública esencial que debe ser resiliente y, en cierta medida, autónoma.

A pesar de la complejidad de la infraestructura subyacente y de las titánicas inversiones que va a suponer, Huang ofreció una visión optimista sobre la democratización del acceso. Declaró que la IA es «el software más fácil de usar en la historia» y que el cambio fundamental en el trabajo será pasar de «realizar tareas» a «dirigir propósitos». Esta transición de «escritor de código» a «maestro de IA» implica que los departamentos de TI dejarán de ser meros centros de soporte técnico para convertirse en escuelas de capacitación continua, donde se enseña a la fuerza laboral a «enseñar a la IA» en lugar de programarla. Un cambio de paradigma al que ya estamos asistiendo para el sector del desarrollo de software que será uno de los más afectados por esta revolución.

La energía como factor decisivo

Como ya apuntamos y volviendo a la primera capa que mencionaba Huang, en su conversación con Larry Fink en Davos Satya Nadella, CEO de Microsoft, fue tajante: «El crecimiento del PIB en cualquier lugar estará directamente correlacionado con el coste de la energía para usar IA». Nadella advirtió que «perderemos rápidamente incluso el permiso social para usar energía  para generar estos tokens, si estos tokens no están mejorando los resultados en salud, educación, eficiencia del sector público y competitividad del sector privado».

Nadella introdujo un nuevo concepto macroeconómico: «tokens por dólar por vatio», sugiriendo que el crecimiento económico futuro dependerá directamente de esta métrica de eficiencia energética. Los costes residenciales de electricidad en Estados Unidos han aumentado aproximadamente un 13% desde enero de 2025, según la Energy Information Agency, mientras que el pago promedio de servicios públicos por electricidad y gas subió un 3,6% interanual en el tercer trimestre de 2025.

En la misma línea en una de las conversaciones más comentadas del foro con Larry Fink, Elon Musk lanzó una advertencia que todo responsable de infraestructura digital debe escuchar: «A finales de este año, estaremos produciendo más chips de los que podemos encender». La restricción ya no es el silicio, sino el voltaje. Musk, fiel a su estilo, propuso una solución que mezcla ingeniería extrema con ciencia ficción: colocar centros de datos de IA alimentados por energía solar en órbita.

Según sus cálculos, la energía solar en el espacio es cinco veces más eficiente y, gracias a la reutilización del cohete Starship —que promete reducir los costos de lanzamiento por un factor de 100—, esta infraestructura orbital podría ser económicamente viable antes de lo que pensamos. Musk no se detuvo ahí, pronosticando que la IA superará a la inteligencia de cualquier humano individual para 2026 o 2027, y a la de toda la humanidad combinada para 2030.

La IA necesita resultados tangibles

Esa línea que comentaba Nadella sobre resultados tangibles fue reiterada por Ruth Porat, presidenta y CIO de Alphabet. Durante la sesión sobre «Nuevas Perspectivas de Crecimiento», Porat fue tajante: la IA no puede tratarse solo de chatbots o reducción de costos marginales. El verdadero desafío para las empresas es la transformación completa de sus procesos. Sin embargo, los datos presentados en el foro por consultoras como Deloitte muestran que existe un abismo entre esta aspiración y la realidad: solo el 25% de las organizaciones han logrado llevar sus pilotos de IA a una fase de producción escalable. Las empresas están atrapadas en un «purgatorio de pilotos», frenadas por la deuda técnica y la falta de una estrategia de datos cohesiva.

En el frente del desarrollo de modelos, la discusión giró hacia la autonomía y la sustitución de tareas complejas. En el panel «El día después del AGI» (Inteligencia Artificial General), Dario Amodei (Anthropic) y Demis Hassabis (Google DeepMind) lanzaron una predicción que debería obligar a reescribir los planes de contratación de cualquier departamento de TI: estamos a escasos meses de que los agentes de IA puedan realizar la mayoría de las tareas de un ingeniero de software junior de principio a fin. Esto plantea una crisis formativa para la industria: si la IA elimina el escalón de entrada, ¿cómo formaremos a los arquitectos senior del futuro? Es necesaria una reflexión y una puesta en valor de los analistas e ingenieros expertos para conseguir una transformación de sus tareas en formadores y supervisores.

Demis Hassabis ofreció una visión más cautelosa, esperando la creación de «nuevos empleos más significativos», aunque reconoció una probable desaceleración en la contratación de becarios, que sería «compensada por las increíbles herramientas disponibles para todos». Hassabis estimó que existe un 50% de probabilidad de alcanzar la inteligencia artificial general (AGI) antes del final de la década, aunque no a través de modelos construidos exactamente como los sistemas de IA actuales. También minimizó la amenaza china, estimando que los laboratorios de IA chinos van seis meses por detrás de sus contrapartes estadounidenses y europeas.

Por su parte, Sam Altman, aunque mantuvo un perfil más discreto en los paneles principales, generó titulares en los eventos laterales que confirman la madurez comercial de OpenAI. Altman reveló que el negocio de APIs de la compañía ha superado los 1.000 millones de dólares en ingresos recurrentes anuales, validando la integración profunda de sus modelos en el ecosistema empresarial. Además, se confirmó que el esperado dispositivo de hardware de OpenAI, diseñado en colaboración con Jony Ive, está «en camino» para ser revelado en la segunda mitad de 2026, prometiendo una experiencia de usuario «más pacífica» y menos intrusiva que la del smartphone actual.

Lo más leído