Conecta con nosotros

A Fondo

AMI Labs: mil millones para una IA diferente sin alucinaciones

Publicado el

¿Qué pasaría si el futuro de la inteligencia artificial no estuviera en la mejora de los LLM? ¿Y si lo que necesitamos de verdad es romper la baraja e intentar otro camino? Y si este nuevo camino nos puede llevar a eliminar las alucinaciones y a una IA más eficiente y sostenible ¿merecería la pena invertir grandes cantidades de tiempo y de dinero? Subo la apuesta, ¿y si todo esto sucediera lejos de las colinas doradas de Silicon Valley y lo hiciera más cerca de la Tour Eiffel?

Yann LeCun no es un científico más que funda una startup. Es el hombre que, durante sus años en AT&T Bell Labs (curiosamente lugar de nacimiento del sistema UNIX), desarrolló las redes neuronales convolucionales (CNN) que hoy son el cimiento invisible de cualquier sistema de visión por computadora en el mundo, desde el reconocimiento facial en un smartphone hasta el diagnóstico médico por imagen. Es el investigador que en 1989 demostró, por primera vez, que una red convolucional podía leer dígitos escritos a mano con una fiabilidad comercialmente viable, abriendo la puerta a lo que décadas después se convertiría en el boom del deep learning. Es, junto a Geoffrey Hinton y Yoshua Bengio, uno de los tres «padrinos de la IA», los científicos que recibieron el Premio Turing en 2019 (el Nobel de la Computación, según la ACM) precisamente por haber convertido las redes neuronales profundas en la arquitectura dominante de la inteligencia artificial moderna.

Pasó doce años construyendo FAIR (Facebook AI Research, hoy Meta AI) desde cero, transformándolo en uno de los laboratorios de investigación en IA más influyentes del planeta. Y en noviembre de 2025, después de todo eso, le dijo a Mark Zuckerberg que se iba. El 10 de marzo de 2026, su nueva compañía, Advanced Machine Intelligence (AMI) Labs, anunció el cierre de una ronda seed de 1.030 millones de dólares a una valoración pre-money de 3.500 millones. Según TechCrunch, es la mayor ronda seed de la historia de una empresa europea y la segunda mayor seed global. Y su propósito declarado es demostrar que la arquitectura que domina el edificio que él mismo ayudó a construir durante décadas es, fundamentalmente, un callejón sin salida.

CMAP – Institut DATAIA Data Science Summer School

LLM: La alucinación estadística

La crítica de LeCun a los Large Language Models no nació de la frustración ni del ego herido: es una posición técnica sostenida con coherencia durante años, y en el contexto empresarial actual tiene consecuencias directas sobre fiabilidad operativa, coste total de despliegue y exposición a riesgo regulatorio (especialmente bajo el EU AI Act y sus obligaciones de supervisión humana en sistemas de alto riesgo).

El argumento central es el siguiente: arquitecturas como GPT-4o, Claude o Gemini Ultra están entrenadas para predecir el siguiente token en una secuencia de texto. Son, en términos computacionales, motores de predicción de probabilidad condicional sobre corpus lingüísticos masivos. Esta aproximación produce salidas impresionantes en tareas de generación de lenguaje, pero introduce una patología sistémica con nombre propio: la alucinación. Un modelo que no comprende la causalidad del mundo físico no puede distinguir entre lo que es cierto y lo que es estadísticamente plausible. Para sectores como sanidad, fabricación industrial, defensa o infraestructuras críticas reguladas bajo NIS2, esa distinción no es un matiz técnico: es la diferencia entre un sistema desplegable y uno que genera pasivo legal directo.

LeCun lleva desde 2022 proponiendo una alternativa arquitectónica concreta: JEPA (Joint Embedding Predictive Architecture). En lugar de predecir píxeles, palabras o tokens, JEPA aprende representaciones abstractas del mundo (estructuras latentes que capturan relaciones causales, no correlaciones superficiales) y realiza sus predicciones en ese espacio de representación, ignorando los detalles impredecibles del entorno real. La diferencia operativa es crítica: un sistema basado en JEPA no alucina porque no adivina, simula. Predice lo que ocurrirá en el mundo físico a partir de modelos internos de causalidad, no de patrones estadísticos de co-ocurrencia textual. La distancia entre ambos enfoques es la misma que separa a un narrador de un físico.

¿Cuán europeo es AMI?

La narrativa de AMI Labs como «el mayor proyecto de IA europeo de la historia» merece un análisis más granular que el del simple código postal. La compañía está domiciliada en París y opera desde el primer día en cuatro ciudades: París (sede central), Nueva York (donde LeCun imparte clases en la NYU), Montreal (base de Michael Rabbat, VP de World Models) y Singapur, como hub para talento asiático. El liderazgo ejecutivo tiene un sello francés muy pronunciado: Alexandre LeBrun (CEO) es un emprendedor parisino en serie, fundador de Wit.ai (vendida a Meta en 2015) y ex-CEO de Nabla; Laurent Solly (COO) fue el vicepresidente de Meta para Europa.

La estructura accionarial tiene una profundidad institucional francesa notable: Bpifrance Digital Venture (el brazo del banco público de inversión francés), Artémis (François Pinault), Aglaé Lab (familia Arnault), Groupe Industriel Marcel Dassault y Xavier Niel como business angel. La presencia de Bpifrance es la señal política más importante: implica que el Estado francés considera a AMI Labs parte explícita de su agenda de soberanía en IA, en línea con la Stratégie nationale pour l’IA y con el paraguas del programa Horizon Europe. El veredicto es claro: AMI Labs es europea en sede, en liderazgo ejecutivo, en anclaje institucional y en orientación regulatoria. No es un proyecto continental cerrado, sino el modelo más realista de soberanía tecnológica posible en 2026: radicada en París, con capital mixto europeo-global, comprometida con investigación abierta y código abierto.

Código Abierto en Europa

Hay, además, un factor que LeCun ha verbalizado con una frase que merece atención estratégica: «Silicon Valley está completamente hipnotizado por los modelos generativos. Este trabajo debe hacerse fuera de Silicon Valley.» Esta declaración llega en un momento en que la situación política en Estados Unidos está produciendo un fenómeno de relocalización de talento científico de primer nivel: investigadores europeos, latinoamericanos y asiáticos que habían emigrado a universidades y laboratorios estadounidenses están reconsiderando su residencia ante el endurecimiento de políticas migratorias, los recortes en financiación pública a la ciencia y un clima institucional menos propicio para la investigación independiente. Para AMI Labs, instalada en París con una hoja de ruta de investigación fundamental plurianual y una estructura de capital que le da autonomía real, esta tendencia es una oportunidad de reclutamiento sin precedentes. El talento que no puede o no quiere operar bajo las condiciones actuales de Silicon Valley tiene ahora, en París, una alternativa de primer nivel mundial con los recursos financieros para competir.

Dos paradigmas sin reconciliar

La elección de arquitectura de IA que la industria está atravesando en 2026 no es una discusión académica: es una decisión de plataforma con implicaciones de largo plazo sobre la viabilidad técnica y económica de los sistemas desplegados, que las organizaciones harán bien en seguir de cerca antes de comprometer inversiones significativas en una sola dirección.

El camino A (la ruta dominante) consiste en escalar las arquitecturas Transformer con más datos, más cómputo y mayor paralelismo. Es el camino de OpenAI (GPT), Anthropic (Claude), Google DeepMind (Gemini) y Meta (Llama). La lógica de negocio es clara: ecosistemas de desarrolladores consolidados, integración en las grandes nubes públicas (Microsoft Azure, Google Cloud, AWS) y modelos de cumplimiento con el EU AI Act mediante guardrails de output. El tiempo de llegada al mercado es corto, el retorno sobre la inversión razonablemente trazable en casos de uso de automatización de knowledge work.

El camino B (la apuesta de AMI Labs) propone construir sistemas que modelen la realidad física: IA que aprende observando el mundo a través de vídeo, sensores e interacción física, no ingiriendo corpus textuales. El modelo de LeCun, basado en JEPA y en el concepto de world models, busca sistemas con memoria persistente, capacidad de razonamiento causal y planificación de secuencias de acciones bajo restricciones del mundo real. No es un chatbot más eficiente: es una categoría de producto distinta, que Gartner y Forrester todavía no han inscrito en sus cuadrantes de referencia, pero que PitchBook y Dealroom ya monitorizan como una vertical emergente de alto riesgo y alto potencial. La comparación entre ambos caminos no es neutral: los LLM alucinan porque no saben que no saben. Un world model, al operar en espacio de representación abstracta en lugar de en espacio de tokens, puede medir su propia incertidumbre sobre estados del mundo no observados. En aplicaciones donde la alucinación tiene coste directo (sanidad, fabricación, sistemas autónomos, infraestructura crítica bajo NIS2), la diferencia de arquitectura se convierte en diferencia de riesgo operacional y de exposición regulatoria.

Sostenibilidad: la pregunta pendiente

Existe una dimensión del debate entre LLM y world models que raramente ocupa el centro del análisis pero que podría resultar decisiva a medio plazo: la eficiencia energética. El entrenamiento de los grandes modelos de lenguaje actuales consume cantidades de electricidad que han disparado las alarmas tanto de los reguladores europeos como de los propios proveedores de infraestructura. Según estimaciones del sector, entrenar un modelo de la escala de GPT-4 puede consumir tanta energía como varios centenares de hogares en un año, y la inferencia masiva a escala de millones de consultas diarias multiplica ese impacto de forma continua. La industria lleva dos años intentando resolver este problema desde la ingeniería de hardware (chips más eficientes, como los Blackwell Ultra de NVIDIA, o los TPUs de Google) y desde la compresión de modelos (destilación, quantización, pruning). Pero la raíz del problema podría ser arquitectónica.

Los centros de datos usarán en 2030 más del doble de energía que ahora por la IA

Los world models de AMI Labs, al operar sobre representaciones abstractas en lugar de sobre espacios de alta dimensionalidad token a token, tienen el potencial teórico de ser significativamente más eficientes para determinadas tareas: razonamiento causal, planificación bajo restricciones físicas, comprensión de entornos dinámicos. Si ese potencial se confirma en la práctica, el argumento de eficiencia energética se convierte en un vector estratégico de primera magnitud, no solo frente a los reguladores (el EU AI Act ya contempla requisitos de transparencia sobre el consumo energético de sistemas de IA de alto impacto) sino frente a las propias organizaciones que soportan los costes de operación de IA a escala. Una arquitectura que resuelve simultáneamente el problema de las alucinaciones y reduce el coste energético de la inferencia no es una mejora incremental: es un cambio de paradigma con consecuencias económicas directas para cualquier sector que opere IA en producción. Es demasiado pronto para afirmar que los world models lograrán ese equilibrio, pero la dirección de investigación es, en sí misma, uno de los activos más valiosos de AMI Labs ante sus inversores industriales.

Sanidad: banco de pruebas

La elección de sanidad como primera vertical no es una decisión de imagen: es la selección estratégicamente más exigente posible, y revela con precisión la confianza del equipo fundador en su tesis. En entornos con potencial de daño físico directo al paciente, el EU AI Act clasifica los sistemas de IA como de alto riesgo, con obligaciones de supervisión humana, trazabilidad de decisiones y gestión de riesgos formales. Todos ellos son requisitos que los LLM de propósito general satisfacen hoy solo parcialmente, como demuestra la proliferación de advertencias legales en los términos de uso de prácticamente cualquier asistente de IA de consumo.

El primer socio industrial confirmado de AMI Labs es Nabla, la startup parisina de IA clínica que cuenta con más de 85.000 médicos usuarios y presencia en más de 130 organizaciones sanitarias en Europa y Estados Unidos, y que tendrá acceso privilegiado a los primeros modelos de AMI. Según LeBrun en TechCrunch, fue precisamente su experiencia como CEO de Nabla (observando de primera mano cómo las alucinaciones de los LLM podían tener consecuencias letales en decisiones clínicas) lo que le convenció de que la arquitectura actual es incompatible con las exigencias de fiabilidad del sector. Esta doble perspectiva (como constructor de producto y como investigador de la limitación técnica) es lo que hace de AMI Labs un actor estructuralmente diferente a un laboratorio académico con financiación generosa. Más allá de sanidad, AMI Labs ha señalado como verticales objetivo la automatización industrial, el control de procesos, los dispositivos wearables, la robótica y la industria aeroespacial, con la participación de Groupe Industriel Marcel Dassault en la ronda como señal de alineación estratégica con sistemas de defensa y aeronáutica donde la fiabilidad no es opcional.

Inversores: Nvidia, Bezos, Dassault…

La estructura accionarial de AMI Labs no es solo una lista de nombres reconocibles: es un mapa de alineación de intereses industriales que traza el potencial ecosistema de clientes y socios de la compañía en los próximos cinco años. La ronda fue co-liderada por Cathay Innovation (fondo franco-chino con base inversora europea), HV Capital (VC alemán, uno de los más activos de Europa), Hiro Capital (Londres), Greycroft (Nueva York) y Bezos Expeditions (el vehículo de inversión personal de Jeff Bezos). A esto se suma la participación de NVIDIA, Samsung, Toyota Ventures, Temasek (fondo soberano de Singapur), SBVA (Corea del Sur), y en el plano europeo: Bpifrance Digital Venture, Artémis, Aglaé Lab, ZEBOX Ventures (CMA CGM), Daphni, Association Familiale Mulliez, Groupe Industriel Marcel Dassault y Xavier Niel, además de Tim y Rosemary Berners-Lee, Jim Breyer, Mark Cuban, Mark Leslie y Eric Schmidt como inversores individuales.

La presencia de NVIDIA merece lectura específica. La compañía de Jensen Huang lleva meses acumulando posiciones en startups de IA que no siguen el paradigma LLM (también participó en la ronda de World Labs de Fei-Fei Li). La razón es transparente: los world models son computacionalmente intensivos en modalidades distintas al entrenamiento de LLM (vídeo, sensores, simulación física) y NVIDIA quiere asegurarse de que su hoja de ruta de productos sea la plataforma de cómputo elegida con independencia de qué paradigma prevalezca. Samsung y Toyota Ventures representan algo diferente: integración vertical hacia hardware de consumo y sistemas embebidos. Si los world models funcionan a escala, el caso de uso de wearables inteligentes y vehículos autónomos con comprensión causal del entorno físico pasa a ser el producto más valioso de la próxima generación de electrónica. Que inversores tan distintos en perfil, geografía y sector industrial apuesten simultáneamente por el mismo laboratorio de investigación fundamental, sin producto ni ingresos en el horizonte próximo, es la señal de mercado más inequívoca de que el debate entre LLM y world models ha dejado de ser una conversación académica.

El riesgo del largo plazo

La mayor fortaleza de AMI Labs (la profundidad de su apuesta investigadora) es simultáneamente su mayor riesgo de ejecución. LeBrun ha sido explícitamente claro con inversores y prensa: AMI Labs no es una startup de IA aplicada con un producto en la hoja de ruta a doce meses. El tiempo de llegada al mercado se mide en años, no en trimestres. En el ciclo actual de evaluación de proveedores de IA por parte de las grandes organizaciones (dominado por marcos como ITIL 4 para gestión de servicios y COBIT para gobernanza de TI) esta posición es atípica y generará tensión entre la visión de largo plazo del equipo fundador y las expectativas de retorno de un capital privado que, tarde o temprano, necesita un camino hacia la liquidez.

DeepMind, la división de Inteligencia Artificial de Google, no alcanza éxito en la programación informática

El modelo de negocio implícito parece seguir el patrón de investigación abierta más ecosistema de socios industriales con acceso privilegiado, similar (salvando distancias considerables) al de los laboratorios Bell Labs en su época de mayor influencia, o al de DeepMind antes de su integración total en Google. La diferencia estructural es que AMI Labs opera con la presión de inversores privados que han duplicado el cheque solicitado (de 500 millones a 1.030 millones) sin producto, sin ingresos y con un horizonte abierto. Eso solo puede interpretarse de una manera: han internalizado ese riesgo como el precio necesario para estar en la mesa cuando la arquitectura de world models madure comercialmente. La pregunta estratégica relevante no es cuándo habrá una licencia disponible sino qué ocurre con la base tecnológica de quien haya construido toda su estrategia de IA sobre LLM si el paradigma cambia en tres o cinco años. El coste de migración (datos de entrenamiento, integraciones, pipelines de MLOps, adaptación a los requisitos del EU AI Act con modelos nuevos) podría ser considerable para cualquier organización que no haya mantenido un ojo sobre los paradigmas alternativos desde ahora.

La competencia post-LLM

AMI Labs no está sola en esta apuesta, y situar correctamente su posición en el mapa competitivo emergente requiere reconocer que la categoría de «world models» está pasando de tesis académica a vertical de inversión institucional en 2026, con múltiples actores posicionándose simultáneamente, aunque con enfoques, verticales y arquitecturas distintos. El competidor más directo en términos de escala y perfil es World Labs, fundado por Fei-Fei Li (co-inventora de ImageNet, ex-responsable de IA en Google Cloud), que captó 1.000 millones de dólares en febrero de 2026 con foco en world models 3D interactivos y aplicaciones en diseño y arquitectura. Su Time-to-Market es más corto que el de AMI Labs, pero su base técnica es diferente: donde LeCun propone JEPA como arquitectura unificada de comprensión multimodal del mundo físico, World Labs trabaja con representaciones 3D generativas. Son paradigmas complementarios, no idénticos.

Y aquí emerge una pauta que no puede ignorarse: la mayoría de los enfoques alternativos al paradigma LLM dominante tienen origen europeo o están liderados por investigadores formados en Europa. En Europa, además de AMI Labs (París), destaca Ineffable Intelligence (Reino Unido), que en febrero de 2026 estaba finalizando una ronda seed cercana a los 1.000 millones de dólares con un enfoque también orientado a superar las limitaciones de los LLM. En el continente, SpAItial (Europa, 13 millones en mayo de 2025) y General Intuition (Ginebra y Nueva York, 134 millones en octubre de 2025) completan un mapa de inversión que empieza a tener coherencia. Esta concentración geográfica no es una coincidencia. El entorno regulatorio europeo (EU AI Act, GDPR, NIS2) lleva años exigiendo de facto lo que los world models prometen por arquitectura: fiabilidad, explicabilidad, trazabilidad de decisiones, ausencia de comportamientos no deterministas en sistemas de alto riesgo. La industria tecnológica europea, presionada por una regulación que hace difícil desplegar LLM sin restricciones en sectores sensibles, puede estar siendo empujada por pura supervivencia regulatoria a explorar los caminos alternativos que los laboratorios de Silicon Valley, operando bajo una regulación mucho más laxa, no tienen la misma urgencia de recorrer. La regulación europea, habitualmente vista como freno a la innovación, podría estar funcionando aquí como acelerador involuntario de la arquitectura de IA del futuro.

Europa desafía a Silicon Valley

El impacto de AMI Labs trasciende la propia compañía y reconfigura varios de los supuestos sobre los que se ha construido el relato del déficit europeo en tecnología de IA. El primero que cae es el de la incapacidad del ecosistema europeo para financiar investigación fundamental a escala competitiva con Silicon Valley. Que Bpifrance, los grandes grupos industriales franceses y los fondos europeos de referencia co-inviertan con Bezos, NVIDIA y Eric Schmidt en el mismo vehículo es una señal de madurez del ecosistema que no existía hace tres años. El segundo supuesto que cae es el de la ausencia de densidad de talento: el equipo fundador de AMI Labs (LeCun, LeBrun, Solly, Xie, Fung, Rabbat) acumula credenciales que compiten con cualquier laboratorio de San Francisco o Seattle. LeCun no se ha ido a hacer otra cosa: se ha ido a hacer la cosa más importante, en el lugar que considera más libre para hacerlo.

Lo que está en juego es más grande que una startup. Si los world models demuestran superioridad sistemática sobre los LLM en casos de uso de alta fiabilidad (sanidad, industria, sistemas autónomos), el centro de gravedad de la investigación en IA del próximo ciclo podría desplazarse. No de forma inmediata ni completa, pero sí de forma suficiente como para que el relato de que «la IA real se hace en Silicon Valley» empiece a resquebrajarse. En ese escenario, París (con AMI Labs) y Londres (con Ineffable Intelligence) serían los epicentros de la arquitectura que sustituya a lo que hoy domina el mercado. Para que eso ocurra, sin embargo, AMI Labs tendrá que demostrar algo que ningún laboratorio ha conseguido aún: que los world models no solo son teóricamente superiores, sino que escalan, que son entrenables con los recursos disponibles, y que producen resultados comercialmente relevantes antes de que el ciclo de inversión se cierre. Tiene los recursos. Tiene el equipo. Tiene la tesis. Le falta, todavía, el tiempo. Y en eso, los world models y los LLM se parecen más de lo que LeCun admitiría: ambos necesitan demostrar que la promesa sobrevive al contacto con la realidad.

 

Lo más leído