A Fondo
Liderazgo en IA empresarial. El caso Mistral vs OpenAI
Está claro que los LLM comenzaron a acaparar el discurso tecnológico con ChatGPT y, como ha pasado en muchos otros casos, entraron por la puerta del usuario de a pie para estimular luego el interés de las aplicaciones empresariales. El merito de OpenAI es indudable, pero como decía Satya Nadella recientemente la IA tiene que dejar de mostrar efectos especiales y tiene que empezar a rendir en las empresas. El camino para ello no es fácil y tiene una serie de implicaciones estratégicas muy importantes que pueden modificar la visión que tenemos sobre la hegemonía y la jerarquía dentro de las empresas de Inteligencia Artificial.
Vamos a ver el estado de estas jerarquías porque hay sorpresas. Mientras OpenAI y Anthropic se mueven ya en niveles de ingresos anualizados de decenas de miles de millones de dólares, una compañía francesa ha multiplicado sus ingresos recurrentes anuales (ARR, es decir, lo que factura de forma estable cada año) por 20 en apenas doce meses, pasando de 20 millones a más de 400 millones de dólares. La cifra gana interés cuando se lee junto al análisis que el analista e inversor tecnológico Benedict Evans publicó en febrero de 2026 bajo el título How will OpenAI compete?. Evans plantea cuatro dudas sobre OpenAI que invitan a reflexionar. Mistral lleva tiempo ofreciendo una respuesta práctica a esas mismas preguntas mediante decisiones de negocio concretas.
Por su parte el análisis de Bandan Singh en Productify aporta una clave útil. La métrica relevante no es el tamaño absoluto de Mistral frente a sus competidores estadounidenses, sino la pendiente de crecimiento y el perfil del cliente que la genera. Esa pendiente se aceleró cuando coincidieron dos tendencias de fondo: Europa reforzó su discurso de autonomía en IA y las grandes organizaciones reguladas (banca, defensa, salud) empezaron a buscar alternativas con mayores garantías jurisdiccionales. El resultado es que el 60% de los ingresos de Mistral ya procede de Europa, con una previsión pública de llegar a entre 1.100 y 1.200 millones de dólares en 2026, confirmada por su propio consejero delegado, Arthur Mensch.
Las dudas estratégicas sobre OpenAI
El diagnóstico de Evans sobre OpenAI es interesante. En este momento hay cerca de media docena de empresas que publican modelos de frontera (los más avanzados) con capacidades muy parecidas, y que se adelantan entre sí cada pocas semanas. OpenAI conserva una posición de referencia, pero no cuenta con un mecanismo tecnológico evidente que impida a otros competidores con recursos suficientes acercarse a su nivel. Tampoco existe todavía un equivalente a los efectos de red de Windows, Google Search o iOS, donde la cuota de mercado reforzaba por sí misma la posición del líder. No disponen de una ventaja competitiva tecnológica clara.

Hay además un problema de uso real. OpenAI supera los 800 millones de usuarios semanales activos, una escala enorme para cualquier producto digital, pero Evans subraya que la adopción no se traduce necesariamente en hábito: el 80% de los usuarios envió menos de 1.000 mensajes durante 2025, una media inferior a tres consultas diarias. A eso se suma que, según Reuters, solo alrededor del 5% de la base activa semanal pagaba por Plus o Pro en julio de 2025. La propia Fidji Simo ha escrito sobre la brecha entre lo que los modelos pueden hacer y cómo los usuarios los aprovechan en el día a día. Dicho de forma más directa: OpenAI todavía tiene que convertir alcance masivo en uso recurrente y productivo.
El tercer problema es la distribución. Google con Gemini y Meta con Llama están ganando cuota rápidamente, no porque sus modelos sean necesariamente superiores en todos los ámbitos, sino porque cuentan con plataformas de distribución que OpenAI no tiene. Mistral compite desde otro ángulo: no tiene una plataforma de consumo masivo comparable, pero se integra en entornos empresariales ya existentes, desde SAP y Snowflake hasta Cisco. Evans compara el momento actual con la primera etapa de los navegadores web: Microsoft ganó aquella batalla con Internet Explorer, pero el valor acabó desplazándose hacia los servicios que funcionaban sobre la web. La duda es si ChatGPT puede retener el valor cuando la interfaz conversacional se convierta en una capa común dentro de otros productos.
El cuarto problema afecta a cómo se toman las decisiones de producto. Fidji Simo, responsable de producto de OpenAI, describió en un pódcast de 2026 una dinámica interna en la que los investigadores fijan el rumbo a largo plazo, trabajan durante meses en un avance y después trasladan al equipo de producto la tarea de convertirlo en una función concreta. Evans contrapone esa lógica a la que Steve Jobs defendía en 1997: empezar por la experiencia del cliente y trabajar desde ahí hacia la tecnología. Para un responsable de tecnología que evalúa proveedores de IA, esa cultura de producto importa porque condiciona la evolución futura de los servicios contratados.
La IA soberana ya es una categoría de mercado
La soberanía se ha convertido en una categoría de mercado. Gartner ha incluido la «Sovereign AI» en su Hype Cycle for Government Services 2025, definiéndola como el esfuerzo de los Estados por desarrollar capacidades de IA propias para alcanzar objetivos estratégicos específicos. Para un CIO, que Gartner incluya una tendencia en su ciclo de madurez tecnológica es una señal clara de que el mercado va a invertir en ella. Conviene decidir cuándo adoptar este enfoque y con qué proveedor y esta es una decisión que una empresa que trabaja en el ámbito de la Unión Europea no puede aplazar más.

El 70% de la capacidad de cómputo global de IA está controlada hoy por solo cinco empresas, frente al 60% de hace un año. Así lo señaló Liz Kendall, secretaria de Estado de Ciencia, Innovación y Tecnología del Reino Unido, en su discurso del 28 de abril de 2026 en el Royal United Services Institute, y así lo contamos también en el artículo que dedicamos a la importancia de Mistral como IA soberana. Depender de modelos cuyos centros de datos y marcos regulatorios están en EE. UU. no es una cuestión abstracta: afecta a continuidad, auditoría, residencia de datos y dependencia de terceros. Es un riesgo que marcos como DORA y NIS2 obligan a gestionar de forma explícita. Evans señala que una de las grandes apuestas estratégicas de OpenAI para crear efectos de red es convertir la cuenta de ChatGPT en la capa de conexión entre servicios digitales del usuario. Esa apuesta puede tener recorrido en consumo, pero en sectores regulados europeos exige una lectura mucho más prudente.
La estrategia de pesos abiertos de Mistral reduce parte de esa dependencia. Una entidad financiera, una administración pública o una farmacéutica puede desplegar determinados modelos en infraestructura propia, nube privada o entornos híbridos, y adaptar el sistema a sus datos sin que estos salgan de su perímetro. No todos los modelos de Mistral tienen la misma licencia: la compañía explica que la mayoría de sus modelos abiertos están bajo Apache 2.0, mientras que algunos modelos recientes utilizan una licencia MIT modificada con condiciones específicas para grandes empresas. El punto de fondo se mantiene: Mistral ofrece opciones de despliegue que no dependen siempre de consumir inteligencia a través de una API cerrada.
MoE: eficiencia como argumento de negocio
Otro elemento importante a la hora de ejecutar proyectos de inteligencia artificial es el coste. La arquitectura Mixture of Experts, o MoE, ayuda a explicar por qué Mistral puede competir en coste. La idea es sencilla: el sistema no activa todos sus parámetros en cada consulta, sino solo los expertos necesarios para resolverla. En modelos grandes, esa activación parcial reduce el cómputo por inferencia y mejora la relación entre rendimiento y gasto.
En términos operativos, esto reduce el consumo necesario para generar cada respuesta. Para una empresa que empieza a pasar de pilotos a uso masivo, esa diferencia se nota. El coste por millón de tokens deja de ser una métrica técnica y se convierte en una línea relevante del presupuesto. Ya hemos abordado este problema al analizar TurboQuant de Google y el impacto de la caché KV en el coste de inferencia, y también al explicar SubQ y el intento de reducir el coste de la IA empresarial en contextos largos. Si un asistente interno, un sistema de análisis documental o un flujo de soporte automatizado se usa miles o millones de veces al mes, la eficiencia del modelo determina si el caso de uso escala o se queda en una prueba limitada.

Modelos como Mixtral 8x7B ayudaron a posicionar a Mistral precisamente ahí: buen rendimiento, costes controlados y despliegue flexible. Mistral no supera siempre a los modelos más avanzados de sus competidores estadounidenses, pero en muchos casos empresariales la relación entre rendimiento, coste y control puede pesar más que liderar una tabla de benchmarks. Evans advierte además de que los modelos de frontera podrían acabar comportándose como infraestructura de bajo margen. En ese escenario, quien haya construido su propuesta sobre eficiencia y control queda mejor situado.
Los contratos dan consistencia al posicionamiento
El posicionamiento de Mistral se ha ido convirtiendo en negocio real. En enero de 2026, el Ministerio de las Fuerzas Armadas de Francia firmó un acuerdo marco para que sus fuerzas armadas, direcciones, servicios y entidades públicas vinculadas puedan usar modelos, software y servicios de Mistral. El despliegue se hará sobre infraestructura francesa, con supervisión de AMIAD, la agencia de IA para la defensa. En defensa, ese detalle tiene peso estratégico: la infraestructura forma parte de la soberanía.
El argumento de Mistral empieza a validarse en clientes de mucho peso. En su página de casos de cliente, la compañía cita a ASML, CMA CGM, AXA, BNP Paribas, Stellantis, Capgemini, Cisco, Snowflake, la Oficina Europea de Patentes y organismos públicos como France Travail o el Ministerio de Defensa francés. Algunos datos ayudan a dimensionar el despliegue: Capgemini afirma haber pasado del 30% al 100% de adopción entre desarrolladores con su asistente privado basado en Mistral, Snowflake asegura que Cortex Analyst logra hasta el doble de precisión en tareas de texto a SQL, Cisco estima una reducción de hasta el 20% en el tiempo de preparación de propuestas de renovación y la Oficina Europea de Patentes habla de 400.000 páginas procesadas al día con una tasa de error inferior al 1% en reconocimiento de caracteres. El conjunto cubre software, banca, defensa, transporte, automoción, administración pública y propiedad industrial.

El movimiento de ASML es especialmente significativo. En septiembre de 2025, el fabricante holandés de equipos para semiconductores lideró una ronda de 1.700 millones de euros que valoró Mistral en 11.700 millones. La operación encaja con una hoja de ruta más amplia de infraestructura propia, que ya analizamos al explicar cómo Mistral se apoya en NVIDIA para lanzar una nube de IA europea. Meses después, Mistral levantó 830 millones de dólares en deuda para comprar 13.800 chips de NVIDIA destinados a un centro de datos cerca de París, con financiación de bancos como BNP Paribas, Crédit Agricole CIB, HSBC y MUFG. La lectura es clara: parte del capital industrial y financiero europeo quiere construir una alternativa propia en IA. También marca una diferencia frente al modelo de OpenAI, que según Evans combina capital riesgo, grandes compromisos de infraestructura y acuerdos cruzados entre socios estratégicos.
Los límites de Mistral
El análisis sería incompleto sin sus límites. Mistral no tiene la misma escala de capital, cómputo, distribución global o base de usuarios que OpenAI, Anthropic o Google DeepMind. Su ventaja está en otro sitio: jurisdicción europea, despliegue flexible, eficiencia y una narrativa de soberanía que conecta con necesidades reales de gobiernos y empresas reguladas. También mantiene dependencias importantes. La más obvia es NVIDIA. Si Europa quiere una IA verdaderamente soberana, no basta con tener modelos europeos: necesita capacidad de cómputo, centros de datos, energía, chips, talento y una cadena de suministro menos expuesta. Pero eso es una asignatura muy muy peliaguda.
Mistral avanza en infraestructura propia, pero sigue operando dentro de un mercado global dominado por proveedores estadounidenses y asiáticos. Evans señala el mismo riesgo en OpenAI: también depende de NVIDIA y de infraestructura que no controla por completo, una tensión que se ha visto en sus acuerdos con Microsoft, Google y AWS, como contamos al analizar cómo OpenAI terminó su exclusividad con Microsoft y cómo AWS amplió su acuerdo con OpenAI. La dependencia de chips es un problema compartido, aunque cada compañía lo gestiona desde una posición estratégica distinta. Y ahí el tamaño de OpenAI sí juega a su favor.

Hoja de ruta para CIOs
Una vez establecidos los puntos fuertes de Mistral, para un CIO, la decisión no consiste en sustituir toda la estrategia de IA sino en identificar qué procesos críticos conviene mantener bajo mayor control. El primer paso es medir la dependencia de APIs cerradas y valorar qué ocurriría si cambian los precios, el comportamiento del modelo o las condiciones de acceso. Después, conviene elegir casos de uso donde el control tenga valor real (análisis documental regulado, cumplimiento normativo, revisión de expedientes o soporte interno en banca, salud, administración pública e industria) y probarlos en despliegues privados o híbridos, especialmente cuando ya existen integraciones con SAP, Snowflake o entornos internos de datos.
A la vez, el coste por inferencia debe formar parte del caso de negocio desde el inicio, porque en IA generativa el gasto aparece cuando el uso escala. Presentado así, Mistral no es una alternativa ideológica a los proveedores estadounidenses, sino una decisión de resiliencia: más control sobre datos, más opciones de despliegue, menor dependencia de una única API y mejor encaje con el marco regulatorio europeo. Ahí está su oportunidad: convertirse en la opción que gobiernos y empresas reguladas eligen cuando necesitan una infraestructura de IA que puedan controlar, auditar y sostener en el tiempo.
Imagen de apertura creada con ChatGPT
-
A FondoHace 6 díasSubQ: la revolución que promete romper el coste de la IA empresarial
-
NoticiasHace 6 díasPayPal recortará su plantilla un 20% de aquí a tres años
-
NoticiasHace 5 díasAcuerdo en la UE para modificar y retrasar la aplicación de medidas de la Ley de IA
-
NoticiasHace 5 díasSiguen los despidos por culpa de la IA: Cloudflare recortará el 20% de su plantilla y DeepL el 25%

