Noticias
Mistral AI lanza una nueva familia de modelos open source multimodales: Mistral 3
La startup de IA francesa Mistral AI ha anunciado el lanzamiento de Mistral 3, una familia de 10 modelos multimodales open source grandes y pequeños diseñados para ejecutarse en todo tipo de dispositivos y destinos según su envergadura y finalidad: desde un smartphone o un dron autónomo hasta sistemas de empresa en la nube a gran escala.
La familia Mistral 3 incluye un nuevo modelo grande, Mistral Large 3, y una suite de varios modelos pequeños, Ministral 3, optimizados para aplicaciones en el edge. Todos los modelos se han lanzado con la licencia Apache 2.0, lo que permite su uso empresarial sin restricciones, a diferencia de lo que sucede con los modelos de otras compañías dedicadas a la IA, como OpenAI o Google.
Con este paso, además, Mistral apuesta por un futuro en el que el desarrollo y avance de la IA no sea una exclusiva de empresas que lleve a la creación de sistemas propietarios y cerrados, sino que pase más bien por ofrecer a las empresas la mayor flexibilidad posible para personalizar y desplegar una IA adaptada a sus necesidades concretas. Esto implica en muchos casos el uso de modelos más pequeños que puedan ejecutarse y funcionar sin necesidad de contar con conectividad externa.
Mistral Large 3, el modelo más destacado de la familia, cuenta con una arquitectura propia y 41.000 millones de parámetros activos salidos de un pool con 675.000 millones de parámetros. Es capaz de procesar tanto texto como imágenes, de gestionar ventanas de contenido con hasta 256.000 tokens y se ha entrenado poniendo un énfasis concreto en el uso con idiomas que no sean el inglés, algo que también lo diferencia de otros sistemas de IA de frontera.
En cuanto a los modelos de la gama Ministral 3, preparados para trabajar con textos e imágenes, son nueve, compactos, y clasificados en tres tamaños con, respectivamente, 14.000, 8.000 y 3.000 millones de parámetros. Cada tamaño tiene tres variantes personalizadas para distintos casos de uso y propósito.
De ellos, los modelos base se utilizan para personalización a gran nivel, y los modelos ajustados para darles instrucciones para chat general y para que realicen tareas. En cuanto a los que están optimizados para razonamiento, se emplean para temas de lógica compleja que necesitan instrucciones paso a paso para ofrecer resultados.
Los modelos Ministral 3 más pequeños, además, se pueden ejecutar en dispositivos con solo 4 GB de memoria de vídeo, lo que hace que las funciones de la IA de frontera se puedan utilizar en portátiles convencionales, e incluso en smartphones y otros sistemas, sin necesidad de acceder para ello a infraestructura cloud. Incluso funcionan sin contar con conexión a Internet.
La familia Mistral 3 está ya disponible a través de Mistral AI Studio, Amazon Bedrock, Azure Froundry, Hugging Face (Large 3 y modelos Ministral), Modal, IBM WatsonX, OpenRouter, Fireworks, Unsloth AI y Together AI. Pronto lo estarán a través de NVIDIA NIM y AWS SageMaker.
-
A FondoHace 5 díasPíldora roja o píldora azul
-
NoticiasHace 7 díasAgentic Workflows, el proyecto abierto de GitHub Next ya está disponible
-
NoticiasHace 6 díasASUS presenta el portátil para empresas, ExpertBook B3 G2
-
EntrevistasHace 5 días«Es crucial conectar la IA a conocimiento interno y a los flujos reales de trabajo»

