Conecta con nosotros

Noticias

Snowflake anuncia Arctic, su propio modelo grande de lenguaje para empresas

Publicado el

Snowflake anuncia Arctic, su propio modelo grande de lenguaje para empresas

Snowflake ha anunciado el lanzamiento de su propio modelo grande de lenguaje para empresas, al que ha llamado Arctic. Incorpora la arquitectura MoE (Mezcla de Expertos), y está optimizado para cargas de trabajo empresariales complejas. Así, supera varios puntos de referencia en generación de código SQL o seguimiento de instrucciones. La compañía ha decidido publicar los pesos del modelo bajo una licencia Apache 2.0, acompañada por los detalles de su creación y entrenamiento, lo que lo convierte en un modelo caracterizado por su apertura.

El modelo grande de lenguaje Snowflake Arctic forma parte de la familia de modelos Snowflake Arctic, de la que también forman parte varios modelos prácticos de texto embebido y pensados para casos de uso de recuperación.

Con este modelo bajo licencia Apache 2.0, Snowflake permite su uso personal, comercial y de investigación sin restricciones. Además, Snowflake ofrece plantillas de código y opciones flexibles de inferencia y formación. De esta manera, los usuarios agilizarán el despliegue y personalización de Arctic en sus entornos de trabajo de preferencia. Entre ellos están Nvidia NIM con Nvidia Tensor RT-LLM, vLLM y Hugging Face.

En caso de necesitar utilizarlo de manera inmediata, está disponible para inferencia sin servidor en Snowflake Cortex, el servicio totalmente gestionado de Snowflake con soluciones de machine learning e IA en Data Cloud. También estará disponible en AWS, junto a otros archivos y catálogos de modelos, entre los que están Hugging Face, Lamini, Microsoft Azure, el catálogo de API de Nvidia, Perplexity o Together AI.

En el desarrollo de Artic, el equipo de investigación de IA de Snowflake invirtió menos de tres meses, y gastó alrededor de una octava parte de lo que cuesta entrenar modelos parecidos. El entrenamiento de Arctic se llevó a cabo mediante instancias P5 de Amazon Elastic Compute Cloud (Amazon EC2).

Con esto, Snowflake está estableciendo un nuevo referente en cuanto a la rapidez en el entrenamiento de modelos empresariales abiertos. Incluso en el caso de los más avanzados. Esto llevará a que los usuarios lleguen a ser capaces de crear modelos personalizados rentables a gran escala.

El diseño diferenciado de la. arquitectura MoE de Arctic mejora los sistemas de entrenamiento y el rendimiento de los modelos, con una composición de datos diseñada de manera meticulosa, y centrada en las necesidades de las empresas. Este modelo también ofrece resultados considerados de alta calidad, activando 17 de los 480.000 millones de parámetros a la vez. Así logra una mayor calidad con una elevada eficiencia simbólica.

Durante la inferencia o el entrenamiento, Arctic activa alrededor de un 50% menos de parámetros que otro de los principales modelos abiertos, DBRX. También un 75% menos que Llama 3 70B. Además, supera a DBRX y Mixtral-8x7B en codificación, según los resultados obtenidos en los bancos de pruebas HumanEval+ y MBPP+. También supera a Spider en generación de SQL, y consigue un resultado notable en comprensión general del lenguaje, según el banco MMLU.

La familia de modelos Snowflake Arctic, compuesta ya con este LLM que se acaba de anunciar por cinco modelos, está disponible en Hugging Face para su uso inmediato. Además, pronto llegará también como parte de la función embebida de Snowflake Cortex, en fase de prueba privada.

Redactora de tecnología con más de 15 años de experiencia, salté del papel a la Red y ya no me muevo de ella. Inquieta y curiosa por naturaleza, siempre estoy al día de lo que pasa en el sector.

Lo más leído