Conecta con nosotros

Noticias

Red Hat Enterprise Linux AI acerca el despliegue, desarrollo y prueba de modelos de IA generativa a la empresa

Publicado el

Red Hat Enterprise Linux AI acerca el despliegue, desarrollo y prueba de modelos de IA generativa a la empresa

Red Hat ha anunciado su plataforma de modelos fundacionales Red Hat Enterprise Linux AI (RHEL AI). Con ella, sus usuarios podrán desarrollar, probar y desplegar modelos de IA generativa con más agilidad. RHEL AI aúna la familia de modelos grandes de lenguaje Granite, que tienen licencia open source de IBM Research, con las herramientas de alineación de modelos de InstructLab basadas en la metodología para chatbots LAB y con un enfoque de desarrollo de modelos impulsado por la comunidad a través del proyecto InstructLab.

Toda esta solución está empaquetada como una imagen RHEL optimizada y de inicio para despliegues de servidores individuales en la nube híbrida. Además, se incluye como parte de OpenShift AI, la plataforma híbrida de operaciones de aprendizaje automático de Red Hat, para ejecutar modelos a escala en entornos de clústeres distribuidos.

IBM Research creó la técnica Large-scale Alignment for chatBots (LAB) como un enfoque para la alineación de modelos que usa la generación de datos sintéticos guiada por taxonomías y un marco de ajuste con varias fases. Este enfoque hace que el desarrollo de modelos de IA sea más abierto y accesible a los usuarios. Esto se debe a que reduce la dependencia de las anotaciones humanas y de los modelos propietarios.

Con el método LAB, los modelos se pueden mejorar mediante la especificación de habilidades y conocimientos vinculados a una taxonomía. A partir de esa información a escala se generan datos sintéticos para incluir en el modelo, y también se usan los datos generados para entrenarle.

Dado que comprobaron que el método LAB podía ayudar a mejorar el rendimiento de los modelos, IBM y Red Hat decidieron poner en marcha la comunidad de código abierto creada en torno a dicho método InstructLab. En ella también se empleaban los modelos Granite de código abierto de IBM. InstructLab quiere pasar el desarrollo de modelos grandes de lenguaje a los desarrolladores, consiguiendo que construir uno, o contribuir a uno que ya se haya desarrollado sea tan sencillo como contribuir a cualquier proyecto open source.

IBM ha puesto a disposición del público además, como parte del lanzamiento de InstructLab, una familia de modelos de lenguaje y código Granite en inglés. Los modelos se han publicado bajo licencia Apache, y el Granite 7B en inglés se ha integrado en la comunidad InstructLab, donde los usuarios pueden mejorarlo de manera colectiva.

Pues bien, RHEL AI se basa en este enfoque abierto de innovación en IA. Por eso incorpora una versión lista para empresas del proyecto InstructLab, y los modelos de lenguaje y código Granite y la plataforma Linux para empresas de Red Hat. Con esto se logra simplificar el despliegue en un entorno de infraestructura híbrida, y crear una plataforma de modelos fundacional para facilitar la adopción de modelos de IA generativa open source en la empresa.

RHEL AI incorpora, además de los modelos y el código Granite, una distribución de InstructLab con soporte y ciclo de vida, que ofrece una solución escalable para aumentar las capacidades de los modelos grandes de lenguaje. También instancias de tiempo de ejecución de modelos de inicio optimizadas con modelos Granite y paquetes de herramientas de InstructLab como imágenes RHEL de inicio a través de image mode de RHEL. Incluyen PyTorch y las bibliotecas de tiempo de ejecución optimizadas, así como los aceleradores para AMD Instinct MI300X, GPU Intel y Nvidia y marcos NeMo.

Red Hat Enterprise Linux  ofrece además el soporte empresarial y ciclo de vida completos de Red Hat, que empieza por con la distribución de productos para empresa y sigue con un soporte de producción 24×7 y soporte de ciclo de vida ampliado.

A medida que las empresas ajusten nuevos modelos de IA en RHEL AI contarán con una vía de acceso lista para escalar sus flujos de trabajo con Red Hat OpenShift AI, que incluirá RHEL AI, y en la que se puede aprovechar el motor Kubernetes de OpenShift para entrenar y servir modelos de IA a escala. En cuanto a las capacidades MLOps integradas de OpenShift AI, servirán para gestionar el ciclo de vida del modelo.

RHEL AI está ya disponible en fase de prueba para desarrolladores. Mientras llega su versión definitiva, IBM añadirá soporte en IBM Cloud para Red Hat Enterprise Linux AI y OpenShift AI. basándose en la infraestructura de GPU que tiene disponible.

Redactora de tecnología con más de 15 años de experiencia, salté del papel a la Red y ya no me muevo de ella. Inquieta y curiosa por naturaleza, siempre estoy al día de lo que pasa en el sector.

Lo más leído