Conecta con nosotros

Noticias

Red Hat mejora Red Hat AI para agilizar los despliegues de IA empresarial

Publicado el

Red Hat mejora Red Hat AI para agilizar los despliegues de IA empresarial

Red Hat ha decidido mejorar su oferta de IA con la actualización de todo el portfolio de Red Hat AI, que incluye la presentación de Red Hat AI Inference Server, los modelos de terceros validados por Red Hat AI y la integración de las API de Llama Stack y el Protocolo de contexto de modelos (MCP). Con estos avances, la compañía busca seguir añadiendo las capacidades que necesitan las empresas para acelerar la adopción de la IA.

El Portfolio de Red Hat AI incluye ahora Red Hat AI inference Server, que ofrece una inferencia consistente y ágil a escala en entornos de nube híbrida. Esta incorporación está integrada en las últimas versiones de Red Hat OpenShift AI y Red Hat Enterprise Linux AI. También está disponible como una oferta independiente.

Los modelos de terceros validados por Red Hat AI, disponibles en Hugging Face, facilitan la localización de los modelos adecuados para cada necesidad. Además de una colección de modelos de este tipo, la compañía ofrece además guías para su despliegue. Algunos modelos también están optimizados por Red Hat, gracias a técnicas de compresión de modelos que reducen su tamaño y aumentan la velocidad de inferencia. Así se reduce el consumo de recursos y los gastos.

Red Hat ha integrado Llama Stack, desarrollado por Meta, así como MCP De Anthropic, para ofrecer a los usuarios APIs estandarizadas para crear y desplegar aplicaciones y agentes de IA. Llama Stack, actualmente en versión de prueba para desarrolladores en Red Hat AI, ofrece una API unificada para acceder a la inferencia con vLLM, la generación aumentada por recuperación (RAG), la evaluación de modelos, las barreras de seguridad, y los agentes, en cualquier modelo de IA generativa.

MCP Permite a los modelos integrarse con herramientas externas, ya que proporciona una interfaz estandarizada para la conexión de APIs, plugins y fuentes de datos en los flujos de trabajo de los agentes. Por otro lado, la última versión de OpenShift AI (2.20), ofrece mejoras adicionales para crear, entrenar, desplegar y monitorizar a escala tanto modelos de IA generativa como de IA predictiva.

Entre ellas, un catálogo de modelos optimizado en vista previa, con acceso a los modelos validados de la compañía, así como de terceros, que permite su despliegue en clústeres de OpenShift AI a través de la interfaz de la consola web y gestiona el ciclo de vida de los modelos a través del registro integrado de OpenShift AI.

También ofrece entrenamiento distribuido a través del KubeFlow Training Operator, que permite programar y ejecutar el ajuste de modelos InstructLab y otras cargas de trabajo de entrenamiento y ajuste basadas en PyTorch, distribuidas en múltiples nodos y GPUs de OpenShift, e incluye la aceleración de redes RDMS distribuidas. También el uso optimizado de la GPU.

OpenShift AI ofrece ahora también un almacén de características, también en vista previa, basado en el proyecto de comunidad Kubeflow Feast. Ofrece un repositorio centralizado para gestionar y servir datos, tanto para entrenamiento como para inferencia de modelos. En cuanto a RHEL AI 1.5, aporta nuevas actualizaciones a la plataforma de modelos funcionales de Red Hat para desarrollar, probar y ejecutar modelos grandes de lenguaje.

Entre sus principales características nuevas está su disponibilidad a través de Google Cloud Marketplace y su mejora en capacidades multilingües para español, alemán, francés e italiano a través de InstructLab. Permite la personalización de modelos a través de scripts nativos y desbloquea nuevas posibilidades para aplicaciones de IA multilingües.

Los usuarios también pueden aportar sus modelos de profesor para tener más control sobre la personalización y las pruebas de los modelos para casos de uso e idiomas específicos. En el futuro está previsto que también cuente con soporte para japonés, hindí y coreano.

Red Hat InstructLab en IBM Cloud está también ahora disponible a nivel general. Se trata de un servicio cloud centralizado en agilizar el proceso de personalización de modelos, lo que mejora la escalabilidad y la experiencia de usuario.

Redactora de tecnología con más de 15 años de experiencia, salté del papel a la Red y ya no me muevo de ella. Inquieta y curiosa por naturaleza, siempre estoy al día de lo que pasa en el sector.

Lo más leído