Noticias
OVHcloud lanza AI Endpoints para facilitar el acceso a modelos de IA a los desarrolladores
OVHcloud ha anunciado la disponibilidad de la solución sin servidor AI Endpoints, con la que pretende facilitar a los desarrolladores el acceso a los modelos de IA y la integración de funciones avanzadas de Inteligencia Artificial en sus aplicaciones. La solución cuenta con más de 40 modelos open source, entre los que hay tanto LLMs como modelos para IA generativa, para distintos usos: agentes conversacionales, modelos de voz, o asistentes de código, entre otros.
AI Endpoints elimina la necesidad de gestionar la infraestructura necesaria para trabajar con modelos, así como de contar con conocimientos especializados en machine learning. Por eso, esta solución permite un acceso sencillo a modelos de IA open source alojados en la nube.
OVHcloud AI Endpoints permite probar las funciones de IA en un entorno de pruebas antes de su despliegue a gran escala en aplicaciones, herramientas internas o procesos de empresa. Los casos de uso en los que puede utilizarse son, entre otros, la integración de modelos grandes de lenguaje en aplicaciones, la extracción de texto a través de la explotación de modelos avanzados de aprendizaje automático, la integración de voz gracias a las API o la asistencia en codificación.
En este último caso, con herramientas como Continue, los desarrolladores pueden integrar asistentes y agentes de IA en modo privado en tiempo real directamente en sus entornos de desarrollo integrados. De esta manera cuentan con un sistema de detección de errores, automatización de tareas y sugerencias de código para agilizar el proceso de codificación.
La infraestructura cloud soberana de OVHcloud garantiza que los datos utilizados con la solución se alojan en Europa, y están por tanto protegidos ante regulaciones no europeas. Además, AI Endopints se ejecuta en la infraestructura de OVHcloud, caracterizada por estar compuesta por servidores refrigerados por agua instalados en los centros de datos de la compañía. Así se reduce el impacto de las cargas de trabajo de la IA sin reducir su rendimiento.
Por otro lado, AI Endpoints promueve la transparencia total del modelo a través de modelos «open weight», que pueden desplegarse en la infraestructura de una empresa o integrarse en otro servicio cloud, lo que garantiza el mantenimiento del control de los datos.
Después de superar una fase previa, en la que el servicio se ha desarrollado y comprobado, ha incorporado los comentarios y funciones más solicitadas por los clientes, como la compatibilidad con modelos estables de código abierto o la gestión perfeccionada de las claves API.
Entre los modelos que ofrece AI Endpoint hay LLM (Llama 3.3 70B, Mixtral 8x7B), SLM (Mistral Nemo, Llama 3.1 8B), de código (Qwen 2.5 Coder 32B, Codestral Mamba), de razonamiento (DeepSeel-R1), Multimodales (Qwen 2.5 VL 72B) y de generación de imágenes (SDXL). También de voz y habla, como el modelo de conversión de voz a texto ASR, y el de texto a voz TTS.
El servicio está ya disponible en Europa, Canadá y la región de Asia-Pacífico, desplegado desde el centro de datos de Gravelines. Ofrecerá un modelo de pago por uso, y sus precios variarán en función del modelo utilizado y del número de tokens consumidos por minuto.
-
A FondoHace 6 díasPíldora roja o píldora azul
-
NoticiasHace 1 díaQNAP estrena la segunda beta abierta de QuTS hero h6.0
-
EntrevistasHace 6 días«Es crucial conectar la IA a conocimiento interno y a los flujos reales de trabajo»
-
A FondoHace 7 díasInterconexión privada, una necesidad para la IA empresarial

