Noticias - Actualidad
30 mayo 2025

OVHCLOUD lanza AI Endpoints para simplificar y democratizar el acceso a los modelos de IA

Una nueva plataforma «serverless» que ofrece una biblioteca de modelos open source diseñados para satisfacer una amplia gama de casos de uso empresariales e industriales.

OVHcloud lanza AI Endpoints, una solución sin servidor que permite a los desarrolladores integrar fácilmente funcionalidades avanzadas de IA en sus aplicaciones. Con más de 40 modelos open source de vanguardia que incluyen LLM e IA generativa –para usos como agentes conversacionales, modelos de voz, asistentes de código, etc.– AI Endpoints democratiza el uso de la IA, independientemente del tamaño o sector de la organización. Al eliminar la necesidad de gestionar la infraestructura subyacente ni de contar con conocimientos especializados en machine learning, AI Enpoints permite un acceso sencillo a modelos de IA de código abierto alojados en un entorno cloud de confianza.
IA «llave en mano» para el desarrollo de aplicaciones

OVHcloud AI Endpoints permite a los desarrolladores probar las funcionalidades de IA en un entorno de pruebas o «sandbox» antes de su despliegue a gran escala en aplicaciones, herramientas internas o procesos empresariales. Los casos de uso incluyen:

  • Integración de grandes modelos de lenguaje (LLM) en aplicaciones: utilizando interacciones de lenguaje natural en tiempo real, AI Endpoints permite mejorar la participación de los usuarios o automatizar el servicio al cliente a gran escala.
  • Extracción de texto: a través de la explotación de modelos avanzados de aprendizaje automático se pueden extraer, interpretar y organizar automáticamente datos no estructurados, optimizando los procesos ETL (extracción, transformación y carga) y la eficiencia operativa.
  • Integración de voz: gracias a las API, el servicio convierte el lenguaje hablado en texto y viceversa para la transcripción automática, la toma de notas o las interacciones de voz enriquecidas.
  • Asistencia en la codificación: con herramientas como Continue, los desarrolladores pueden integrar asistentes y agentes de IA (en modo privado) en tiempo real directamente en sus entornos de desarrollo integrados (IDE), mejorando tanto la productividad como la calidad del código a través de detección de errores, automatización de tareas y sugerencias de código.

Una plataforma «serverless» diseñada para la autonomía estratégica de las organizaciones
La infraestructura cloud soberana de OVHcloud garantiza que los datos se alojan en Europa y están protegidos ante regulaciones no europeas, lo que proporciona una autonomía tanto técnica como estratégica.
El cloud es esencial para la IA, por lo que AI Endpoints se ejecuta en la infraestructura energéticamente eficiente de OVHcloud, que se beneficia de servidores refrigerados por agua en datacenters respetuosos con el medio ambiente. Este enfoque ayuda a reducir el impacto de las cargas de trabajo de la IA, sin comprometer el rendimiento.

AI Endpoints promueve la transparencia total del modelo a través de modelos «open-weight» que ofrecen la posibilidad de desplegarse en la propia infraestructura de una organización, o integrarse en otro servicio cloud, manteniendo el control de los datos.

«Nos enorgullece lanzar AI Endpoints y estamos agradecidos por la activa y valiosa aportación de nuestra comunidad. Al integrar los modelos LLM de código abierto más solicitados, AI Endpoints contribuye a la democratización de la IA y permite a los desarrolladores integrar fácilmente los modelos más innovadores con total confianza en la infraestructura soberana de OVHcloud» afirma Yaniv Fdida, Chief Product and Technology Officer de OVHcloud.

Disponibilidad: IA con un modelo de pago por uso

Tras una fase previa en la que el servicio se ha desarrollado y comprobado a fondo, incorporando los comentarios y las funcionalidades más solicitadas por los clientes (compatibilidad con modelos estables de código abierto, gestión perfeccionada de las claves API, etc.), AI Endpoints ofrece más de 40 modelos de IA open-source de última generación, entre los que se incluyen:

LLM: Llama 3.3 70B, Mixtral 8x7B, …

SLM: Mistral Nemo, Llama 3.1 8B, …

Código: Qwen 2.5 Coder 32B, Codestral Mamba

Razonamiento: DeepSeek-R1 (Llama destilado)

Multimodal: Qwen 2.5 VL 72B, …

Generación de imágenes: SDXL

Voz y habla: ASR (speech-to-text), TTS (text-to-speech)

El servicio ya está disponible en Europa, Canadá y APAC, desplegado desde el datacenter de Gravelines. Con un modelo de pago por uso, los precios de OVHcloud AI Endpoints varían por modelo utilizando como unidad el número de tokens consumidos por minuto.

¿Te ha parecido útil este contenido?

 

Asociación @aslan
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.