Red Hat, Inc., el principal proveedor de soluciones de código abierto a nivel mundial, ha anunciado la disponibilidad de forma general de Red Hat Enterprise Linux (RHEL) AI en la nube híbrida. RHEL AI es la plataforma de modelos fundacionales de Red Hat que permite a los usuarios desarrollar, probar y ejecutar de manera eficiente modelos de IA generativa para potenciar las aplicaciones empresariales. La plataforma une a Granite, la familia de grandes modelos lingüísticos (LLM), con licencia de código abierto, y las herramientas de alineación de modelos InstructLab, basadas en la metodología de LAB (Alineación a gran escala para chatBots). Todo ello está empaquetado como una imagen RHEL optimizada y preparada para arrancar para despliegues en servidores individuales en la nube híbrida.
Si bien hay una gran expectación en cuanto a las inmensas posibilidades que ofrece la IA generativa, los costes asociados a la adquisición, entrenamiento y puesta a punto de los LLM pueden ser astronómicos, ya que el entrenamiento de algunos de los principales modelos antes de su lanzamiento cuesta casi 200 millones de dólares. Esto no incluye el coste de la adaptación a los requisitos o datos específicos de una organización determinada, que suele necesitar científicos de datos o desarrolladores altamente especializados. Independientemente del modelo seleccionado para una aplicación determinada, sigue siendo necesaria la alineación para adaptarlo a los datos y procesos específicos de la empresa, lo que hace que la eficiencia y la agilidad sean clave para la IA en entornos de producción reales.
Red Hat cree que, durante la próxima década, los modelos de IA más pequeños, eficientes y creados a medida formarán una mezcla sustancial del stack de TI empresarial, junto con las aplicaciones nativas de la nube. Pero para lograrlo, la IA generativa debe ser accesible y estar disponible, tanto a nivel de costes, colaboradores, así como dónde puede ejecutarse en la nube híbrida. Durante décadas, las comunidades de código abierto han ayudado a resolver retos similares para problemas complejos de software a través de contribuciones de diversos grupos de usuarios; un enfoque similar puede reducir las barreras a la adopción efectiva de IA generativa.
Un enfoque de código abierto para la IA Generativa
Estos son los retos que RHEL AI pretende abordar, haciendo que la IA generativa sea más accesible, más eficiente y más flexible para los CIO y las organizaciones de TI empresarial en toda la nube híbrida. RHEL AI ayuda a:
- Potenciar la innovación de IA generativa con modelos empresariales Granite, con licencia de código abierto y alineados con una amplia variedad de casos de uso de IA generativa.
- Optimizar la adaptación de los modelos de IA generativa a los requisitos empresariales con la herramienta InstructLab, que permite a los expertos en la materia y desarrolladores de una organización aportar habilidades y conocimientos únicos a sus modelos, incluso sin contar con amplios conocimientos de ciencia de datos.
- Entrenar y desplegar IA generativa en cualquier lugar de la nube híbrida proporcionando todas las herramientas necesarias para ajustar y desplegar modelos para servidores de producción dondequiera que vivan los datos asociados. RHEL AI también proporciona una vía de acceso a Red Hat OpenShift AI para entrenar, ajustar y servir estos modelos a escala utilizando las mismas herramientas y conceptos.
RHEL AI también está respaldado por las ventajas de una suscripción a Red Hat, que incluye la distribución de productos empresariales de confianza, soporte de producción 24×7, soporte ampliado del ciclo de vida de los modelos y protecciones legales de Open Source Assurance.
RHEL AI se extiende a través de la nube híbrida
Acercar una plataforma de modelo fundacional más consistente al lugar donde residen los datos de una organización es crucial para respaldar las estrategias de IA en producción. Como una extensión de las plataformas de nube híbrida de Red Hat, RHEL AI abarcará casi todos los entornos empresariales imaginables, desde centros de datos locales hasta el extremo de la red y la nube pública. Esto significa que RHEL AI estará disponible directamente desde Red Hat, desde los partners fabricantes de equipos originales (OEM) de Red Hat y para ejecutarse en los proveedores de nube más grandes del mundo, incluidos Amazon Web Services (AWS), Google Cloud, IBM Cloud y Microsoft Azure. Esto permite a los desarrolladores y a las organizaciones de TI utilizar el poder de los recursos informáticos a hiperescala para construir conceptos innovadores de IA con RHEL AI.