Noticias - Actualidad
21 junio 2024

RED HAT anuncia Podman AI Lab

Acelera la adopción de IA generativa en las aplicaciones por parte de los desarrolladores con herramientas que simplifican y guían cada paso, desde la conceptualización hasta la producción, todo ello desde un entorno de escritorio local.

Red Hat, Inc., el proveedor líder mundial de soluciones de código abierto, ha presentado Podman AI Lab, una extensión para Podman Desktop que ofrece a los desarrolladores la posibilidad de crear, probar y ejecutar aplicaciones impulsadas por inteligencia artificial generativa  en contenedores, utilizando una interfaz gráfica intuitiva en su estación de trabajo local. Esto contribuye a la democratización de la IA generativa y ofrece a los desarrolladores las ventajas de la comodidad, simplicidad y rentabilidad de su experiencia de desarrollador local, al mismo tiempo que mantienen la propiedad y el control sobre los datos sensibles.

El reciente auge de la IA generativa y de los modelos lingüísticos de gran tamaño (LLM) en código abierto ha dado paso a una nueva era de la informática que se basa en gran medida en el uso de aplicaciones que utilizan IA, y las organizaciones están actuando con rapidez para establecer la experiencia, los procesos y las herramientas que les permitan seguir siendo relevantes. La consultora IDC señala este cambio, prediciendo que «en 2026, el 40% de las aplicaciones completamente nuevas serán aplicaciones inteligentes, en las que los desarrolladores incorporarán la IA para mejorar las experiencias existentes y crear nuevos casos de uso”[1].

A medida que se generalizan la IA y la ciencia de datos en el desarrollo de aplicaciones, herramientas como Podman AI Lab pueden ayudar a impulsar la adopción de IA Generativa por parte de los desarrolladores para crear aplicaciones inteligentes o mejorar sus flujos de trabajo utilizando capacidades de desarrollo aumentadas por la IA. AI Lab cuenta con un catálogo de recetas con ejemplos de aplicaciones que ofrecen a los desarrolladores un punto de partida en algunos de los casos de uso más comunes para los LLMs, entre los que se incluyen:

  • Chatbots que simulan una conversación humana, utilizando IA para entender las consultas de los usuarios y ofrecer respuestas adecuadas. Estas capacidades se utilizan a menudo para aumentar las aplicaciones que proporcionan atención al cliente de autoservicio o asistencia personal virtual.
  • Resúmenes de texto, que ofrecen capacidades versátiles en muchas aplicaciones e industrias en las que pueden proporcionar una gestión eficaz y eficiente de la información. Con esta receta, los desarrolladores pueden crear aplicaciones que ayuden en aspectos como la creación y edición de contenidos, la investigación, la agregación de noticias, la monitorización de redes sociales y el aprendizaje de idiomas.
  • Generadores de código, que permiten a los desarrolladores concentrarse en el diseño de alto nivel y la resolución de problemas mediante la automatización de tareas repetitivas, como la configuración del proyecto y la integración de las APIs, o para producir plantillas de código.
  • Detección de objetos para identificar y localizar objetos dentro de imágenes digitales o fotogramas de vídeo. Es un componente fundamental en diversas aplicaciones, como los vehículos autónomos, la gestión de inventarios en comercios, la agricultura de precisión y las retransmisiones deportivas.
  • Transcripción de voz a texto, que implica el proceso de transcribir automáticamente el lenguaje hablado a texto escrito, facilitando la documentación, la accesibilidad y el análisis del contenido de audio.

Estos ejemplos proporcionan un punto de partida a los desarrolladores, en el que pueden revisar el código fuente para ver cómo se construye la aplicación y aprender las mejores prácticas para integrar su código con un modelo de IA.

Los contenedores ofrecen tradicionalmente a los desarrolladores un entorno flexible, eficiente y coherente para crear y probar aplicaciones en sus equipos sin preocuparse de conflictos o problemas de compatibilidad. Hoy en día, necesitan la misma simplicidad y facilidad de uso para los modelos de IA. Podman AI Lab ayuda a satisfacer esta necesidad ofreciéndoles la posibilidad de aprovisionar servidores de inferencia locales, lo que facilita la ejecución de un modelo localmente, obtener un punto final y empezar a escribir código para empaquetar nuevas capacidades en torno al modelo.

Además, Podman AI Lab cuenta con un entorno de pruebas que permite a los usuarios interactuar con los modelos y observar su comportamiento, que puede usarse para probar, experimentar y desarrollar prototipos y aplicaciones de los modelos. Un entorno de usuario intuitivo ayuda a explorar las capacidades y la precisión de varios modelos y ayuda a encontrar el mejor modelo y los mejores ajustes para el caso de uso en la aplicación.

A medida que la IA se hace más omnipresente en la empresa, Red Hat lidera el camino para liberar el potencial de la IA para impulsar la innovación, la eficiencia y el valor a través de una cartera de plataformas de IA coherentes, fiables y completas para la nube híbrida.

Podman AI Lab se basa en la fuerza de Podman Desktop, un proyecto de código abierto fundado en Red Hat que ya cuenta con más de un millón de descargas. También ofrece una estrecha integración con image mode de Red Hat Enterprise Linux, un nuevo método de despliegue para la plataforma Linux empresarial líder en el mundo que entrega el sistema operativo como una imagen de contenedor. Esta integración permite a los desarrolladores pasar más fácilmente de crear prototipos y trabajar con modelos en su equipo a convertir la nueva aplicación infundida en IA en un contenedor portátil y de arranque que puede ejecutarse fácilmente en cualquier lugar de la nube híbrida, desde un servidor a una instancia de nube, utilizando Red Hat OpenShift.

La nube es híbrida. Y también la IA.

Durante más de 30 años, las tecnologías de código abierto han aunado la rapidez en la innovación con una gran reducción de los costes de TI y la disminución de las barreras a la innovación. Red Hat lleva casi el mismo tiempo liderando esta tendencia, desde el suministro de plataformas Linux empresariales abiertas con RHEL a principios de la década de 2000 hasta el impulso de los contenedores y Kubernetes como base de la nube híbrida abierta y la computación nativa de la nube con Red Hat OpenShift.

Este impulso continúa con Red Hat potenciando las estrategias de IA/ML a través de la nube híbrida abierta, permitiendo que las cargas de trabajo de IA se ejecuten donde están los datos, ya sea en el centro de datos, en múltiples nubes públicas o en el edge. Más allá de las cargas de trabajo, la visión de Red Hat para la IA lleva el entrenamiento y el ajuste de modelos por este mismo camino para abordar mejor las limitaciones en torno a la soberanía de los datos, el cumplimiento y la integridad operativa.  La coherencia que ofrecen las plataformas de Red Hat en estos entornos, independientemente de dónde se ejecuten, es crucial para mantener el flujo de la innovación en IA.

¿Te ha parecido útil este contenido?