Artículo
24 noviembre 2025

Nuevos retos en las aplicaciones globales impulsadas por la IA

La forma de operar de los sistemas de IA es traducir, en primer lugar, estos datos a números (concretamente a vectores) que permiten trabajar con términos por similitud semántica.

Este panel ha contado con la participación de los siguientes expertos en seguridad en el Cloud:

  • Ángel García, Advisory Solutions Architect de MongoDB
  • Santiago Lorente, Director Unidad Cloud de Grupo Aire
  • Gerardo San José, SE South Europe de Scality

La llegada de los modelos de Inteligencia Artificial está teniendo consecuencias en todas las áreas de TI. Tal y como señala Ángel García, Advisory Solutions Architect de MongoDB, si hablamos de las apps, al analizar la estructura de una app, se pueden distinguir, a grandes rasgos, tres grandes capas:

  • La capa superior de la experiencia de usuario.
  • La capa operacional y de lógica de negocio.
  • La capa de acceso a datos.

Esto cambia completamente con la IA que, para realizar búsquedas semánticas necesita acceder a datos desectructurados, audio, vídeos, fotos, etc. para manejarlos y hacer búsquedas sobre esta tipología de datos. La forma de operar de los sistemas de IA es traducir, en primer lugar, estos datos a números (concretamente a vectores) que permiten trabajar con términos por similitud semántica.

MongoDB surgió en 2007, cuando se hizo necesario un sistema de base de datos que fuera distribuido desde su diseño, “surge porque hay una necesidad, una demanda de baja latencia a la hora de responder las peticiones y alta volumetría”. Algo que las soluciones de bases de datos existentes no estaban proporcionando.

Las bases de datos distribuidas son el paradigma de la resiliencia en entornos híbridos.

Ángel García, Advisory Solutions Architect de MongoDB

Y hoy es más actual que entonces, ya que una base de datos distribuida “es el paradigma de la resiliencia en entornos híbridos”, según Ángel García. En los casos de uso que ven ahora mismo las búsquedas han pasado a ser más semánticas, lo que favorece este tipo de sistemas.

Otro desarrollo reciente que está incrementando su presencia son los sistemas RAG, en los que “yo tengo una documentación, imaginaros ejemplo, yo tengo la documentación internamente compañía y quiero que la inteligencia artificial sea capaz de contextualizar la respuesta que le doy al cliente en base a mi información interna, sin yo entrenar esa IA con esa información”.

Y el siguiente paso, que ya están viendo desplegarse con rapidez, son las arquitecturas de agentes de IA, cuyo impacto en la capa de base de datos va a ser como si crecieran enormemente los usuarios activos, ya que “no sólo vamos a tener los usuarios en los canales digitales haciendo las mismas operaciones, sino que cada operación que realice un usuario va a desencadenar en operaciones que van ejecutando los diferentes agentes de IA”.

Cada petición a un agente de IA pondrá en marcha una serie de búsquedas o incluso otras peticiones a otros agentes, que harán lo mismo. De modo que el impacto sobre la base de datos será notorio y se está viendo que es importante modelar los datos de modo que luego sean más eficientes este tipo de búsquedas.

En el mundo de la tecnología ha habido un antes y un después de los LLMs y han provocado unos efectos que son difíciles de apreciar desde la perspectiva local.

Santiago Lorente, Director Unidad Cloud de Grupo Aire

Santiago Lorente, Director Unidad Cloud de Grupo Aire hizo un recorrido desde los inicios del Cloud, cuando el gasto total en servicios de ese tipo en España no llegaba al cuarto de millón de euros al año, hasta llegar al momento actual, en el que la cifra está en torno a los 6.000 M€.

Estábamos inmersos en una evolución rápida del Cloud cuando, hace tres años, “vino ChatGPT a vernos. Y lo ha cambiado todo”. En el mundo de la tecnología ha habido un antes y un después de los LLMs, “y han provocado unos efectos que son difíciles de apreciar desde la perspectiva local”.

En primer lugar, la velocidad de implantación de ChatGPT, que ha sido mucho más rápida que cualquier otra aplicación en la historia. Vivimos en un mundo “donde todo está informatizado y cuando algo crece de esta manera, tiene un gran impacto en todos los elementos de la cadena”. Y en este caso eso se ha extendido hasta los Data Centers.

Para poder tomar perspectiva sobre la dimensión de este impacto, Santiago Lorente citó un informe de la consultora McKinsey sobre el crecimiento de la demanda de capacidad de los Data Centers. Estiman que se va a mantener entre el 19% y el 27% anual durante los próximos años con un coste total de 7 billones de dólares.

Una parte importante de este crecimiento se dedicará a cargas de IA, y como la Ley de Moore sigue cumpliéndose doblando cada 18 meses la velocidad de los procesadores, los Data Centers más avanzados adoptan a gran velocidad los últimos y más veloces chips para acelerar las tareas de entrenamiento e inferencia.

La demanda de esta capacidad de procesamiento crece más rápido que la oferta, lo que hace que los hiperescalares tengan problemas de capacidad. Esto impacta en el resto de la cadena de valor haciendo que a muchas empresas el coste de alojar sus cargas de trabajo en los hiperescalares ya no les compense.

Recientemente alcanzamos la cifra de 1.000 millones de personas en el mundo cuyos datos están alojados en sistemas de Scality (bancos, organismos gubernamentales, etc,…).

Gerardo San José, SE South Europe de Scality

Aquí es donde nosotros vemos una oportunidad. Hay determinadas cargas de trabajo que solo las pueden asumir estos hiperescalares, pero hay muchas otras, a las que se les puede dar respuesta con Data Centers locales con CPUs relativamente baratas y sencillas que lo hagan a un coste un 60% inferior al de los hiperescalares.

Gerardo San José, SE South Europe de Scality comenzó por aclarar que su compañía crea soluciones de almacenamiento para montar algo similar a una nube privada o híbrida, para adecuarse a las necesidades de sus clientes que, “por temas de soberanía o por control de costes, quieren mantener el control sobre sus datos”.

Citó que recientemente alcanzaron la cifra de 1.000 millones de personas en el mundo cuyos datos están alojados en sistemas de Scality (bancos, organismos gubernamentales, etc,…).

El concepto central de su ponencia giró en torno a dos planteamientos:

  • Lo que son los datos para la IA (el más evidente).
  • Lo que es la IA para los datos (el menos obvio).

Respecto al primero de ellos, lo que representan los datos para la IA. De forma casi intuitiva se entiende que los datos son fundamentales para la IA, que necesita una gran cantidad de datos para ser alimentada. Han puesto en marcha sistemas en los que tienen una decenas de terabytes y otros, como el de algún gran cliente, que superan los 200 petabytes de almacenamiento.

Son necesarios sistemas eficientes en coste por capacidad, pero también que faciliten el movimiento y la actualización del dato para poder ser procesado por las soluciones de IA. Esta primera fase de entrenamiento “requiere mucho cálculo, mucha interacción”.

Cuando llega la fase de la inferencia, “le asocia una palabra determinada con un token, con un numerito. Y luego otra palabra, si es parecida, tendrá un token parecido (con un numerito parecido) y entonces el sistema ya sabe que pertenecen a un contexto similar”. Estas operaciones “son muy frecuentes y muy rápidas, y tienen un perfil de carga muy diferente al de la primera fase.

Si hablamos del paso a Producción, es cuando hay que acceder a los datos en tiempo real y tienen otros requisitos. Seguramente “habrá un entorno en el que se guarde todo lo anterior (los datos iniciales de las versiones que se generan, más y más y más”. Estos datos probablemente puedan guardarse en soluciones muy frías a largo plazo.

Esta diversidad de fases habla de que el almacenamiento, que a priori puede parece un todo único, debe responder a distintas necesidades en función de a qué retos debe responder en cada momento.

Y la segunda parte de este planteamiento es el impacto que tiene la IA para los datos. Ahora ya se le pueden pedir tareas de alto nivel a la IA lo que permite que un usuario mucho menos técnico que los actuales puede interactuar con estos sistemas teniendo en cuenta unas pocas reglas gracias a la descarga de tareas que realiza la IA.

¿Te ha parecido útil este contenido?

 

Asociación @aslan
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.