Artículo
22 abril 2025

Edge computing, HPC & AI Computing, cuando se busca la máxima potencia de cómputo

Cuando las demandas de cómputo son extraordinariamente altas, como en el caso de análisis de grandes volúmenes de datos, modelado avanzado o entrenamiento de modelos de inteligencia artificial complejos, las organizaciones recurren a infraestructuras de High-Performance Computing (HPC) y AI Computing.

En un entorno digital donde la velocidad y la eficiencia son críticas, la elección de la infraestructura de cómputo adecuada es decisiva para conseguir el rendimiento óptimo de los servicios online. Al acercar los recursos de procesamiento y almacenamiento al lugar donde se generan y consumen los datos, el Edge Computing reduce significativamente los tiempos de transmisión y mejora la experiencia del usuario final, un aspecto vital en sectores como IoT, telecomunicaciones, y servicios financieros.

Por otro lado, cuando las demandas de cómputo son extraordinariamente altas, como en el caso de análisis de grandes volúmenes de datos, modelado avanzado o entrenamiento de modelos de inteligencia artificial complejos, las organizaciones recurren a infraestructuras de High-Performance Computing (HPC) y AI Computing. Estas infraestructuras permiten gestionar cargas de trabajo intensivas mediante la utilización de clústeres de servidores de alto rendimiento y arquitecturas diseñadas específicamente para procesamiento masivo. HPC y AI Computing son esenciales en aplicaciones que requieren una capacidad de cómputo superior, como simulaciones científicas, análisis de datos a gran escala, y despliegue de modelos de Machine Learning y Deep Learning.

Según Gartner, “en 2025 las grandes empresas crearán y procesarán más del 50% de sus datos fuera de sus centros de datos o su cloud”.

Vivimos en una era de crecimiento exponencial de los datos. Están los datos que conocemos en la compañía, una enorme cantidad de datos propios sin incorporar (datos meteorológicos, de temperatura, de sensores), o los datos de lo que pasa en Twitter o en Instagram, ¿qué hacéis con ellos?

Adriano Galano, Sales Specialist de Supercomputación & IA, Sur de Europa en HPE

Adriano Galano, Sales Specialist de Supercomputación & IA, Sur de Europa de HPE, confirmó que “vivimos en una era de crecimiento exponencial de los datos. Están los datos que tenéis en la compañía, el iceberg, los datos que conocemos y los datos que están abajo que no conocemos. Y también está una enorme cantidad de datos disponibles pero que no están en la base de datos de vuestra compañía y que no usáis: datos meteorológicos, de temperatura, de sensores. O los datos de lo que pasa en Twitter o en Instagram, ¿qué hacéis con ellos? Ninguna empresa utiliza esos datos para sacar inteligencia de ellos”.

Puso el foco sobre la enorme cantidad de datos que están a nuestro alrededor que son totalmente accionables y que son la base de la IA moderna, “la explosión de los grandes modelos de lenguaje es inabarcable. Y nuevos algoritmos y nuevas formas de resolver las cosas. Eso sí, todo ello con retos de rendimiento, sostenibilidad y eficiencia”.

HPE ha fabricado los 3 superordenadores más rápidos del mundo (El Capitan, Frontier y Aurora), así como los 3 más rápidos de Europa (Eni, Alps y Lumi) de la lista Top500. Según comentó Adriano Galano, “tras la compra de Cray en 2019, HPE consiguió industrializar la forma de construir superordenadores y avanzar mucho en los aspectos clave de la supercomputación: hardware, software, networking y refrigeración. Tenemos una alianza estratégica con nVidia que nos permite ofrecer sistemas en varios tamaños adecuados para todo tipo de organizaciones: pequeño, mediano, grande y extragrande, todos ellos con una experiencia unificada a través de HPE GreenLake cloud”.

Podemos reducir el consumo en un data center en un 45% simplemente modernizando los equipos. Si, además, rediseñamos su estructura, podemos ir todavía más allá.

Javier Gallego Martínez, Director Data Center Sales en Dell Technologies

Javier Gallego Martínez, Director Data Center Sales de Dell Technologies, empezó por plantear la siguiente pregunta, “¿por qué necesitamos la máxima potencia de cómputo?”. Y distinguió tres situaciones: AI Computing, el entrenamiento de modelos de IA a gran escala; HPC, las simulaciones científicas y financieras; y Edge Computing, para vehículos autónomos, ciudades infraestructuras o fábricas inteligentes. “En todos ellos se usan CPUs, GPUs y redes de altas prestaciones, aunque adaptadas a cada entorno”.

Hay tecnologías disponibles, pero la evolución hace pensar que el factor limitante en un futuro no va a ser la capacidad de alimentarlos de energía eléctrica sino la de refrigerar adecuadamente los equipos a medida que éstos aumenten de potencia. Javier Gallego, de Dell Technologies apuntó que “actualmente podemos reducir el consumo en un data center en un 45% simplemente modernizando los equipos. Si, además, rediseñamos su estructura, podemos ir más allá en las mejoras de eficiencia”.

Puso de relieve que “el fracaso o el éxito de un proyecto de IA/IA Generativa está directamente relacionado con la generación de un entorno de datos interconectados, que permita acceder a los que están en la nube y en local, que permita acceder a datos estructurados y no estructurados o logs de sistema”. Sobre esto, “hay que identificar el conocimiento y los recursos internos y externos necesarios para ofrecer servicios, asegurar la flexibilidad futura con un ecosistema abierto, optimizar la inversión en IA con una infraestructura adecuada y escalable y, por último, afrontar primero los casos de uso de mayor impacto y menor dificultad”.

Según estudios recientes, en 2025 se crearán más de 181.000 zettabytes de información. Y de todos ellos, solo se procesarán un 2%. Nuestra visión es consolidar todos esos datos y acelerar las cargas de trabajo de Inteligencia Artificial para proporcionar soluciones cognitivas de IA desde el bolsillo a la nube que proporcionen valor para el negocio.

Alexandre Bento, Iberia GM Infrastructure Solutions (ISG) en Lenovo

Alexandre Bento, Iberia GM Infrastructure Solutions (ISG) de Lenovo, comenzó por señalar que Lenovo “es una empresa basada en la ingeniería y el producto. Somos un proveedor con una cadena de valor, de suministro global. Fabricamos en Europa, en Budapest, así como en toda América y en Asia. Pero no solo hace falta tener una cadena de suministro global, fabricamos dispositivos con una visión que va desde el bolsillo hasta la nube: móviles, tablets, portátiles, sobremesa, workstations, servidores para empresas o superescalares y hasta supercomputadores”.

Destacó que el área de especialidad de Lenovo es esa, la fabricación de dispositivos, y que “fabricamos, diseñamos, fabricamos, integramos y hacemos la gestión integral de ese ciclo. Por eso llevamos 10 años consecutivos siendo números uno en fiabilidad, en seguridad, en rendimiento y también somos número uno del top 500 de supercomputación”.

Alexandre Bento, de Lenovo, añadió que “según estudios recientes, en 2025 se crearán más de 181.000 zettabytes de información. Y de todos ellos, solo se procesarán un 2%. ¿Cuál es nuestra visión al respecto? Por un lado todos esos orígenes de datos (gestión de inventario, datos financieros, señalética, monitorización, comunicación y colaboración, seguridad, automatización de procesos y experiencias inmersivas) se tienen que consolidar y, por otro, las cargas de trabajo de IA (Machine Learning, Analítica predictiva, Procesamiento del lenguaje natural y Visión por ordenador) deben acelerarse”.

Para conseguir esta transformación impulsada por la Inteligencia Artificial, existen cinco premisas fundamentales, según Alexandre Bento: “Uno, la IA ya no es una opción, es un requisito para poder competir. Dos, los datos son la base de cualquier estrategia de IA, ya que de ellos se obtendrán los aprendizajes. Tres, no toda la IA estará en clouds públicas, la ubicación de los servidores es crucial, y deben estar cerca de los usuarios. Cuatro, la mayoría de las empresas necesitarán una estrategia basada en LLMs, pero la IA avanzará e irá mucho más allá. Y cinco, los requisitos de seguridad, privacidad, sostenibilidad y uso ético son fundamentales”.

Concluyó aportando que Lenovo “lleva la IA a los datos donde y cuando son necesarios, desde el bolsillo hasta la nube, con un enfoque híbrido, adaptándose a las necesidades de usuario personales, empresas privadas y organismos públicos. Somos un proveedor de IA que se adapta todas las escalas y trabajamos con los partners más destacados: Intel, AMD, Qualcomm, nVidia, Vmware, NetApp, Red Hat, … para ofrecer las soluciones necesarias en cada caso”.

No siempre podemos transformar todo, tenemos que darles a nuestros clientes la opción de modernizar la infraestructura que ya tienen sin renunciar a lo existente.

Carlos Domingo Torres, EMEA Sales Specialist Edge en SUSE

Carlos Torres, EMEA Sales Specialist Edge de SUSE, arrancó su intervención exponiendo que “afrontamos diferentes proyectos en toda clase de industrias con diferentes requisitos tecnológicos: baja latencia, conectividad media o baja, los ambientes llamados air-gap, e incluso la necesidad de introducir computación en el Edge en espacios limitados. No tenemos el espacio del data center, estamos hablando de, para citar un ejemplo, una subestación eléctrica de un operador de distribuidor, son dispositivos pequeños”.

Todo lo anterior serían los requisitos técnicos, a los que se unen “los estándares industriales y un marco regulatorio europeo que puede muy rígido en determinados sectores industriales. Esto lleva a unas demandas de escalabilidad, dispersión geográfica, necesidad de onboarding seguro y la gestión diario de todo ese ecosistema. En este contexto, SUSE integra toda la operativa bajo la plataforma de gestión Rancher Prime que es multi-clúster, multi-cloud, gestiona los sistemas operativos, GitOps y los servidores pueden ser On-prem o gestionados”.

Como señala Carlos Torres, este enfoque se adapta a arquitecturas heterogéneas ya existentes empleando un modelo aditivo, “porque no siempre podemos transformar todo, tenemos que darles a nuestros clientes la opción de modernizar la infraestructura que ya tienen sin renunciar a lo existente”.

Las cargas de trabajo de IA tienen que estar en un centro de datos hiperconectado para tener acceso rápido y de bajo coste a los datos, contar con la potencia eléctrica y de refrigeración necesarias y cumplir con los requisitos de sostenibilidad.

Raquel Figueruelo, Marketing & Business Development Director en Digital Realty

Raquel Figueruelo, Marketing & Business Development Director de Digital Realty, centró su ponencia en cómo elegir dónde instalar un proyecto. Comenzó por señalar que “las cargas de trabajo de IA consumen más potencia y energía y, por tanto, requieren centros de datos de alta densidad dotados de la capacidad adecuada. El desafío con la Inteligencia Artificial es triple: hace falta un acceso rápido y de bajo coste a los datos, que son el motor de la IA, es necesario disponer de la potencia eléctrica y la capacidad de refrigerar esos equipos para que puedan rendir al máximo y cumplir con los requisitos de sostenibilidad”.

Puso como ejemplo que “la previsión de aumento de la potencia eléctrica necesaria para los procesos de entrenamiento e inferencia en los EE.UU. va a pasar de 7TWh en 2025 a 652TWh en 2030”. Son cifras y requisitos que, añadidos a los estándares de sostenibilidad que se están implantando hacen que en su opinión, “las cargas de trabajo de IA tienen que estar en un centro de datos hiperconectado, que está conectado directamente a cualquier proveedor de nube pública, conectado directamente a cualquier operador de telecomunicaciones y conectado directamente con mi proveedor de servicios, por lo que acceder a cualquier dato no va a generar coste. Por lo tanto, cumple con el primer requisito. Lo segundo es que un centro de datos de colocation tiene las capacidades eléctricas y de refrigeración necesarias. Y lo tercero es que los centros de datos de colocation cumplimos criterios de ESG mucho más allá de lo que dice la propia normativa, con lo que los clientes están más que protegidos”.

¿Te ha parecido útil este contenido?