
Las organizaciones que deciden embarcarse en proyectos de IA para darle impulso al negocio tienen que transitar por un territorio poco explorado, pero para el que es fundamental tener una base sólida en la infraestructura de networking. Si no es así, los problemas no harán más que poner palos en las ruedas de lo que se intente construir sobre esa base mejorable.
El segundo panel del Foro Tendencias 2025 centrado en IA & Conectividad Inteligente llevó por título “IA y Redes: construyendo la base de la inteligencia de negocio” y en él se habló a fondo de la importancia de las redes al diseñar proyectos de IA. Los expertos que participaron en este panel fueron Jorge Marín Sánchez, Service Delivery Manager de Ikusi; Miguel Rojas, Domain Solution Architect de SUSE; Víctor Jiménez Ramos, IP CTO de Huawei Technologies España; Luigi Salmoiraghi, Head of European Development de Keenetic y Gonzalo De Antonio, Sales Executive de Dell Technologies.
Un aspecto en el que coincidieron todos los asistentes fue en que no hay que dejarse llevar por los cantos de sirena de la tecnología por sí misma. Es muy importante definir bien los casos de uso e identificar las áreas y resultados que se persiguen para poder poner la tecnología al servicio del negocio y no al revés.
Es fundamental aplicar inteligencia artificial con sentido en los procesos que creemos que son importantes para nuestro negocio. Esa es la clave de todo.
Jorge Marín Sánchez, Service Delivery Manager de Ikusi
Tal y como señala Jorge Marín Sánchez, Service Delivery Manager de Ikusi, las redes han evolucionado de arquitecturas monolíticas a distribuidas y definidas por software (SD-WAN, SD-Access), impulsando la necesidad de automatización. Esta automatización va de la mano de la IA, que desde hace unos cinco años se está utilizando en las redes de telecomunicaciones, empoderando las redes con autodiagnóstico y autorreparación en tiempo real. Como indicador del avance el uso de la IA en redes, se espera que para 2027, el 70% de los departamentos de operaciones utilicen modelos generativos en redes SD-WAN para simular entornos.
El dato y la IA como base para predecir
La Inteligencia Artificial necesita datos sobre los que operar y las redes son unos grandes productores de datos. Como señala Jorge Marín Sánchez, “para que todo esto funcione, la inteligencia artificial, necesitamos un volumen de datos ingente. Si no tenemos datos y datos de calidad, el sistema no va a funcionar correctamente”. Todos estos datos, analizados por sistemas de IA son los que permiten pasar del modelo antiguo de control manual a un modelo automatizado, gracias al cual los departamentos de TI pueden centrarse en lo que es verdaderamente importante para el negocio. Se busca empoderar al CEO con dashboard predictivos que anticipen fallos antes de que ocurran. Y cuando se produce un problema, que sepa el porqué, pero no técnicamente qué es lo que lo que ha ocurrido.
Edge computing para garantizar la disponibilidad
Las empresas están volviendo a traer el dato lo más cerca posible de las compañías, utilizando el concepto de Edge para reducir la latencia y cumplir las políticas de seguridad de las compañías. Todo esto se debe a la cantidad de datos que se manejan con la inteligencia artificial, machine learning y toda la analítica que hay detrás. En opinión de Jorge Marín Sánchez, es fundamental aplicar inteligencia artificial con sentido en los procesos que creemos que son importantes para nuestro negocio, “esa es la clave de todo”.
Al respecto, Miguel Rojas, Domain Solution Architect de SUSE, que el Edge Computing es relevante para diversas industrias, incluyendo transporte naval, fábricas, energía, servicios, sanidad y defensa. En estos y otros sectores, las empresas de gran tamaño enfrentan desafíos al comunicar aplicaciones entre datacenters geográficamente dispersos, especialmente en términos de latencia y alta disponibilidad. El paradigma del Edge implica procesar transacciones directamente en el dispositivo en lugar de enviarlas a la nube, reduciendo la latencia y el consumo de recursos.
Hay que ir a donde están nuestros clientes. La transición a cargas de nueva generación debe adaptarse a cada empresa.
Miguel Rojas, Domain Solution Architect de SUSE
No todas las empresas están igual de avanzadas en las distintas tecnologías. En la transición a los contenedores, por ejemplo, algunas organizaciones necesitan una solución de orquestación basada en Kubernetes para unas cuantas instancias mientras que en otros casos podemos estar hablando de cientos o miles de dispositivos incluso en el Edge. Poder gestionar todo esto de forma centralizada y, aún más, de un modo que permita escalar sin problemas, es la diferencia entre un funcionamiento del área de TI que comprometa muchos recursos frente a otro que de soluciones rápidas, fiables y ajustadas a los retos del negocio.
La llegada de los modelos de IA que se ejecutan en la infraestructura de las organizaciones es un gran ejemplo de este tipo de retos. Si el despliegue y la orquestación de los servicios tienen una base de TI sólida, las cargas de IA que se ejecuten sobre ella lo harán con las mayores garantías de seguridad, rendimiento, cumplimiento normativo y auditoría. Además, estamos asistiendo a una transición de los sistemas de IA basados en LLMs a otro basado en agentes, lo que hace todavía más necesario disponer de una red que esté totalmente protegida y con una observabilidad del 100%.
La red al servicio de la IA
Víctor Jiménez Ramos, IP CTO de Huawei Technologies España, aboga por un cambio de paradigma en la forma de plantear las infraestructuras de red. Donde antes se empleaba como soporte de las aplicaciones y el software en sí, ahora es el soporte fundamental de la IA, que se integra en todo el negocio. Dependiendo de los requisitos de los sistemas de IA, habrá empresas que necesiten disponer de conexiones de altísimo rendimiento basadas en Infiniband y Fiber Channel over Ethernet que permitan aprovechas las posibilidades de cómputo de las GPUs instaladas.
La tecnología en sí no es una finalidad, tiene que tener un uso concreto aplicado a problemas concretos.
Víctor Jiménez Ramos, IP CTO de Huawei Technologies España
Es más, plantea que la IA puede ayudar a la IA, “la IA puede usarse para detectar el estado de la red de manera predictiva, evitando problemas y paradas en el proceso de entrenamiento”. Como ejemplo, Víctor Jiménez Ramos citó que la IA puede predecir si un transceptor se calentará demasiado debido al polvo, lo que reduce su vida útil y potencialmente interrumpe el entrenamiento. Y esto es posible cuando se dispone de datos sobre todas las capas de la red, cuando hay una observabilidad de todo lo que sucede en los distintos niveles.
En una línea muy similar, Luigi Salmoiraghi, Head of European Development de Keenetic, afirmó que “la tecnología debe ser un medio para alcanzar objetivos de negocio, en lugar de ser un fin en sí misma”. Propuso no perder de vista a las Pymes, ya que forman la mayor parte del tejido empresarial español, por lo que es crucial enfocar las soluciones tecnológicas en las necesidades de pequeñas y medianas empresas.
Primero enfócate en identificar tu problema, cuál es tu objetivo comercial, empresarial y luego seguro que encuentras la solución de inteligencia artificial que pueda de verdad ayudarte.
Luigi Salmoiraghi, Head of European Development de Keenetic
Destacó que, a pesar del avance de tecnologías como 5G, WiFi 7 y la IA, las Pymes a menudo luchan con problemas básicos de TI. Las principales preocupaciones tecnológicas de las Pymes son la estabilidad de la conexión, la seguridad, la configuración simplificada, la modularidad y la interoperabilidad. Muchas Pymes saben que tienen esas carencias, pero no tienen claro cómo solucionarlas.
Luigi Salmoiraghi quiso destacar el problema que pueden suponer “las interrupciones en Internet, que pueden paralizar las operaciones de una Pyme, especialmente con la inminente facturación electrónica obligatoria”. Si a esto le sumamos la necesidad de garantizar la seguridad, es evidente que es crucial disponer de una infraestructura sólida de red que, además, proporcione visibilidad sobre lo que está pasando para optimizar su funcionamiento y detectar anomalías. Sobre la IA opinó que es importante “bajar al suelo lo de qué verdad necesita la empresa y los empresarios para integrarla en su día a día”.
Tener claros los objetivos que se pretenden con los sistemas de IA
Gonzalo De Antonio, Sales Executive de Dell Technologies, señala que “la implementación de la IA es como un viaje que implica establecer objetivos, definir los datos, construir la infraestructura, desplegarla y operarla”. Las infraestructuras de red son esenciales para desplegar soluciones de Inteligencia Artificial. El networking es un componente fundamental de la infraestructura de IA, aunque a menudo se le presta poca atención.
Lo primero es establecer la qué queremos hacer con la inteligencia artificial. ¿Para qué nos vamos a gastar el dinero? ¿Cuál es el resultado que buscamos?
Gonzalo De Antonio, Sales Executive de Dell Technologies
La infraestructura de red para IA requiere hasta cuatro redes diferentes: una para unir las GPUs dentro de cada nodo, otra para unir las GPUs entre diferentes nodos, la red de frontend, que es a la que se van a conectar los usuarios y la red de almacenamiento. Todo esto puede parecer muy complejo y hace que las empresas teman la complejidad, los riesgos y los altos costes asociados con la implementación de la IA. Además, muchas organizaciones se preocupan por dónde ubicar la IA (nube pública o privada), qué datos utilizar y cómo construir la infraestructura.
Afortunadamente la realidad es más sencilla. Los cimientos pasan por identificar cuál es el caso de uso, donde quiere aplicar cada empresa la inteligencia artificial y dónde está la ventaja competitiva. Una vez claro dónde se es diferencial con respecto a los competidores, es cuando hay que aplicar en ese entorno, con los datos apropiados, con el data lake apropiado, la inteligencia artificial para sacar mayor partido posible.