Vivimos tiempos de saturación informativa sobre la Inteligencia Artificial y más específicamente sobre el Machine Learning y Deep Learning. Todas ellas son disciplinas que tienen muchos años de investigación (Conferencia de Darthmouth, 1956) y que suelen tener periodos de gran expectación que se alternan con otros de enfriamiento o decepción.
La proliferación masiva de los datos (gracias a Internet), entornos de Big Data en el cloud (escalabilidad, flexibilidad), hardware cada vez más potente (ley de Moore), entornos de competición como los organizados por Kaggle, que han congregado a científicos de datos de todo el mundo y han afinado al máximo los modelos de aprendizaje (actualmente con gran éxito en Gradient Boosting y CNN), son las claves que hay detrás del nuevo “boom” de la IA.
Los fabricantes de redes más punteros aplican estos modelos de aprendizaje sobre sus entornos de Big Data en el cloud para simplificar la operativa de la red a través de la detección de patrones de tráfico anómalos que se correspondan con situaciones indeseadas. Hay muchos ejemplos de estas: un punto de acceso que ha desactivado un radio porque no recibe suficiente Budget POE, problemas de estabilidad de la red, patrones de tráfico adverso, etc. Los administradores de redes ahorran tiempo y reaccionan de forma más rápida ante cualquier imprevisto gracias a estas herramientas basadas en IA. También permiten ganar visibilidad sobre lo que sucede en la red con un contexto enriquecido.
En definitiva cada día vemos más aplicaciones de la IA en fabricantes de redes y están simplificando la forma de gestionarlas, acelerando los tiempos de respuesta ante incidentes, aumentando la capacidad de reacción ante situaciones críticas y reduciendo los tiempos de provisión de nuevos servicios.