– Hewlett Packard Enterprise (HPE) ha anunciado una nueva colaboración con el Laboratorio Nacional de Energía Renovable (NREL) del Departamento de Energía de los Estados Unidos para desarrollar tecnologías de Inteligencia Artificial (AI) y Machine Learning (ML) que automaticen y mejoren la eficiencia operativa, incluyendo la mejora en la disponibilidad y el uso de la energía en centros de datos en la era de la exaescala. Este esfuerzo es parte de la misión del NREL como líder mundial en la mejora de la eficiencia energética y las tecnologías de energías renovables, para crear e implementar nuevos enfoques que reduzcan el consumo de energía y los costes operativos.
El proyecto es parte de una colaboración de tres años que introduce la monitorización y el análisis predictivo a los sistemas de energía y refrigeración en el Centro de Datos de supercomputación (HPC) del Energy Systems Integration Facility (ESIF) del NREL.
HPE y NREL están utilizando datos recopilados durante los últimos cinco años, que suman más de 16 terabytes1, que provienen de los sensores de las supercomputadoras del NREL, Peregrine y Eagle, para entrenar modelos de detección de anomalías que puedan predecir y prevenir problemas antes de que ocurran.
La colaboración es también un esfuerzo para abordar el consumo futuro de agua y energía en los centros de datos, que solo en los EE.UU. alcanzará aproximadamente los 73 mil millones de kilovatios y 174 galones (casi 660 litros) de agua para 20202. HPE y NREL se centrarán en la monitorización del uso de la energía para optimizar su eficiencia energética y sostenibilidad según lo establecido por métricas clave como la Efectividad del Uso de la Energía (PUE), la Efectividad del Uso del Agua (WUE) y la Efectividad del Uso del Carbono (CUE).
Los primeros resultados obtenidos con los modelos predictivios han permitido identificar con éxito sucesos que previamente ocurrieron en el centro de datos del NREL, demostrando su utilidad y las mejoras a realizar en los data centers.
El proyecto AI Ops surgió de los esfuerzos de HPE en I+D en relación con PathForward, un programa respaldado por el Departamento de Energía de EE.UU. que persigue acelerar la hoja de ruta de la tecnología para la computación a exaescala, que va a erigirse como el siguiente gran salto en la supercomputación. En HPE se dieron cuenta de la necesidad de desarrollar capacidades de IA y automatización para gestionar y optimizar los entornos de centros de datos en la era de la exaescala. La aplicación de la IA de operaciones a un superordenador a exaescala, que funcionará a una velocidad mil veces superior a la de los sistemas actuales, permitirá realizar gestiones eficientes desde el punto de vista energético e incrementará la capacidad de recuperación y la fiabilidad mediante capacidades inteligentes y automatizadas.
«Nos apasionan estas nuevas arquitecturas tecnológicas que tienen un impacto en la próxima era de la innovación, como la computación a exaescala y sus mejoras operativas», ha declarado Mike Vildibill, vicepresidente del Grupo de Tecnologías Avanzadas de HPE. «Creemos que el camino que estamos haciendo para desarrollar y probar mejoras en las operaciones basándonos en IA con NREL, uno de nuestros socios más duraderos e innovadores, permitirá a la industria construir y mantener centros de datos de supercomputación más inteligentes y eficientes a medida que continúan aumentando su potencia y rendimiento».
«Nuestra colaboración en la investigación abarcará las áreas de gestión de datos, análisis de los mismos y optimización de IA/ML, para mejorar tanto la gestión manual como autónoma en la operación del centro de datos», ha explicado Kristin Munch, gerente del Grupo de Datos, Análisis y Visualización del Laboratorio Nacional de Energías Renovables (NREL). «Estamos entusiasmados por el hecho de unirnos a HPE en este proyecto a largo plazo y esperamos crear capacidades que nos lleven a construir unas mejores infraestructuras inteligentes y avanzadas después de demostrar estas técnicas en nuestro actual centro de datos».
El proyecto utilizará software de código abierto y bibliotecas de Machine Learning para desarrollar algoritmos, como TensorFlow, NumPy y Sci-kit. El proyecto se centrará en las siguientes áreas clave:
- Monitorización: recopilar y procesar grandes volúmenes de telemetría de TI y servicios asociados.
- Análisis: se utilizará Machine Learning para analizar los datos y obtención mejoras operativas.
- Control: se aplicarán algoritmos para que las máquinas puedan resolver problemas de forma autónoma, así como automatizar de forma inteligente las tareas repetitivas y realizar el mantenimiento predictivo tanto en el departamento de TI como en el centro de datos.
- Operaciones del centro de datos: AI Ops evolucionará para convertirse en una herramienta de validación para la integración continua (CI) y la implementación continua (CD) de las funciones básicas de TI que abarcan las modernas instalaciones de los centros de datos.
HPE tiene previsto demostrar capacidades adicionales en el futuro con la mejora del sistema HPE High Performance Cluster Management, el cual proporcionará aprovisionamiento, gestión y supervisión completa para que los clústeres se amplíen a 100.000 nodos a un ritmo más rápido. Adicionalmente, se está explorando incluir la integración de HPE InfoSight, una herramienta de gestión en la nube, impulsada por IA, que supervisa, recopila y analiza los datos de la infraestructura de TI. HPE InfoSight se utiliza para predecir y prevenir sucesos probables y mantener así el estado general del rendimiento del servidor.
La solución se presentará en el stand 1325 de HPE en Supercomputing 2019 (SC 19) en Denver, Colorado.