Para poder optimizar las aplicaciones en la nube, primero hay que entender las cargas de trabajo, la asignación de recursos y la capacidad de proceso. Gracias a los entornos de Software-as-a-Service y al consumo de CPU basado en el “pago por uso”, ya no es necesario aprovisionar recursos adicionales de forma preventiva. Optimizar el consume de CPU reduce los costes asociados a la computación en la nube, por lo que las empresas rentabilizan su inversión en poco tiempo. Monitorizar y analizar cargas de trabajo y los recursos asociados, permite analizar los consumos e identificar aquellos recursos con consumos de CPU más rentables de optimizar.
Para ejecutar aplicaciones y microservicios de forma efectiva en producción basados en contenedores en Kubernetes, hay que conocer el clúster, los nodos y los pods que encapsulan y ejecutan estas aplicaciones, por lo que también aquí es esencial tener observabilidad e información detallada sobre la infraestructura de Kubernetes. Por ejemplo, conocer si se ha quedado algún pod en la fase «Pendiente», poniendo en peligro las cargas de trabajo, y, de ser así, si se están agotando recursos debido a las cuotas aplicadas a los namespaces. Garantizar la observabilidad de la infraestructura y sus cargas de trabajo permite controlar la asignación de recursos de los pods por namespaces. Así sabremos, por un lado, cuáles están asignando más recursos de CPU o de memoria del clúster y, por otro, si hay algún pod que no se esté ejecutando, lo que afectaría al rendimiento.
Implementar una plataforma de observabilidad que se integre con las herramientas de proveedores de nube permite obtener información detallada y esencial (p. ej., datos sobre la interacción de los servicios de la plataforma con las aplicaciones). Además, la solución de software intelligence de Dynatrace incorpora funciones de gestión autónoma de la nube, lo que facilita la automatización, agiliza la corrección, elimina las interrupciones y optimiza la puesta en producción.