Europa crea más datos a nivel corporativo que Norteamérica, de acuerdo al nuevo informe presentado por Digital Realty (NYSE: DLR).
Según un reciente estudio de McKinsey y el Foro Económico Mundial[1] (World Economic Forum), la industria 4.0 creará valor por más de 3,7 billones de dólares en 2025. A medida que la transformación digital acelera su ritmo y que Europa es uno de los principales centros de generación de datos corporativos en el mundo, el estudio avala que la región se coloca en un lugar destacado para capitalizar este crecimiento.
Data Gravity Index DGxTM es la investigación que ha medido la creación, agregación e intercambio privado de datos corporativos en 21 ciudades y muestra que las regiones con una conectividad global potente y una gran cantidad de sectores intensivos en datos (por ejemplo, ecosistemas tecnológicos o servicios financieros) crean tanta información corporativa que producen un efecto data gravity, atrayendo de forma exponencial más datos a la región.
La relevancia de Europa en un amplio rango de sectores económicos, como los servicios financieros o la industria manufacturera, crea grandes cantidades de datos corporativos que junto con la aparición de sectores intensivos en datos ha convertido a la región en una “superpotencia de datos corporativos”. Según esta investigación, el volumen de datos creados, agregados e intercambiados entre los ciudadanos europeos es el más grande del mundo, superior incluso al de Norteamérica. Se espera que Europa siga liderando esta tendencia más allá de 2024.
Dave McCrory, que acuñó el término data gravity en 2010 y dirige el informe Data Gravity Index DGxTM, explica: “hemos visto que el efecto data gravity no solo atrae datos, sino que hace que tanto los datos como los servicios que dependen de ellos sean exponencialmente más difíciles de mover. Esto da a ciudades con relevancia en un sector en particular, como los servicios financieros de Londres o el fuerte sector manufacturero de Frankfurt, una amplia ventaja para atraer de forma natural datos y servicios del mismo tipo así como otras empresas. Sin embargo, para las compañías puede resultar un problema: los datos se han convertido en un recurso estratégico clave, pero el efecto data gravity implica que parte de esos puede ser difíciles de utilizar e imposible de mover al tiempo que se están creando y atrayendo más”.
Las ciudades europeas líderes en la creación de datos
Londres es actualmente el centro de los datos corporativos más potente del mundo, con una valoración data gravity de 167,05, por encima de Nueva York (79,61) y Tokio (80,32), debido en gran parte a su sector de servicios financieros, muy relevante y altamente conectado. La media de la valoración data gravity de todas las ciudades es de 22,64 y de 48,45 en Europa. Otras cuatro ciudades europeas completan el ranking de primeras posiciones: Ámsterdam, Dublín, Frankfurt y París.
Sin embargo, no es solo una cuestión de cantidad de datos corporativos lo que está situando a las ciudades europeas a la cabeza, sino el flujo de datos entre ellas. De acuerdo al Data Gravity Index DGxTM , Europa alberga a varios de los binomios de ciudades más interconectadas del mundo, sin duda debido a la normativa que facilita hacer negocios entre sí, además de tener ciudades con destacados centros financieros. Estos binomios incluyen Londres y Ámsterdam (1º en la clasificación general), París y Londres (2º), Frankfurt y París (5º), Londres y Frankfurt (6º) además de Dublín y Londres (10º).
Niveles significativos de datos
A pesar de los grandes beneficios de tener una economía del dato próspera con intercambios de datos sólidos y abiertos con otras ciudades, ser una ciudad con un fuerte efecto data gravity no siempre es ventajoso para las empresas. Muchas corporaciones están acumulando cantidades cada vez mayores de datos en un intento de adaptar sus negocios mediante la transformación digital, pero se ven superadas por el volumen, lo que limita los esfuerzos de transformación en lugar de facilitarlos.
Para 2024, las empresas de la lista Forbes Global 2000 habrán acumulado en su conjunto tantos datos que necesitarán recursos de computación cuántica para gestionarlos de manera eficaz. Requerirán 8,96 exaFLOPS adicionales de potencia de cómputo y 15.635 exabytes de almacenamiento de datos privados al año para manejar de forma eficaz sus datos corporativos. Comparativamente, el próximo ordenador cuántico del Oak Ridge National Laboratory funcionará con solo 1,5 exaFLOPS en 2021[2].
Estas cantidades inmanejables de datos corporativos y la fuerza de atracción que crean ya resultan un problema para las organizaciones más allá del departamento IT, incluyendo:
- Innovación limitada: la incapacidad de procesar los datos corporativos eficazmente frenará avances tecnológicos.
- Malas experiencias para clientes y empleados: demasiados datos provocarán una gestión ineficaz de la información, lo que llevará a una experiencia negativa del cliente.
- Aumento de costes: la creación de más datos corporativos significará más inversión de capital para su recopilación, gestión y procesamiento.
- Problemas de normativa: la abundancia de datos dará lugar a desafíos organizativos cuando haya que abordar situaciones de regulación y cumplimiento normativo.
- Seguridad: la ingente cantidad de datos proporciona a los hackers más puntos de acceso.
Descarga aquí el Data Gravity Index DGxTM
Tendencias que impulsan data gravity
Data gravity es la suma de varias fuerzas que crecen en las empresas, muchas de las cuales se han acelerado en los últimos meses a medida que la COVID-19 ha impulsado más negocios en el mundo online:
Administración de datos corporativos: el movimiento global de población desde las áreas rurales a las urbanas provocará que en 2030, 43 ciudades de todo el mundo tendrán una población de más de diez millones de habitantes, lo que aumentará el número de usuarios que crean e intercambian datos en el ámbito empresarial.
Fusiones y adquisiciones: la globalización está impulsando una cantidad mucho mayor de fusiones y adquisiciones. De hecho, se espera que los volúmenes de estas operaciones vuelvan a los niveles anteriores a la pandemia en 2021, lo que incrementará el número de fuentes de datos implicadas en intercambios regionales de datos corporativos.
Interacciones digitales: las operaciones comerciales están migrando de lo físico a lo digital y las interacciones digitales se perciben como el doble de importantes que las físicas. Más interacciones digitales dan lugar a más datos en las empresas.
Ubicación de los datos: el aumento de políticas legales y regulatorias demandarán más almacenamiento local de datos. En 2022, el 87% de los responsables de TI mantendrán copias locales de los datos de clientes y transacciones para cumplir con la regulación, lo que aumentará el número de ubicaciones corporativas donde se alojarán los datos[3].
Ciber-físico: las empresas están integrando cada vez más sus sistemas físicos y digitales para mejorar la ciberseguridad. Se espera que en 2033 el 70% de los productos de seguridad se integren digitalmente, lo que aumentará los volúmenes y tipos de datos que se crean e intercambian[4].
Metodología
Data Gravity Index DGxTM implementa una fórmula, pendiente de patente, que cuantifica y predice la creación constante de datos en 21 regiones de todo el mundo.
Análisis de miles de atributos
La metodología se basa en el análisis de miles de atributos de las compañías del listado Global 2000 de cada región, junto con factores y/o consideraciones de cada área, incluyendo el PIB, población, ratio de empleo, tecnografía, gasto tecnológico, latencia media y ancho de banda, así como flujo de datos.
El índice Data Gravity
El tamaño y la atracción de los datos por cada ciudad se obtienen mediante un valor de Data Mass (masa de datos) y un valor de Data Activity (actividad de los datos). El resultado se multiplica por el ancho de banda promedio y se divide por la latencia media al cuadrado.
Cálculo del valor de data gravity entre ciudades
El efecto Data Gravity entre ciudades se calcula sumando los valores de Data Mass con los valores de Data Activity. Posteriormente, se multiplica su producto por el ancho de banda y se divide el resultado por la latencia al cuadrado entre ciudades.
Cálculo de la creación de datos
El ciclo de vida de la creación de datos se calcula combinando los datos creados por los empleados de las empresas G2000 y los dispositivos remotos corporativos. El procesamiento de datos se calcula analizando las necesidades del grupo de empresas G2000 para el procesamiento TI en la gestión de nuevas cargas de trabajo centradas en datos, como AI y ML, análisis, costes por TFLOPS y otros factores. El almacenamiento de datos se calcula con la capacidad de almacenamiento, el crecimiento y la tasa anual de despliegue de almacenamiento en las empresas (HDD, SSD y cintas) y analizando las 21 ciudades.
[1] The Next Economic Growth Engine Scaling Fourth Industrial Revolution Technologies in Production,” WEF/McKinsey white paper, 2018
[2] https://www.technologyreview.com/2019/05/09/135440/the-new-benchmark-quantum-computers-must-beat-to-achieve-quantum-supremacy/
[3] 451 Research, Infrastructure Imperative – IT Leader Survey, November 2019
[4] Gartner, Emerging Technology Analysis- Cyber-Physical Security. ID: G00726994