Noticias - Actualidad
11 enero 2024

RED HAT: Tendencias 2024

Expertos de Red Hat analizan las nuevas tendencias tecnológicas para 2024.

Inteligencia Artificial (IA)

  • Tema: El auge de la nube híbrida en la IA: una prioridad estratégica para 2024
  • Experta: Erica Langhi, senior solution architect, EMEA, Red Hat

A medida que nos acercamos a 2024, la integración estratégica de soluciones de nube híbrida en iniciativas de IA se perfila como una tendencia clave. Las organizaciones reconocerán la necesidad imprescindible de aprovechar tanto los recursos on-premise como los de la nube para obtener el máximo valor de sus iniciativas de IA. Esta tendencia está impulsada por la necesidad de encontrar un equilibrio entre la seguridad y la soberanía de los datos con la potencia de cálculo que necesitan los sofisticados modelos de la IA. Los responsables de la toma de decisiones optarán cada vez más por enfoques de nube híbrida que permitan una colaboración sin fisuras, agilidad y gestión del ciclo de vida, superando así los inconvenientes que históricamente han obstaculizado los proyectos de IA. Las empresas de éxito darán prioridad a plataformas que faciliten la integración de datos comunes disponibles y datos privados, posicionando a la nube híbrida como pieza clave del avance y la innovación de la IA en el próximo año.

  • Tema: Abordando los desafíos éticos y los sesgos
  • Experta: Erica Langhi, senior solution architect, EMEA, Red Hat

A medida que avancemos a lo largo de 2024, la adopción de la inteligencia artificial (IA) alcanzará nuevas dimensiones, transformando sectores y reconfigurando el panorama empresarial. Una tendencia destacada en el horizonte implica una mayor atención a las consideraciones éticas y la mitigación de sesgos en las aplicaciones de IA. Las organizaciones darán cada vez más prioridad a la transparencia y el compromiso en sus modelos de IA, abordando las preocupaciones en torno al sesgo de los datos y la discriminación. Se espera un aumento de las iniciativas destinadas a fomentar prácticas éticas de IA, impulsadas no sólo por la regulación, sino también por la creciente concienciación social sobre las posibles implicaciones de los algoritmos que tienen sesgo. La explicabilidad de los modelos también desempeñará un papel importante, a medida que avancemos hacia una IA más sofisticada. La capacidad de comprender nuestras creaciones de IA y garantizar su imparcialidad es fundamental, y la explicabilidad y la parcialidad están profundamente conectadas. Las empresas que participan activamente en la comunidad de código abierto para compartir las mejores prácticas y colaborar en estándares éticos de la IA probablemente obtendrán una ventaja competitiva en este panorama en evolución.

  • Tema: IA
  • Experto: Dominic Schmitt, Director Ecosystem Central Europe

De cara a 2024, la inteligencia artificial y el Machine Learning empezarán sin duda a transformar las empresas y nuestra vida cotidiana de forma significativa. Las empresas de todos los sectores superarán por fin los proyectos piloto a pequeña escala y empezarán a desplegar capacidades de IA/ML a gran escala para aprovechar las mejoras de productividad y otras ventajas que prometen estas tecnologías. Los clientes también empezarán a probar e integrar activamente los servicios de IA/ML en sus flujos de trabajo y procesos para impulsar la eficiencia y la innovación.

En particular, las arquitecturas híbridas y multicloud se convertirán en la norma para la mayoría de las empresas, permitiendo una mayor flexibilidad, resiliencia y gestión de costes en entornos on-prem y cloud. También veremos que el software de código abierto y los ecosistemas de partners más amplios resultan esenciales para las empresas que buscan desarrollar rápidamente capacidades de IA/ML impactantes. Al aprovechar estas capacidades, las empresas pueden alcanzar el siguiente nivel de transformación digital después de que los esfuerzos anteriores no hayan logrado mejorar la productividad.

Automatización

  • Tema: Fomentar la automatización para dar soporte a la IA mediante Policy as Code.
  • Experto: Richard Henshall, director of product management for Ansible, Red Hat

Con la creciente adopción de la IA en una amplia variedad de sistemas y herramientas de gestión, su capacidad para mejorar la escalabilidad se ha convertido en un factor clave. Sin embargo, para aprovechar al máximo el potencial de la IA, es necesario contar con controles y compliance automatizados. De lo contrario, la falta de estos elementos puede limitar la posibilidad de escalabilidad que la IA puede proporcionar. Policy as Code, que es un enfoque para la gestión de políticas que se basa en definir, actualizar, compartir y hacer cumplir las normas mediante código, es esencial, desde el día 0 hasta el día 2, para todas las actividades de infraestructura y operaciones, y no se trata sólo de poner la capacidad a disposición. Se trata de proporcionar una capacidad Policy as Code integrada, fácil de usar y de distribuir, incorporada en toda nuestra automatización, para actividades de Linux, network, nube, edge y plataformas de desarrollo de aplicaciones. A medida que la inteligencia artificial se utiliza cada vez más en diferentes ámbitos, nos encontramos con desafíos que van más allá de lo que los humanos pueden controlar y gestionar. Para aprovechar al máximo las ventajas de la IA, necesitamos implementar Policy as Code para lograr eficiencias en la gestión impulsada por IA, pero también asegurarnos de que se cumplan los requisitos de control y cumplimiento necesarios.

Edge

  • Tema: Edge
  • Experto: Francis Chow, Vice President & GM, In-Vehicle OS and Edge, Red Hat

Las empresas que operan en el edge siguen sintiendo la presión de tener que acelerar el tiempo de comercialización, reducir el coste total de propiedad y mejorar la ciberseguridad de su infraestructura. Muchas industrias se encuentran en una encrucijada, ya que su enfoque tradicional de desarrollo de sistemas electrónicos en infraestructuras de software propietario ya no es sostenible. En 2024, veremos una adopción acelerada del código abierto para hacer frente a estos retos en una serie de industrias como la automoción, la manufacturera y el comercio minorista. Poder colaborar y disponer de una plataforma coherente desde los dispositivos hasta la nube, con interfaces estandarizadas y sin dependencia de ningún proveedor, será el factor impulsor del código abierto como arquitectura preferida.

Nube soberana – una oportunidad de negocio

  • Tema: Nube soberana – una oportunidad de negocio
  • Experto: Michele Cito, Director – Head EMEA Cloud Partner Ecosystem, Red Hat

En el dinámico panorama de la adopción de la nube, los proveedores de nubes hiperescalares se han convertido en actores predominantes, pero no cuentan con capacidad para abordar con eficacia cargas de trabajo altamente reguladas y confidenciales. Reconociendo esta limitación, en los últimos años ha surgido una tendencia clara: el auge de las nubes soberanas. Estos proveedores especializados están diseñados para cumplir los estrictos requisitos de certificación específicos de cada país, proporcionando un entorno seguro para alojar cargas de trabajo críticas.

La demanda de diversos modelos de despliegue en la nube ha impulsado el desarrollo de nubes soberanas, que atienden a las necesidades únicas de industrias y organizaciones que operan bajo marcos normativos estrictos o manejan datos muy sensibles. Los clientes que buscan desplegar o migrar aplicaciones con distintos niveles de confidencialidad y cumplimiento de regulaciones específicas han encontrado una solución viable en estos proveedores de nubes soberanas.

Esta tendencia refleja una creciente concienciación sobre la importancia de adaptar los servicios en la nube a requisitos específicos de regulación y confidencialidad. En respuesta a esta demanda, los proveedores de servicios en la nube, como Red Hat, se han comprometido proactivamente con nubes soberanas. El objetivo es permitir a los clientes elegir entre una gama de proveedores de nubes, garantizando que sus cargas de trabajo críticas puedan alojarse de forma segura y sin problemas, independientemente del complejo panorama normativo por el que se mueven.

Al aliarse con proveedores de nube soberanos, las organizaciones obtienen la flexibilidad necesaria para seleccionar un entorno que se adapte a sus necesidades específicas de cumplimiento normativo. Este enfoque subraya el compromiso del sector de ofrecer soluciones que se adapten a todo el espectro de niveles de confidencialidad y exigencias normativas, ofreciendo en última instancia a los clientes la libertad de tomar decisiones con conocimiento en función de sus requisitos específicos.

Sostenibilidad

  • Tema: Sostenibilidad
  • Experto: Rimma Iontel, chief architect, Telecommunications, Media and Entertainment, Red Hat

En 2024, la sostenibilidad seguirá siendo prioritaria en todos los sectores, y el director de seguridad (CSO) o equivalente tendrá que cumplir los indicadores clave de rendimiento (KPI) específicos del sector. En el sector de las TIC, la atención se centrará en la eficiencia y la reducción del consumo de energía.

Es probable que veamos herramientas o funciones dentro de los entornos de desarrollo y kits de desarrollo de software (SDK) existentes que permitan a los desarrolladores evaluar la eficiencia energética y el coste de carbono de su código. Podríamos ver un complemento asistido por IA que permita refactorizar el código en lenguajes más eficientes.

En el caso de los despliegues de nubes híbridas y multicloud, veremos cómo se dedican muchos más esfuerzos a capturar métricas relacionadas con la energía y las emisiones. Esto incluye herramientas y modelos para estimar la energía y las emisiones asociadas a los despliegues de nubes públicas y mediciones de los despliegues on-premise con dashboards asociados. Esto se verá facilitado por herramientas como Kepler (Kubernetes-based Efficient Power Level Exporter), un proyecto de código abierto que captura las métricas de uso de energía en una amplia gama de plataformas. Los datos de medición y los modelos de IA formados a partir de esos datos también permitirán una mejor programación, reprogramación y escalado automatizados de las cargas de trabajo, centrándose más en la reducción y la inactividad de los recursos no utilizados, tanto físicos como virtualizados.

En el sector telco, en concreto, veremos modelos de medición y de IA para automatizar la colocación y configuración de los componentes de la red con el fin de optimizar la eficiencia energética. En la RAN se aplicarán modelos de IA para permitir un control más dinámico de las frecuencias, sectores, células y estaciones base que vaya más allá de la simple preconfiguración horaria.

Servicios en la nube

  • Tema: Hiperescalares – el cambio
  • Experto: Michele Cito, director, partner sales, EMEA, Red Hat

En los últimos años hemos visto cómo los hiperescalares han evolucionado su propuesta de valor. Cuando comenzó la nube, su propuesta de valor era la flexibilidad. A medida que la transición a la nube se ha convertido en el estándar predominante vemos que los clientes aumentan su compromiso con los hiperescalares para conseguir mejores condiciones financieras para sus grandes infraestructuras de TI.

Para reducir la dependencia tecnológica, los clientes han desarrollado una estrategia multicloud/nube híbrida y han llegado a grandes acuerdos de gasto comprometido con sus partners hiperescalares. La siguiente etapa de esta transformación será que los hiperescalares se conviertan en centros de adquisiciones para sus clientes. IDC ha pronosticado que al menos el 50% del gasto en TI se realizará a través de los marketplaces de los hiperescalares, lo que indica que la transición hacia este modelo de negocio ya está en marcha.

El éxito futuro de los proveedores de software dependerá en gran medida de su capacidad para adoptar esta transición y ser capaces de satisfacer las demandas de los clientes a través de los marketplaces de los hiperescalares.

IA / Productividad del desarrollador

  • Tema: Gestionar la carga cognitiva se convierte en la clave del éxito.
  • Experto: Markus Eisele, developer strategist, Red Hat

Hace diez años era más fácil abordar el panorama tecnológico. En la actualidad, la complejidad de los entornos de desarrollo ha aumentado exponencialmente, y existe una demanda incesante de las últimas y mejores aplicaciones y servicios. Los desarrolladores ya no son responsables sólo de implementar la lógica de negocio; sino de todo lo que es relevante para la aplicación – razón por la que existe una definición como «el desarrollador full-stack«. Sin embargo, las configuraciones, las declaraciones, los frameworks y los diferentes lenguajes de programación -incluidos el service wiring y otros- consumen un porcentaje cada vez mayor del valioso tiempo de los desarrolladores y provocan lo que se denomina sobrecarga cognitiva en muchos equipos de ingeniería. Lo que realmente necesitan los desarrolladores para ser productivos es una serie de metodologías y tecnologías aprobadas, una colección seleccionada de productos y procesos que se puedan mezclar y combinar para el caso de uso que tengan delante.

Las organizaciones intentan conseguirlo de diversas maneras, como a través de sitios de intranet y sistemas basados en documentación. Ambos pasos iniciales son adecuados, pero las plataformas internas para desarrolladores y herramientas como Backstage -un marco de código abierto para crear portales de desarrolladores, creado originalmente por Spotify- llevan el concepto al siguiente nivel al proporcionar complementos de infraestructura y componentes de software específicos, así como catálogos que ofrecen una visión general de todo lo que está a disposición de los desarrolladores. Estos knowledge lakes pasan de ser portales a un espacio completo de soluciones enriquecido con el conjunto adecuado de tecnologías y, en última instancia, a plataformas internas de desarrolladores (IDP, por sus siglas en inglés).

Ciclo de vida del modelo AI/ML y recopilación de datos en una plataforma segura

  • Tema: Ciclo de vida del modelo AI/ML y recopilación de datos en una plataforma segura
  • Experto: Maarten Vandeperre, specialist solution architect, Application Services

A la luz de la inminente aplicación de la Ley de la Inteligencia Artificial (UE), se hace cada vez más relevante la seguridad, la transparencia de datos y la protección de datos. Si bien el enfoque inicial puede estar en modelos más grandes, se espera que los modelos más pequeños también estén sujetos a estas consideraciones en fases posteriores. En consecuencia, se espera que los científicos de datos ya no desarrollen modelos de ML en sus máquinas locales. Teniendo en cuenta estas consideraciones, Red Hat OpenShift AI ofrece una solución integral para hacer frente a estos desafíos, ayudando a minimizar la necesidad de refactorización organizativa o alteraciones de procesos tras la aplicación de la Ley de la IA u otras regulaciones pertinentes relativas a la formación y despliegue de modelos de ML.

Red Hat OpenShift AI, junto con OpenShift y OpenShift application foundations, surge como una solución viable para establecer una plataforma API segura para la recopilación de datos (por ejemplo, desarrollo e implementación de aplicaciones) y un entorno con seguridad coherente para el entrenamiento de modelos ML, lo que ayuda a salvaguardar todo el ciclo de vida. Esta solución es aplicable tanto in on-premise como en la nube pública, lo que facilita la capacidad de entrenar, desplegar y supervisar modelos en un entorno local, una característica crítica para el manejo de datos altamente sensibles como la información sanitaria y financiera.

Finalmente, es necesario proteger tanto los datos como los modelos entrenados con esos datos, sobre todo cuando se trata de datos muy sensibles, ya que el acceso no autorizado o los prompts maliciosos (por ejemplo, jailbreak) podrían poner en peligro la confidencialidad de la información utilizada para el entrenamiento del modelo.

Desarrollo nativo de la nube

  • Tema: Desarrollo nativo de la nube
  • Experto: Mark Swinson, enterprise automation specialist, Red Hat

La adopción de la nube pública ha significado un cambio de mentalidad. Se ha pasado del enfoque tradicional de gestión de la infraestructura de TI de construir, desplegar y gestionar, a un enfoque más nativo de la nube de configurar, construir, desplegar y retirar. En esencia, se trata de aplicar a la infraestructura un enfoque de ciclo de vida de desarrollo de software (SDLC, por sus siglas en inglés). Las organizaciones establecerán cada vez más comunidades de práctica para difundir estas formas más modernas de trabajar y adoptar el enfoque de plataforma como producto (o ingeniería de plataforma). Esto proporcionará una base estable y escalable, pero flexible y con capacidad de respuesta, para ofrecer funciones esenciales en todo el TI.  También permite una evolución continua para adaptarse a las necesidades de la empresa. Se prevé una mayor adopción en el mundo on-premises, más conservador, gracias a las ventajas de una mayor resiliencia y repetibilidad.

DevOps / Experiencia del desarrollador / Servicios de aplicaciones

  • Tema: Aplicar los principios de la Arquitectura Limpia a la Infraestructura: Un movimiento estratégico para construir una plataforma competitiva.
  • Experto: Maarten Vandeperre, arquitecto especialista en soluciones, Servicios de aplicaciones

Los sistemas heredados y las estructuras de equipo tradicionales pueden suponer barreras a la innovación y la flexibilidad dentro de una empresa. En un panorama informático en rápida evolución, tendencias como el desarrollo nativo de la nube y el potencial de la IA no solo requieren equipos flexibles, sino también capacidad de adaptación dentro de la organización. La importancia de la flexibilidad es evidente en escenarios como el paso de la adopción del 100% de la nube a modelos híbridos, lo que subraya la necesidad de una flexibilidad integrada en las estructuras de los equipos y las bases de código.

Las decisiones precipitadas, como la selección de tecnología, suponen un riesgo, ya que Gartner destaca esta precipitación como uno de los fallos de DevOps. La tendencia emergente implica derribar muros entre los distintos equipos, promoviendo una sinergia en la que los desarrolladores se dediquen a tareas de infraestructura y los profesionales de operaciones posean conocimientos de codificación para obtener soluciones óptimas (para ello, tengo presente «DevOps is an illusion» como cita personal). Partiendo de una formación en desarrollo de software, la sinergia más beneficiosa implicaría que los equipos de infraestructura y operaciones adoptaran los principios de la arquitectura limpia, una especie de directriz de codificación. La arquitectura limpia consiste en trasladar toda la infraestructura y las dependencias a la capa externa de la base de código, dejando la lógica empresarial en el core.

La sinergia y las mejores prácticas entre organizaciones pueden mejorar mucho el rendimiento. Se considera la posibilidad de incorporar principios de arquitectura limpia tanto a su base de código como a sus diseños de infraestructura. Esto no sólo fomenta la flexibilidad y la adaptabilidad para navegar por un panorama en constante evolución, sino que también permite retrasar decisiones críticas, como la selección del hypervisor y la tecnología de bases de datos, proporcionando un contexto más informado para la toma de decisiones. La adopción de una arquitectura limpia permite obtener una ventaja competitiva y proyectos preparados para el futuro.

Servicios financieros

  • Tema: Servicios financieros
  • Experto:  Monica Sasso, digital transformation lead, global financial services, Red Hat

La resiliencia operativa

A medida que se acerca la fecha límite para aplicar la regulación de resiliencia operativa (por ejemplo, DORA), la infraestructura resiliente se coloca en un lugar central, y elementos como el riesgo de concentración en la nube, la ciberseguridad, las pruebas y las normas sobre tecnología críticas de terceros también son partes clave en este contexto.

La ciberseguridad sigue siendo uno de los principales objetivos y las organizaciones de servicios financieros tendrán que realizar una gran cantidad de diligencia en la base de código de su cadena de suministro a medida que la normativa en torno al software siga endureciéndose. Por lo tanto, prestarán más atención a la gestión de riesgos y a la transparencia de las cadenas de suministro de software, así como a la fiabilidad de los proveedores.

Cuando se trata de gestionar los riesgos de la concentración en la nube, los bancos se están dando cuenta de que tienen que pensar más allá del contexto de la nube como función de TI. Tendrán que considerar todo el negocio, la resiliencia de sus equipos, las herramientas que utilizan y cómo trabajan. Veremos más equipos interfuncionales y un mayor impulso hacia la agilidad. Tendrán que adoptar el tipo de prácticas de trabajo colaborativas, iterativas y abiertas que Red Hat lleva impulsando desde hace tiempo.

IA generativa

Los bancos están luchando para que la IA generativa funcione de forma segura, imparcial y transparente. Desde el punto de vista de la alta dirección, se trata de cómo utilizar la IA para ser más atractivos para los clientes y lograr el resultado adecuado en un mundo digital. Por ejemplo, saber qué ofrecer a quién en el momento adecuado, como el producto hipotecario adecuado para alguien que va a comprar una casa. Los bancos quieren ofrecer productos y servicios únicos y personalizados a cada cliente individualmente y para ello analizarán los datos de sus clientes.

La mayoría de los bancos llevan tiempo estudiando esta posibilidad. Disponer de una plataforma común en toda la organización (como una base de nube híbrida contenerizada) ofrece a los científicos y tecnólogos de datos una forma más sencilla de jugar con nuevas herramientas de IA en lugar de preocuparse por dónde las están ejecutando.

Los retos incluyen el coste, el talento, la mejora de las cualificaciones y garantizar que las personas que entienden las tecnologías participen en la toma de decisiones. La ética empezará a ser y seguirá siendo obligatoria. La regulación existente, cuyo objetivo es garantizar que las personas obtengan los resultados correctos en armonía con los intereses comerciales del banco, enmarcará parte de esto.  También están por llegar otras leyes de la Unión Europea en torno a la IA y la ética. Convertir las normas en tecnología exigirá equipos multidisciplinares para garantizar que los resultados sean correctos.

También veremos cómo las empresas siguen utilizando la IA en el contexto del fraude, la lucha contra el blanqueo de capitales y el conocimiento del cliente.  Al centrarse en los pagos en tiempo real, la IA seguirá siendo importante y deberá actualizarse para poder adaptarse a la tendencia de modernización de pagos que ha surgido desde la regulación europea en los servicios de pagos digitales (PSD2). Es decir, hay que ser capaz de utilizar la IA y el análisis predictivo para prestar cualquier servicio bancario en tiempo real.

Abordar la deuda técnica desde una perspectiva moderna: cómo hacer que lo viejo y lo nuevo funcionen juntos

Se trata de un largo camino, pero parece que ahora hay más apetito por la modernización del mainframe: aprender cómo conseguir que las cargas de trabajo más antiguas sean más modernas y cómo hacer que trabajen juntas con las nuevas.  Algunas empresas se limitan a hablar de ello, otras dicen que no tienen los desarrolladores adecuados y otras se ven abocadas a la nube pública por razones comerciales (por ejemplo, han comprometido gastos con hiperescalares) o a centro de datos y quieren hacerlo de la mejor manera posible. Vemos que esta tendencia a «hacer que la tecnología antigua y la nueva funcionen mejor juntas» continúa a medida que las organizaciones tratan de desarrollar nuevas líneas de negocio, como las finanzas integradas, e impulsan sus esfuerzos de modernización de los pagos en tiempo real.

Existe una brecha que hay que abordar en lo que respecta a la formación interfuncional sobre lo que significa la modernización en la práctica. Los equipos deben entender qué hacen los contenedores, qué significa tener flexibilidad y coherencia, qué ofrece una plataforma verdaderamente híbrida, en el contexto de lo que se tiene hoy y de lo que se puede querer en el futuro.

También vemos que muchas empresas están cansadas de la complejidad y buscan una plataforma única y estandarizada que puedan ejecutar en cualquier lugar. Cuanto más complejo es un parque informático, más difícil es supervisarlo y, por supuesto, más difícil es mitigar las amenazas (en relación con la ciberseguridad y la resiliencia operativa). Esto es algo de lo que hablamos mucho a las organizaciones financieras, en el contexto de la transformación digital: modernización resiliente. En los bancos lleva tiempo aplicar los cambios significativos ya que se necesita tener la aprobación de las autoridades reguladoras, como cuando, por ejemplo, se tienen que hacer actualizaciones importantes de las aplicaciones bancarias. Aquí es donde resulta más atractivo disponer de una plataforma coherente, ya que elimina riesgos a la hora de hacer que los nuevos sistemas funcionen sin problemas junto con los sistemas existentes.

Industria definida por software, Edge, IA

  • Tema: Industria/fabricación: definida por software, Edge, IA
  • Experto: Morten Rohlfes, Edge director, EMEA, Red Hat

Madurez de los casos de uso industrial

En el entorno de producción, algunos casos de uso como el mantenimiento predictivo han pasado de la fase de innovación a la de adopción temprana e incluso, en algunos casos, se ha avanzado hasta la fase de mayoría temprana. Otros usos prometedores de la tecnología de vanguardia son la seguridad de los trabajadores y la computer vision (campo de la IA que permite a los ordenadores comprender las imágenes del mundo real). En cuanto a la seguridad de los trabajadores, vemos que se invierte en sensores y cámaras conectados a través del edge a una unidad inteligente instalada en la fábrica para proteger a los trabajadores de posibles lesiones causadas por un robot o un vehículo autónomo. La computer vision implica cámaras y sensores en el área de producción para ayudar a eliminar los productos defectuosos de modo que aumente la calidad general. Como las decisiones para determinar si los productos son buenos o malos deben tomarse en milisegundos, se necesita edge intelligence cerca del área de producción, ya que no hay tiempo para enviar los datos a una nube o unidad central. Los gemelos digitales y los controladores lógicos programables (PLC) virtuales son los próximos candidatos prometedores para el crecimiento, mientras que la formación en realidad virtual (RV) y e-Kanban tardarán probablemente más tiempo en establecerse.

El futuro de la convergencia OT-IT: automatización

A medida que aumenta el uso de soluciones definidas por software en los entornos de producción, se observa el auge de Linux frente a las soluciones tradicionales. Estamos asistiendo al fin del hardware propietario asociado a un software desconectado y difícil de actualizar. En un futuro en el que cada año se instalan miles de nuevos dispositivos, sensores, cámaras y PLC edge, se necesitan soluciones de TI para ayudar con estos problemas de tecnología operativa (OT).

Estamos ante un futuro en el que el director de la fábrica pulsará un botón y muchos de estos dispositivos, si no todos, se sincronizarán automáticamente, incluidas las actualizaciones inalámbricas. Esto era impensable en muchos centros de producción. Este tipo de convergencia OT-IT con modelos definidos por software basados en estándares abiertos democratizados como la arquitectura unificada OPC y Linux no está demasiado lejos.

Vemos que estos casos de uso suceden tanto en la fabricación como en la fabricación por procesos

No es de extrañar: el ecosistema es la clave

El éxito de la implantación de casos de uso edge en la fabricación depende del trabajo en equipo de varios agentes del mercado. Un proveedor de OT debe asegurarse de que el proveedor de un sistema de ejecución de fabricación (MES, por sus siglas en inglés) utilice una plataforma industrial de vanguardia madura con un integrador de sistemas experimentado que ensamble la solución.

Mercado energético: modernización de las subestaciones  

En el mercado de la energía veremos una mayor modernización de la red a medida que los consumidores de energía se conviertan en prosumidores de energía (produciendo electricidad en los tejados con paneles solares y consumiendo energía de la red los días en que el sol no brilla lo suficiente). Las subestaciones primarias se están transformando de alta a media tensión y las secundarias de media a baja tensión. Por tanto, estas subestaciones necesitan sensores e inteligencia añadida para tomar decisiones basadas en datos. Estas decisiones sensibles al tiempo no pueden tomarse en la nube pública o en un centro de datos distante. Esperamos que varios países lancen licitaciones (RFPs) en este segmento en 2024. La colaboración del ecosistema es clave aquí, incluyendo a las empresas de servicios públicos, los proveedores de OT, los proveedores de hardware, los ISV y los proveedores de software de infraestructura como Red Hat.

Resumen

Es interesante seguir presenciando cómo el mundo industrial se abre al código abierto, a una mayor colaboración y a una amplia estandarización. Existen paralelismos entre el sector de las telecomunicaciones y la industria. Las telcos han emprendido un proceso para desvincular el software del hardware a partir de 2017 y hoy cuentan con estándares abiertos, menos hardware propietario y costoso empaquetado con software, y se han establecido más sistemas conectados basados en Linux y contenedores. Esperamos que la industria logre resultados similares en los próximos años, lo que conducirá a una fábrica definida por software basada en estándares abiertos como la arquitectura unificada OPC, la nube híbrida, Linux y los contenedores.

TME / telco / industries 

  • Tema: TME / telco / industries
  • Experto: Ian Hood, chief strategist – global industries, Red Hat

El sector de las telecomunicaciones presta servicios básicos de los que dependen miles de millones de consumidores y prácticamente todas las empresas. El consumo mundial de datos a través de las redes de telecomunicaciones casi se triplicará de aquí a 2027, según el informe Global Telecom Outlook de PWC. Sin embargo, no hay una forma clara de aumentar los ingresos por conectividad al mismo tiempo que se responde a estas crecientes demandas. Los proveedores de servicios se enfrentan a importantes desafíos financieros a medida que continúan invirtiendo en capacidades de TI y de red heredadas, amplían su alcance de fibra, aumentan sus 5G standalone (SA) core networks y expanden su huella RAN para seguir siendo competitivos. Teniendo en cuenta estas tendencias y desafíos, los proveedores de servicios se centrarán en adoptar tecnologías inteligentes de automatización y de IA para mejorar la eficiencia empresarial y operativa general en la red, la seguridad, la infraestructura y las aplicaciones en un entorno híbrido/ multicloud.

Para aumentar su fiabilidad a escala y mejorar al mismo tiempo su huella de carbono neta, los proveedores de servicios también tratarán de automatizar la medición y el control de su consumo de energía y refrigeración utilizando mecanismos innovadores de hardware, software e IA, especialmente en la RAN, pero también en sus despliegues de core y centro de datos.

Buscando equilibrar el impulso del mercado y el riesgo, los proveedores de servicios buscarán ofertas software como servicio (SaaS) y bajo demanda de hiperescalares y proveedores de software para acelerar la innovación antes del despliegue de estas capacidades a gran escala. Los proveedores de servicios han negociado grandes acuerdos de gasto comprometido con múltiples proveedores de nube, principalmente para aplicaciones digitales empresariales. También están considerando a estos proveedores para OSS/BSS (sistemas de soporte a las operaciones/sistemas de soporte al negocio, por sus siglas en inglés), así como para casos específicos de uso de la red, con cautela adicional, dados sus requisitos de coherencia operativa, seguridad, alcance del control y economía a escala. Una forma de abordar estos requisitos es con una plataforma de nube híbrida (como Red Hat OpenShift) como capa de abstracción en cualquier nube. Muchos proveedores de servicios intentarán desarrollar la elasticidad y escala de las capacidades de la nube pública en sus propios entornos y también pueden optar por construir ofertas específicas de MEC (edge computing multiacceso) y edge a través de varias asociaciones de partners para aprovechar oportunidades de soluciones geográficas e industriales.

¿Te ha parecido útil este contenido?