Cerrar panel

Cerrar panel

Cerrar panel

Cerrar panel

Innovación 07 ene 2021

¿Qué es el ‘edge computing’ y cómo complementa al 5G?

La irrupción de tecnologías como la inteligencia artificial, el ‘machine learning’ o el ‘blockchain’, ha multiplicado exponencialmente el volumen de datos que se utiliza poniendo a prueba los sistemas informáticos actuales. A pesar de que la llegada del 5G promete una mejora de estas limitaciones, no es suficiente para dar respuesta a las exigencias de rendimiento de la última generación tecnológica. Una alternativa es el ‘edge computing’.

Vivimos rodeados de dispositivos inteligentes. Sin embargo, estos necesitan conectividad para transmitir los datos que nos permiten acceder al correo electrónico, disfrutar de contenidos en ‘streaming’ o automatizar una fábrica a través de técnicas de ‘IoT (internet de las cosas por sus siglas en inglés). Todos ellos están conectados a una red que ha de responder con inmediatez a esa demanda de datos, pero la realidad es que se trata de sistemas centralizados que cuentan con limitaciones como la latencia, el ancho de banda e incluso la privacidad de los datos y la autonomía.

El despliegue de la tecnología 5G promete mayor velocidad en la circulación de toda esa información, así como una reducción drástica de la latencia. Pero la nueva red no es suficiente por sí sola, necesita complementarse con el ‘edge computing’, un paradigma de computación distribuida que permite abordar las limitaciones de los sistemas centralizados acercando el procesamiento de los datos a la fuente de generación de los mismos, es decir, a los dispositivos y a los usuarios.

“Procesar los datos más cerca de donde se generan significa procesar a mayor velocidad la información y tener la capacidad de tomar decisiones más rápidamente”, apunta Matías Díaz, responsable de Edge Security en Arquitectura de Seguridad de BBVA.

‘Edge computing’: ¿En qué consiste?

En los sistemas centralizados los datos tienen que ‘viajar’ desde el lugar donde se generan (los dispositivos), hasta un nodo central, para su procesamiento, y después volver a su lugar de origen. Un proceso que implica una cantidad ingente de información y que por tanto, consume mucho ancho de banda e incluso, cuando los datos son de ida y vuelta, puede provocar una latencia que afecte al correcto funcionamiento de los propios dispositivos.

Además, con la irrupción de tecnologías como el 5G, la inteligencia artificial, el ‘machine learning’ o el ‘blockchain’, se ha multiplicado exponencialmente el volumen de datos que se utiliza. Según estimaciones de la consultora IDC, en 2025 habrá 41.600 millones de dispositivos conectados a ‘IoT’ que generarán 79,4 Zettabytes de datos y procesarlos requerirá una gran potencia de cálculo conjunta. Pero si se pasa a un sistema distribuido, con nodos intermedios, los grandes centros de datos verán reducida su carga de trabajo, con el consecuente beneficio para el procesamiento de todas esas peticiones. En este sentido, el ‘edge computing’ es clave.

“Las alternativas que acercan el procesado de los datos al lugar donde se generan, como el ‘edge computing’, buscan encontrar soluciones a esos problemas y, por tanto, ofrecen alternativas para hacer que el modelo de funcionamiento siga siendo no sólo eficiente, sino también escalable y sostenible”, señala Juan Carlos López, Catedrático de Tecnología de Computadores de la Universidad de Castilla-La Mancha y vocal de la Junta de Gobierno del COIT.

Gracias al ‘edge computing, “se aumentan y amplían las posibilidades del actual modelo ‘cloud’ centralizado, apoyando la evolución y el despliegue de dispositivos ‘IoT’ y admitiendo aplicaciones innovadoras, ofreciendo así una gran evolución para los negocios digitales”, describe Ignacio Velilla, Managing Director en España de Equinix, multinacional especializada en conexión a internet y centros de datos.

Una mayor inversión de recursos

Un despliegue básico de ‘edge computing’ requiere de un dispositivo que genere información y que necesita información de otros sensores o aparatos para modificar su comportamiento o tomar decisiones. “Por ello, es necesario una infraestructura cercana donde se almacenen y procesen todos esos datos. De tal forma que cada dispositivo pueda acceder de forma casi inmediata no únicamente a sus datos, también a los del resto, para el aprovechamiento de la información generada”, expone Velilla.

Para Díaz, este proceso necesariamente va ligado a una inversión de recursos. “Las empresas necesitamos disponer de las mejores redes de comunicaciones junto a los puntos óptimos de presencia para implementar nuestra arquitectura, con el fin de procesar los datos en tiempo real usando los mejores algoritmos y técnicas de ‘machine learning’ e inteligencia artificial”, explica.

Algo en lo que coincide el catedrático de la Universidad de Castilla-La Mancha: “Si nos fijamos en el procesamiento masivo de datos, la gran cantidad de transacciones y la utilización de algoritmos más complejos, necesarios para dar un mejor servicio con soluciones rápidas y toma de decisiones en tiempo real, requerirán de mayores capacidades de cómputo y menores tiempos de respuesta, además de una mayor flexibilidad”.

Las ventajas del ‘edge computing’ para la banca

Una de las capacidades básicas que ofrecerá el ‘edge computing’ a la banca será poder descentralizar su modelo de cómputo, para llegar allí donde esté el cliente. El responsable de Edge Security de BBVA cree que “eliminando las latencias y mejorando la velocidad de cómputo podremos, por ejemplo, ofrecer productos personalizados, mejorar los sistemas de detección de fraude y operar en los mercados financieros de manera descentralizada y ahorrando costes”.

BBVA, que en 2019 se convirtió en la primera entidad financiera en España en desplegar tecnología 5G en su sede, lleva tiempo trabajando en construir una plataforma para el uso del ‘edge computing’. “Con la plataforma Ether disponemos de la base para afrontar con éxito los nuevos retos que nos trae el ‘edge computing’. Estos pilares son la globalidad, reusabilidad, automatización, resiliencia y seguridad embebida”, afirma Díaz.

Según el experto, estos últimos meses nos han demostrado la necesidad de interactuar con los clientes allí donde se encuentren. Por esta razón, cree que “debemos aprovechar el ‘edge computing’ para llegar de una manera más ágil y segura a nuestros clientes, y poder interactuar con ellos como si estuviéramos cara a cara para poder ofrecerles soluciones y productos personalizados”.

La agilidad y la seguridad son dos de los factores clave en la nueva tecnología, que también son requisitos para llevar con éxito esa personalización a los usuarios. “A día de hoy disponemos de una nueva arquitectura de servicios que, combinada con nuestra red global, hace que nos encontremos muy cerca de nuestros clientes. Nuestras aplicaciones se conectan a nodos distribuidos globalmente que entregan el contenido y procesan parte de nuestros servicios de manera ágil y segura”, expone Díaz, que añade, con una mirada al futuro que “en los próximos meses evolucionaremos a un modelo de cómputo basado en el ‘edge computing’, que facilitará la creación de innovadores productos financieros”.