Spesso in antitesi dialettica rispetto al ben più inflazionato Cloud Computing, ritroviamo un paradigma tecnologico che trova la sua piena espressione nell’Edge Computing. Tuttavia, le logiche centralizzate del Cloud e l’orientazione periferica dell’Edge, più che costituire gli antipodi di un’architettura IT, finiscono per risultare due facce della stessa medaglia, reciprocamente funzionali nella direzione di una configurazione ibrida, finalizzata a sfruttare al meglio i vantaggi di entrambi gli approcci.
Vediamo in cosa consiste l’Edge Computing, quali sono i suoi presupposti funzionali, per comprendere al meglio la crescente rilevanza che gli analisti prevedono in merito alla sua diffusione nel corso dei prossimi anni.
Indice dei contenuti
Cos’è l’Edge Computing, perché è così attuale
Secondo la definizione offerta da Wikipedia, l’Edge Computing sarebbe un modello di calcolo distribuito nel quale l’elaborazione dei dati avviene il più vicino possibile a dove i dati vengono richiesti.
Basterebbe questo semplice passaggio per giustificare con fermezza la sua fondazione e la sua differenza concettuale con il Cloud. Se le architetture della nuvola vedono il loro principale punto di forza nella capacità di centralizzare le risorse per disporre di grande scalabilità e potenza computazionale, le applicazioni in locale si ritrovano spesso con un collo di bottiglia costituito dalla latenza, per il fatto che le comunicazioni tra le interfacce locali e il cloud avvengono mediante la rete internet, oggi mediamente troppo lenta per supportare le operazioni in tempo reale sul campo.
A livello di architettura IT, la soluzione deriva dall’Edge Computing, che concentra la sua attenzione sui margini della rete, sfruttando la potenza computazionale di cui sono dotati i device periferici, collocati in stretta prossimità con le operazioni.
Al di là della soluzione tecnica e concettuale ai problemi computazionali e di latenza, la crescente popolarità dell’Edge Computing deriva dal configurarsi quale architettura di riferimento dei sistemi IoT (Internet of Things), basati su dispositivi interconnessi in grado di acquisire ed elaborare in tempo reale i dati dell’ambiente in cui sono contestualizzati. Basti pensare ai sistemi industriali della fabbrica 4.0 (IIoT – Industrial Internet of Things), piuttosto che alle applicazioni della smart home, con cui conviviamo spesso inconsapevolmente all’interno delle nostre abitazioni.
I dispositivi informatici che l’Edge Computing configura quali terminali ai margini della rete sono sempre più diffusi ed economici, e soprattutto dotati una connettività e di una potenza computazionale sempre più performante nello svolgere un’incredibile varietà di applicazioni. L’esempio più ricorrente è dato dai device di comune impiego, con cui interagiamo quotidianamente: Smartphone, videocamere, POS e, nella loro categorizzazione più ampia, tutti i dispositivi SFF (Small Form Factory) dotati di unità di calcolo e di un chipset che garantisce la connettività di rete.
Lo scenario delle architetture IT si prospetta dunque molto interessante in termini di evoluzione, in quanto l’Edge non si configura come un’alternativa al Cloud, ma ne completa l’impianto funzionale aprendo alla strada dell’ibridazione. Cloud e Edge sono destinati a viaggiare insieme, entrando a far parte di un unico ecosistema tecnologico, capace di sfruttarne i principali punti di forza.
L’Edge Computing si colloca inoltre in continuità con un’altra architettura di riferimento: il Fog Computing. Piuttosto simili dal punto di vista funzionale, Edge e Fog differiscono principalmente per quanto concerne la collocazione della potenza computazionale. Nelle architetture Edge, la maggior parte del calcolo viene svolta direttamente a livello di device periferico, mentre il Fog Computing è organizzato per distribuire il carico computazionale sui data center locali, quindi in corrispondenza dei nodi della rete.
I principali concetti funzionali dell’Edge Computing
Un sistema IoT, basato su un’architettura Edge Computing, vede la presenza di una serie di dispositivi interconnessi, dotati di una unità computazionale autonoma, per acquisire e pre-elaborare in tempo reale i dati rilevati dai sensori, in condizioni di bassa latenza, prima di comunicarli ai data center locali o in cloud, dove avvengono le operazioni più gravose, come l’analisi con tecniche di intelligenza artificiale. Le funzioni svolte ai margini della rete, come l’edge analytics, consentono di garantire un elevato livello di operatività in un contesto resiliente.
Un nodo centrale delle architetture Edge è dato dalla connettività. Se la condizione ideale prevede una rete cablata (es. ethernet), per via della sua velocità, stabilità e resilienza, cablare un intero sistema può rivelarsi molto oneroso e complesso da configurare, soprattutto se confrontato con la grande flessibilità delle reti wireless, che consentono di modificare il layout dei dispositivi di un sistema senza dover per forza ridefinire o ampliare il complesso apparato dei cablaggi fisici.
Sulla base della semplice considerazione appena esposta, le architetture Edge stanno incontrando una fase di notevole fermento per quanto riguarda i protocolli di rete wireless utilizzati. Per citare i più diffusi, ritroviamo Zigbee, EnOcean, Z-Wave, 6LoWPAN e LoRa, molto interessante per il fatto di garantire una copertura anche di alcuni chilometri (fino a 5km in ambiente urbano e 30km in ambiente rurale), grazie all’implementazione di recenti tecnologie a basso consumo ed ampio raggio. La crescita tecnologica dei sistemi wireless sta dunque favorendo in maniera significativa la comunicazione tra i terminali e i gateway di accesso alla rete, con access point in grado di garantire un adeguato livello di resilienza.
Progettare un sistema edge, ed in particolare la sue rete, comporta competenze ed esperienze tutt’altro che banali, in quanto occorre saper bilanciare molto bene le varie tecnologie disponibili in funzione del budget e delle performance richieste.
I vantaggi nell’utilizzo di un’architettura IT basata sull’Edge Computing
In senso generico, tra i principali vantaggi nell’adozione di un’architettura Edge, ritroviamo:
- Scalabilità: rispetto ad una logica centralizzata, l’architettura Edge concentra la propria operatività sui terminali della rete, rendendo di fatto più agile e scalabile qualsiasi implementazione. In caso di una maggior richiesta di performance o di un’espansione del sistema, sarà sufficiente integrare un maggior numero di data center locali o terminali, demandando eventualmente le operazioni più gravose ai più potenti data center in cloud, senza pertanto influenzare le condizioni di latenza a livello locale.
- Velocità: la disponibilità di una crescente potenza computazionale a livello dei data center locali e dei terminali interconnessi assicura soluzioni affidabili ed efficienti anche in contesti, come quello della mobilità, che altrimenti sarebbero fortemente condizionati nell’implementare applicazioni in tempo reale.
- Sicurezza: la notevole articolazione di un’architettura Edge consente di isolare le varie zone, limitando l’incidenza di una minaccia che potrebbe interessare un nodo della rete, piuttosto che un gateway di accesso, così come un terminale connesso. La sicurezza si configura soprattutto a livello strategico, identificando le soluzioni ottimali di utilizzo dei dati presenti nella rete, evitando ad esempio di conservare i contenuti più sensibili nelle regioni maggiormente esposte al rischio di attacchi malevoli.
- Resilienza: la riduzione del carico di dati proveniente dalla rete primaria attenua le latenze in funzione della velocità operativa, ma al tempo stesso riduce i passaggi che i dati effettuano, con maggiori garanzie in termini di continuità generale del servizio. La resilienza di un sistema trae dunque vantaggio sia dai minori rischi di down derivanti da un possibile disservizio su un data center centralizzato, sia dalla possibilità di distribuire il carico su una serie di data center locali, se non addirittura a livello degli stessi terminali della rete.
Edge computing tra presente e futuro: applicazioni e prospettive
L’Edge Computing costituisce dunque uno scenario infrastrutturale estremamente stimolante per i responsabili IT delle aziende, a condizione di saper valutare con scrupolosa competenza e notevole senso di responsabilità i pro e i contro della sua implementazione. Se da un lato i sistemi IoT favoriscono una capillare diffusione, rendendo le piattaforme Edge sempre più accessibili sia in termini di costi che di semplicità di utilizzo, parliamo comunque di un’infrastruttura mediamente complessa, che include diverse tecnologie ancora giovani. Dal punto di vista tecnologico la crescita dell’Edge Computing coinciderà con l’evoluzione dei singoli elementi che la compongono, dalla miniaturizzazione dei device a soluzione di connettività più stabili e veloci nel trasferire i dati.
In tal senso, risulterà fondamentale la crescita infrastrutturale delle reti 5G, che potranno finalmente garantire una banda sufficiente per risolvere in buona parte i problemi di latenza della rete internet, assicurando una maggior collaborazione tra il Cloud e le architetture locali, a tutto vantaggio delle operazioni che privilegiano una logica computazionale centralizzata piuttosto che decentralizzata, grazie alle maggiori performance dei data center locali. Per focalizzare il concetto, si pensi ad un servizio di streaming on demand.
Qualora tutte le richieste degli utenti fossero indirizzate ad un unico, pur potentissimo, server centrale, la rete di distribuzione rischierebbe in alcune regioni di collassare. Si tratterebbe di un problema facilmente bypassabile nel caso in cui il provider rendesse disponibili i propri contenuti anche in corrispondenza di una serie di data center più periferici, collocati in maggior prossimità rispetto ai dispositivi degli utenti. Per rendere possibile il funzionamento efficace di un modello architetturale di questo genere occorre una connessione con le caratteristiche offerte da una rete di tipo 5G.
Attualmente la diffusione del 5G, soprattutto in Italia, risulta ancora limitata per via dei costi di implementazione e della mancanza di applicazioni mainstream in grado di sfruttarne le capacità, il che porta verso posizioni conservative, sulla base del fatto che per la maggior parte delle esigenze, risulterebbero ancora funzionali le più lente connessioni 4G.
Dal punto di vista delle applicazioni, l’Edge Computing vede la sua estensione verso ambiti anche molto differenti tra loro, accomunati da un design con logiche IoT. Ad oggi, con previsioni in forte crescita nei prossimi cinque e dieci anni, l’Edge Computing è infatti diffuso in contesti come l’Industria 4.0, la guida autonoma, le transizioni finanziarie, la videosorveglianza, il retail, la smart home /smart city, il monitoraggio ambientale, le telecomunicazioni, il broadcasting e molto altro.
Desideri parlare con un nostro esperto? Contattaci
Ultime News Data Center
-
Mercato cloud in Italia: tendenze e numeri da osservare
5 Settembre 2024 -
Quali sono le differenze tra SQL Server e Oracle?
13 Maggio 2024 -
Cos’è e come fare monitoraggio di Microsoft SQL Server
23 Aprile 2024 -
Guida SQL Server, tutto quello che devi sapere
19 Aprile 2024 -
FaaS: Cos’è, Come funziona, Vantaggi, Casi d’uso ed Esempi
26 Febbraio 2024
Computing e architetture
-
Quali sono le tendenze della gestione avanzata dell’iperconvergenza?
19 Settembre 2024 -
Multi-cloud vs Hybrid cloud: Confronto, Cosa sono, Differenze
29 Novembre 2023 -
Sistemi Iperconvergenti Sangfor
4 Settembre 2023 -
Colocation data center: tipologie e vantaggi
16 Agosto 2023 -
Sistemi Iperconvergenti Simplivity
4 Luglio 2023 -
Cos’è un hypervisor? Scopri il tipo 1 e 2
15 Maggio 2023 -
Sistemi iperconvergenti Nutanix
4 Maggio 2023 -
Cloud Computing: tutto quello che c’è da sapere
18 Febbraio 2023 -
Cos’è un’infrastruttura informatica: componenti e tipologie
13 Febbraio 2023