Il cloud del futuro è distribuito: la visione di edge 2.0 proposta da F5
di Riccardo Robecchi pubblicata il 05 Maggio 2021, alle 16:01 nel canale EdgeAbbiamo parlato con F5 Networks del concetto di "edge 2.0" che l'azienda propone: una visione del futuro in cui le applicazioni sono distribuite e sempre più vicine all'utente per migliorare le prestazioni e rendere possibili ulteriori innovazioni
L'evoluzione delle esigenze di privati e aziende e, parallelamente, l'evoluzione delle tecnologie cloud sta portando a un cambiamento deciso nella struttura delle reti. È in particolare il bordo delle reti, quello che viene chiamato edge, a subire questo cambiamento in misura maggiore: secondo F5 Networks questo rinnovamento è tale da richiedere l'uso dell'espressione "edge 2.0". Un concetto che coniuga la trasmissione dei contenuti con la presenza della potenza di calcolo in maniera distribuita, di cui abbiamo parlato con Maurizio Desiderio, Country Manager per l'Italia e Malta, e Raffaele d’Albenzio, Manager, Systems Engineers Global SP Accounts per l'EMEA.
Un cambiamento epocale: la rivoluzione dell'edge
"Mi viene in mente quando è stato fatto il passaggio dai mainframe alle architetture distribuite client-server: la distribuzione non era la stessa cosa [del modello edge], ma i server erano comunque sparsi per tutto il mondo e quello che la faceva da padrona era la rete. Adesso le problematiche sono molto simili, anche se da un punto di vista tecnologico sono cambiate: l'approccio è però certamente lo stesso." Così apre l'intervista Desiderio (in foto), che sostiene che sia in atto un cambiamento di portata tale da poter essere ricondotto a quello avvenuto col passaggio all'architettura client-server.
In effetti che ci sia qualcosa nell'aria è confermato da diverse voci nel mondo della tecnologia e dell'informatica. A riprova di ciò persino Satya Nadella, CEO di Microsoft, ha parlato di una decentralizzazione del cloud verso un modello più simile a quello edge. A questo punto, però, è forse necessario un passo indietro: che cosa si intende per edge?
Ci sono due accezioni del termine: da un lato si parla del bordo della rete dal punto di vista dei contenuti, ovvero della vicinanza a dove è presente l'utente che fruisce di un contenuto come una pagina Web o un video; tale modello è quello adottato, ad esempio, dalle CDN come Akamai, il cui servizio è proprio quello di conservare i dati in data center che siano più vicini agli utenti, così da trasmetterli più in fretta e migliorare l'esperienza utente. La seconda accezione è quella di "bordo" dal punto di vista di dove i dati vengono elaborati: se si pensa a un modello centralizzato, in cui i dati vengono elaborati in un data center lontano da dove vengono prodotti, allora posizionare invece dei computer per l'elaborazione "sul campo" significa porli "sul bordo" della rete e questo è il concetto da cui prende il nome Edge9 (e che per questo abbiamo più spesso esplorato in queste pagine).
Tuttavia, l'evoluzione della tecnologia fa sì che questi due concetti, in apparenza piuttosto differenti, vadano in realtà avvicinandosi sempre più e siano destinati a confluire in uno solo: F5 Networks chiama questo concetto "edge 2.0" e afferma che rappresenterà la prossima grande evoluzione dopo il cloud. Il modello di sviluppo del cloud, fatto di automazione e di uso "liquido" dell'infrastruttura, che viene trattata come una risorsa da richiedere in fase di creazione del progetto software senza ulteriori specificità particolari, verrà riproposto anche in questa visione per portare al dispiegamento delle applicazioni su computer distribuiti in tutto il mondo in maniera automatica. In questo modo l'intero ciclo di vita dei dati avverrà vicino ai loro utenti e creatori, portando a un'esperienza d'uso migliore rispetto a quella odierna.
Edge 2.0: il futuro è distribuito, secondo F5 Networks
"Sono molto d'accordo con quanto ha detto Nadella [riguardo lo spostamento verso l'edge]", afferma Maurizio Desiderio. "[Contrariamente ad altri], noi siamo forse più indipendenti e non abbiamo necessità di fare una scelta su un cloud provider oppure un altro, quindi vediamo le cose in maniera leggermente diversa: loro la vedono da un punto di vista più infrastrutturale, mentre noi mettiamo le applicazioni al centro del nostro business, perché sono il cuore del business delle aziende. Sicuramente, per come si stanno evolvendo le applicazioni, che cercano di essere sempre più vicine alle esigenze del cliente in maniera proattiva, ci sono nuovi bisogni: gli strumenti sono sempre più sofisticati e per riuscire a ridurre la latenza a prescindere dalla velocità di connessione, più si è vicini all'ente erogante il servizio e più è possibile beneficiare di vantaggi."
Il cambiamento è dettato proprio dall'evoluzione delle applicazioni, che sono sempre più complesse e che fanno uso sempre più frequente di servizi esterni, con la necessità dunque di dover comunicare in maniera veloce ed efficace con essi per poter fornire un'esperienza utente di alto livello. L'uso sempre più massiccio delle API complica infatti di molto la situazione: "ormai le applicazioni hanno al proprio interno delle chiamate delle componenti di applicazioni di terze parti, sulle quali non hanno nessun controllo", afferma Desiderio. "Questo significa che 'essere all'interno dell'applicazione' non implica che io rimanga all'interno del data center: si inizia dall'applicazione in locale, ma poi magari un'API per gestire i pagamenti passa tramite Amazon, la quale poi fa delle chiamate ad American Express, la quale poi utilizza il mio telefono per autorizzare la transazione... Inevitabilmente ciò crea una situazione in cui una procedura che sembra banale per l'utente ('compro qualcosa cliccando su un bottone') in realtà fa molte operazioni che vanno al di fuori dell'applicazione stessa."
Per affrontare queste sfide è necessario avvicinare il luogo dove il dato viene prodotto e quello dove viene elaborato, cosicché sia possibile contenere la latenza e migliorare l'esperienza d'uso. Ma se è vero che l'elaborazione è già oggi parzialmente decentralizzata, come nell'esempio di Desiderio, è altrettanto vero che avviene sempre in grandi data center dislocati in giro per il mondo e spesso molto lontani dall'utente.
Come si potrà dunque affrontare le esigenze nascenti in termini di latenza e di sovranità sui dati? Bisognerà arrivare a una decentralizzazione totale e alla dismissione dei data center? Secondo D'Albenzio, la risposta è no: il paradigma "edge 2.0" non porterà alla morte completa dell'elaborazione centralizzata dei dati, ma a una distribuzione maggiore rispetto a ora. "Alcune componenti verranno portate sul bordo, ma altre comunque risiederanno in server a centinaia o migliaia di chilometri di distanza. Questo è anche un problema di sovranità sui dati, ovvero dove il dato deve fisicamente essere. Da un lato dunque il paradigma edge 2.0 porta allo spostamento della capacità di calcolo verso il bordo, dall'altro alla capacità di interconnettere da un punto di vista applicativo i vari elementi tra di loro in maniera sicura."
Proprio questo aspetto di connessione è particolarmente importante. La soluzione che propone F5, figlia dell'acquisizione di Volterra, è quella di interconnettere le varie componenti indipendentemente dal fornitore di servizi cloud e dalla posizione delle risorse di calcolo, che siano in un data center centralizzato o sull'edge. "I due elementi fondamentali sono lo spostamento dei dati e quello delle risorse di calcolo verso l'utente finale e in questo caso il concetto di "consegna dei dati", per riprendere l'esempio delle CDN, diventa un caso specifico dell'edge: una rete di content delivery diventa un caso specifico di una rete di quella che noi chiamiamo application delivery", afferma D'Albenzio.
In effetti sempre più non sono i contenuti che devono essere distribuiti, ma l'intera applicazione interattiva, che perde la sua localizzazione centralizzata per diventare distribuita e diffusa, e che prende diverse forme: dall'elaborazione in loco dei dati di una fabbrica alla fornitura di servizi all'utente privato, con tutto ciò che c'è in mezzo. L'opportunità per le aziende è quella di fornire un servizio migliore, in grado di rispondere meglio alle aspettative e alle esigenze del mercato.
In questo contesto gestire la complessità diventa una delle preoccupazioni principali. Operare su sistemi diversi con caratteristiche diverse e in luoghi diversi porta a una crescita della complessità nella gestione delle operazioni e dello sviluppo e, come è noto, la complessità aumenta costantemente a meno che non venga fatto uno sforzo esplicito per contenerla. F5 ha acquisito Volterra proprio per contenere le conseguenze che derivano dall'uso di più fornitori di servizi cloud e dall'impiego di architetture differenti. A questo proposito Desiderio afferma: "se io sono uno sviluppatore abituato a lavorare su AWS e mi trovo a dover lavorare con Google [Cloud], è possibile che ci metta del tempo per mancanza di conoscenze [specifiche sull'ambiente]. Quello che vuole fare Volterra è automatizzare i passi necessari per passare da un ambiente all'altro: se io sono uno sviluppatore mi interessa lavorare sulla funzionalità, mentre al resto ci pensa F5. Questo dà la flessibilità al programmatore di poter erogare nuove funzionalità senza doversi preoccupare di altro, perché abbiamo creato uno strato che si pone tra l'applicazione e l'infrastruttura rendendoli indipendenti. L'interfaccia grafica intuitiva e gli strumenti di telemetria permettono poi di vedere come vanno le cose e di avere visibilità su come il servizio viene erogato."
Arrivare ad avere strumenti che permettano di astrarre sempre più e di ridurre la complessità che gli sviluppatori e i sistemisti devono affrontare sarà dunque una componente fondamentale, senza la quale le aziende faticheranno a trovare la giusta strategia per rispondere ai cambiamenti che i nuovi paradigmi come l'edge 2.0 porteranno.
Parlare di edge 2.0, distribuzione del cloud e tecnologie d'avanguardia è più facile di quanto non sia in realtà implementare tutto ciò: al momento si tratta di passaggi che si prevede avvengano in futuro, ma che è ancora oggi difficile definire con certezza assoluta in termini di modalità e di tempistiche. La direzione è però chiara e i cambiamenti arriveranno: perché le aziende si facciano trovare pronte è bene mantenere attivo il processo interno di formazione e continuare a innovare.
0 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoDevi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".