Reti

Democrazia Futura. La qualità dei servizi sulla rete Internet. I limiti attuali e come migliorarla

di Gianfranco Ciccarella, Senior Telecommunications Consultant, e Daniele Roffinella, Docente all’Università degli Studi di Torino |

Lo scenario di riferimento verso la Rete Internet Veloce. Il contributo per Democrazia Futura di Gianfranco Ciccarella, Senior Telecommunications Consultant, e Daniele Roffinella, Docente all’Università degli Studi di Torino.

Daniele Roffinella

L’ing. Daniele Roffinella, docente all’università degli Studi di Torino e lo stesso Gianfranco Ciccarella, Senior Telecommunications Consultant, chiariscono in un mini saggio scritto in un linguaggio facilmente accessibile con un notevole sforzo pedagogico divulgativo di cui siamo loro grati – questa complessa problematica costretta peraltro a fare i conti con un quadro tecnico-applicativo in continua evoluzione. Il testo descrive uno scenario di riferimento (elementi architetturali, prestazioni) per la possibile evoluzione tecnologica verso la Rete Internet Veloce.

Gianfranco Cecchinella

Vengono richiamate le differenze fra Servizi Applicativi e Servizi di Rete, vengono distinte le infrastrutture di Rete degli operatori di telecomunicazioni (Telco) e quelle degli operatori applicativi (Over The Top, OTT), nonché i fattori principali che influenzano le prestazioni dei servizi utilizzati da Clienti e utenti. Viene quindi illustrato come, per migliorare le prestazioni e garantire una migliore qualità dei servizi ai Clienti e contenere i costi infrastrutturali, uno degli approcci più promettenti consista nell’installazione, nella rete, di piattaforme Edge Cloud Computing (ECC).

Introduzione

Internet è diventata per tutti ‘la’ rete (anche se in realtà è una rete di reti) che interconnette persone, ‘cose’ (Internet of Things – IoT) e Server/Cloud, per scambiare informazioni multimediali e utilizzare una molteplicità di servizi applicativi di diversa complessità e diffusione (e-mailWEB browsingvideo streaminge-commercegaming, remote control, assistenti virtuali basati su IA, eccetera).

L’importanza di Internet continua a crescere a livello mondiale[1], in termini di traffico scambiato, di servizi offerti, di ‘terminazioni’ connesse e di impatti sulla crescita economica e sociale.

D’altra parte Internet esiste in quanto è il risultato di un ecosistema di soggetti estremamente complesso ed articolato: operatori di rete (i cosiddetti Telco), sviluppatori di applicazioni e servizi (inclusi i cosiddetti Over The Top – OTT), costruttori di apparati (cavi, fibre, sistemi radio, router, Server, eccetera, con cui le reti vengono realizzate), costruttori di terminali (utilizzati dalle persone, oppure operanti in autonomia, come nella IoT), Content Delivery Provider – CDP (ovvero letteralmente “fornitori di reti per la consegna dei contenuti”, integratori, e naturalmente gli utilizzatori dei servizi, che sono diventati anche i ‘creatori’ di molti dei contenuti scambiati in rete (basti pensare ai contenuti pubblicati sui Social Networks come YouTube, TikTok, Facebook, Twitter)[2]. I CDP sono Società (come Akamai, Limeligth, CDNetwork) che migliorano la qualità dei servizi offerti dagli OTT.

Un ruolo chiave lo hanno anche i ‘regolatori’, cioè  gli enti (come il BEREC[3]) chiamati a dettare le ‘regole del gioco’,  le istituzioni a livello sovranazionale e i Governi, che non solo influenzano direttamente le modalità di sviluppo delle reti (ad esempio attraverso le gare per l’assegnazione delle licenze radiomobile, o piani di finanziamenti pubblici per la realizzazione/estensione della copertura ad ‘alta velocità’ con reti Ultra Broad Band – UBB  e Very High Capacity – VHC), ma che, in alcuni casi, detengono partecipazioni azionarie in particolare in alcuni Telco (a volte con formule tipo ‘golden share’).

La complessità e le dinamiche di Internet sono ulteriormente accresciute dalla sua natura intrinsecamente sovranazionale e mondiale; le Società che ne costituiscono l’ecosistema vanno da soggetti ‘locali’ (come piccoli operatori di connettività regionale) a leader internazionali (come i Big OTT, che forniscono servizi a livello mondiale, o i Carrier Internazionali, che gestiscono le reti intercontinentali) passando da Società che operano a livello nazionale (come i Telco, molti dei quali hanno però anche attività al di fuori dei confini dello Stato di appartenenza).

Come tutti gli ecosistemi, Internet è in costante evoluzione: la forte innovazione nelle soluzioni tecnologiche e nelle modalità di utilizzo si accompagna a modifiche negli equilibri fra i diversi soggetti, fra i quali si ripartisce il ‘valore’ generato dell’ecosistema. Ad esempio, è ben noto[4] che, da alcuni anni, mentre Società che svolgono il ruolo di OTT vedono crescere fatturati e capitalizzazione di borsa, l’opposto succede per moltissimi Telco; analogamente, costruttori che in passato hanno dominato il mercato per alcune tipologie di prodotti sono poi stati surclassati da altri, talvolta basati in aree emergenti del mondo. Ad esempio (Dati McKinsey, rif. nota 19):

  • Nel 2014 la capitalizzazione di borsa delle principali otto Internet Companies e dei 25 principali Operatori di TLC era pari a 3,6 migliaia di miliardi di dollari. Le Internet Companies avevano il 46 per cento e gli Operatori il 54 per cento, ma nel 2019, con una capitalizzazione complessiva pari a 6,8 migliaia di miliardi di dollari, tali valori sono passati rispettivamente a 78 per cento (per le Internet Companies) 22 per cento (per gli Operatori di reti di telecomunicazioni);
  • Nel 2014 su un profitto complessivo di 251 miliardi di dollari. Le Internet Companies avevano il 26 per cento e gli Operatori di reti di telecomunicazioni il 74 per cento, ma nel 2019, a fronte di un profitto di 260 miliardi di dollari, le Internet Companies ne avevano il 60 per cento e gli Operatori di reti di telecomunicazioni il 40 per cento.

Assetti societari e aree di responsabilità degli operatori di rete Telco

Uno dei tanti aspetti connessi a questa continua mutazione sono gli assetti societari e l’area di responsabilità entro cui si muovono i Telco[5]Ovviamente il ruolo dei Telco è fondamentale, in quanto essi devono gestire una ampia parte della infrastruttura fisica sulla quale vive Internet (cavi, fibre, sistemi radio, nodi di rete, eccetera…); allo stesso tempo i Telco devono rigorosamente seguire le ‘regole’ fissate da altri (regolatori, istituzioni), mentre soggetti come gli OTT godono della massima libertà. Non stupisce quindi che attualmente anche nel nostro Paese (come già periodicamente successo in passato), cresca il dibattito relativo a quali opzioni siano più interessanti in particolare per il maggiore Telco nazionale, ovvero per TIM.

Discussioni ‘concrete’ su temi di questo tipo, nel rispetto dei diversi punti di vista, non possono tuttavia avere luogo senza una buona conoscenza dell’oggetto stesso del confronto: come ‘funziona’ un Telco? cosa ‘fanno’ le reti che un Telco gestisce? In che modo e in quale misura la qualità di applicazioni e servizi (che rappresentano la finalità ultima dell’ecosistema) rientra nel campo di azione/responsabilità del Telco e dipende dalle sue scelte, piuttosto che da decisioni e iniziative di altri soggetti come gli OTT o i fornitori di contenuti[6]?

Sono domande che richiedono notevoli approfondimenti, e una conoscenza di aspetti, non solo tecnici, in molteplici aree tematiche; presumere di rispondere a esse anche solo parzialmente nello spazio di un articolo sarebbe illusorio, ma si vuole qui dare un piccolo contributo su alcuni elementi assolutamente ‘di base’, che potranno essere utili per migliorare la comprensione dell’area di problema.

In particolare il presente articolo propone un’analisi, in termini qualitativi e senza approfondimenti specialistici, su cosa voglia dire ‘realizzare reti Internet veloci’, cioè in grado di garantire la qualità necessaria per i nuovi servizi applicativi, partendo dalla identificazione di quali fattori condizionino la qualità e quali opzioni esistano per superare i limiti attuali; questo sarà fatto senza rinunciare alla correttezza: il lettore verrà a conoscenza di alcuni aspetti ‘tecnici’ necessari per una comprensione di problematiche chiave da affrontare quando si vuole analizzare consapevolmente il tema della evoluzione della rete e dei suoi assetti.  Come noto, sullo sviluppo della rete c’è ancora molto da fare, in quanto da un lato restano criticità sulla qualità dei servizi già oggi offerti su Internet (ad esempio in molte aree geografiche la rete non risulta adeguata per i servizi video streaming a qualità full HD, oppure full 4K); dall’altro lato nuovi servizi (come applicazioni di realtà aumentata o di guida autonoma) non sono oggi disponibili sulle reti geografiche (sono realizzati solo su aree limitate, oppure all’interno di un edificio).

Un punto chiave è la comprensione di ‘cosa’ limiti intrinsecamente la qualità dei servizi sulla rete Internet, e quali soluzioni esistano per migliorarla; a questo scopo è importante individuare quali sono le ‘componenti’ di Internet e quali i ‘segmenti della rete’ che maggiormente limitano, oggi, la qualità per gli utilizzatori finali, allo scopo di potersi orientare nel complesso lavoro di definizione delle priorità per gli auspicabili interventi migliorativi.

Servizi Applicativi e Servizi di Rete: due mondi complementari ma distinti

Un primo aspetto fondamentale è la comprensione delle differenze e delle interrelazioni fra Servizi Applicativi e Servizi di Rete; troppo spesso essi vengono implicitamente visti come una sola tipologia, e da questa confusione possono nascere analisi e valutazioni non corrette.

Nell’ecosistema Internet, infatti, esistono due ‘mondi’ nettamente distinti, anche se strettamente interallacciati: il mondo delle ‘infrastrutture di rete’, che possiamo pensare come delle fondamenta, ed il sovrastante mondo delle ‘applicazioni’, costruite su quelle fondamenta (vedi Figura 1). Abbiamo quindi due ‘livelli’ giustapposti.

In basso ci sono tutti gli apparati fisici delle reti fisse e mobili, e la pluralità dei terminali connessi alle reti: le linee di telecomunicazione realizzate con cavi in rame, fibre ottiche, antenne radio, gli apparati di centrale, i router, gli armadi stradali, gli apparati ADSL, 5G, LTE, WiFi, Bluetooth, i telefoni, gli smartphone, i tablet, i PC, gli elettrodomestici ‘smart’ connessi a Internet, eccetera…, eccetera…

Il livello superiore è quello delle ‘Applicazioni’, i programmi software che ‘girano’ nei ‘Server’ sparsi nella rete (a cui ci si riferisce spesso quando si parla di ‘nuvola’, di ‘Cloud’), e il loro corrispettivo software che ‘gira’ nei terminali, ospitati nelle nostre case, uffici, e nelle nostre… tasche: in questo livello alto, in molti casi, le Applicazioni nel terminale (o ‘Client’) dialogano con corrispondenti Applicazioni remote (i ‘Server’), secondo modelli chiamati, appunto, ‘Client-Server’. Quando ad esempio utilizziamo Facebook, il software della App caricata sul nostro terminale si mette a dialogare con il software che gira in uno degli innumerevoli Server della Società Facebook, il quale invia sul nostro terminale le ultime cose pubblicate dai nostri contatti (e lo fa, in alcuni casi, con logiche sue, secondo la sua stima dei nostri interessi…in effetti, in un certo senso, decide lui cosa farci vedere!). Quando usiamo una App di posta elettronica come Yahoo, essa si mette a dialogare con il software nei Server della Società Yahoo e ci fa vedere tutte le mail che ci sono state inviate  (questa volta non ci sono, normalmente, ‘filtri’ che decidono per noi); e se vogliamo spedire noi una mail, il dialogo fra la App nel nostro terminale e il Server remoto ci assiste nella scrittura della mail e si incarica di spedirla in rete, per farla avere alla casella di posta del destinatario (che è in altro Server in rete, non nel terminale del nostro contatto!  Sarà poi cura di tale Server recapitare a destinazione la mail che abbiamo scritto)[7].

Il mondo delle Applicazioni e quello delle infrastrutture di rete lavorano sempre insieme; o meglio: le Applicazioni utilizzano i ‘servizi di trasporto dati’ che vengono messi a disposizione dalle infrastrutture di rete.

Questa distinzione è importante; ad esempio, quando si parla di WEB ci si riferisce al livello delle Applicazioni (in particolare all’universo delle ‘pagine WEB’ che possono essere raggiunte e lette grazie ai browser); invece l’infrastruttura della rete Internet è realizzata con apparati chiamati router (letteralmente “instradatori”), i quali sono collegati fra loro da linee di telecomunicazione.

Il mondo delle Applicazioni e quello delle Infrastrutture di rete sono distinti, separati, e, normalmente, le infrastrutture sono gestite da Società (ad esempio, a livello nazionale, Operatori di TLC come TIM, Vodafone, Wind-3, che, in molti casi, costituiscono anche Società Wholesale internazionali, come Sparkle) differenti dalle Società che si occupano delle Applicazioni (come Google, Apple, Microsoft); questi ultimi soggetti, che operano ‘al di sopra’ della rete, sono chiamati ‘Over The Top, OTT’ e sono considerati al momento i veri ‘signori’ della rete. Naturalmente non mancano eccezioni a questa ‘ripartizione di compiti’ fra Societàad esempio un Operatore di rete come TIM può realizzare Applicazioni specifiche, come TimVision, che permette di accedere ad una libreria di Film, spettacoli, eccetera…; d’altra parte un soggetto come Google ha realizzato importanti reti in fibra ottica.

I Servizi Applicativi – il ‘cielo’

I servizi applicativi sono tutte le Applicazioni e i Servizi che utilizziamo quotidianamente con i nostri terminali fissi e mobili:

  • Sono realizzati grazie alla interazione fra Software che risiede nei ‘Server’ di un Cloud e Software nei terminali degli utenti finali, oppure negli ‘oggetti’ IoT (nei ‘Client’)
  • Sono gestiti end-to-end per ogni collegamento Terminale-Server
  • Utilizzano i sottostanti servizi di rete per la connettività (i cosiddetti livelli ‘bassi’ – 1,2 e 3 – della architettura di protocolli di comunicazione definiti dagli standard internazionali[8]ma operano sui livelli ‘alti’ dei protocolli (livelli 4 e 5 – la ‘Pila di Protocolli Internet’ definisce in tutto 5 Livelli). Questo è un punto forse poco noto, ma fondamentale: quando due entità remote (come una App di musica sul mio cellulare ed il Server in Cloud che mi invia la canzone desiderata) dialogano in rete, lo fanno seguendo un insieme di ‘regole di dialogo’ (i cosiddetti protocolli di comunicazione[9]); in particolare vengono instaurate, fra le due entità, molteplici interazioni contemporanee a diversi ‘livelli’; ciascuna interazione si fa carico di svolgere un determinato tipo di lavoro e tutte insieme permettono lo svolgimento corretto della comunicazione[10]; con riferimento alla  Figura 1  le ‘regole’ dei livelli bassi sono seguite dagli ‘apparati del mare’, mentre le ‘regole dei livelli alti’ valgono in ciò che succede nel ‘cielo’
  • Hanno indicatori di qualità (Key Performance Indicator – KPIend-to-endche dipendono da numerosi fattori quali:
  • la velocità ‘effettiva/utile’ richiesta dal servizio applicativo, chiamata Throughput – TH, e misurata in ‘bit al secondo’ (o meglio, per le applicazioni attuali, Megabit al secondo, Mbit/s). Il TH è diverso, ed è sempre minore, rispetto al Bit Rate ‘lordo’ disponibile a livello di pura connettività trasmissiva; quando si parla di ‘velocità dell’accesso’[11]  tipicamente ci si riferisce alla pura connettività, non al TH.
  • la ‘distanza’ tra Server e terminale, che influenza non solo la velocità richiesta Throughput ma anche i tempi di risposta delle applicazioni; questa ‘distanza’ genera un ‘ritardo’ (e quindi si misura in secondi, o meglio in millisecondi) con cui le informazioni (i flussi di bit, in cui tipicamente i bit sono raggruppati in ‘pacchetti’) trasmesse dal Client arrivano al Server (e viceversa). Essa dipende sia dalla distanza fisica fra il terminale e il nodo di rete a cui è collegato il Server (ritardo di propagazione), sia dagli apparati di rete attraversati lungo il percorso dai flussi di bit; ad esempio, i tempi spesi nelle ‘code’ dei router della rete, che sono tanto maggiori quanto maggiore è il traffico complessivo lungo il percorso, proprio come succede quando in automobile siamo ritardati dal traffico, anche se la nostra destinazione non fosse fisicamente molto distante. Per avere una idea di massima, può essere utile sapere che ritardi di alcune decine di millisecondi possono pregiudicare fortemente la qualità di servizio di alcune Applicazioni.

I Servizi di Rete – il ‘mare’

I servizi di rete, forniti dalle infrastrutture di rete fissa e mobile, garantiscono il ‘trasporto gestito’ delle informazioni sulla rete, in modo da permettere lo scambio dei flussi dati fra i ‘punti terminali’ della rete. L’utente finale non interagisce direttamente con tali servizi: sono i terminali (o meglio le Applicazioni ospitate nei terminali) che lo fanno.

I Telco offrono essenzialmente Servizi di Rete, che gestiscono la connettività (come già ricordato su Internet tutto il traffico viene scambiato in forma di ‘pacchetti di bit’, o ‘pacchetti IP’) e sono relativi ai ‘livelli bassi’ della architettura dei protocolli di comunicazione. Non è questa la sede per approfondire le funzioni di ciascuno dei cinque livelli della ‘pila protocollare’ Internet, ma si può ricordare (con una certa approssimazione) che il ‘livello 1’ è relativo alla trasmissione fisica dei segnali sui cavi o con le onde radio; il ‘livello 2’ cura che le sequenze di bit siano ordinatamente trasmesse e ricevute, mentre al ‘livello 3’ i bit vengono raggruppati in ‘gruppi’ (qui si creano i cosiddetti Pacchetti di bit), e le funzionalità di tale Livello fanno in modo che i singoli ‘pacchetti’ possano attraversare la rete, ‘saltando’ da un nodo all’altro secondo certi criteri, sino ad arrivare alla destinazione desiderata.  

Indicatori di qualità per i Servizi di Rete

I principali indicatori di qualità per i Servizi di Rete sono:

  • Bit Rate disponibile [misurato in Mbit/s] nell’ora di punta. Il Bit Rate è la capacità trasmissiva disponibile per uno specifico servizio applicativo, che condivide le risorse di rete (come router e collegamenti tra i routercon molti altri servizi applicativi
  • Indicatori legati alla ‘distanza’ tra il server che offre il servizio e i terminali degli utenti finali end user (o gli ‘oggetti’). Questi indicatori sono
  • Latenza [misurata in millisecondi]: il tempo necessario per recapitare un (breve) pacchetto dati verso una determinata destinazione[12]
  • PL [%] Packet Loss, misurato come percentuale dei pacchetti dati persi rispetto a quelli inviati.

I Servizi di Rete sono di svariate tipologie, ed è molto complesso sia realizzarli, sia garantirne i livelli di qualità necessari, a causa da un lato della complessità intrinseca delle reti (che, come una fitta ragnatela, ricoprono i territori su enormi distanze, ma arrivando capillarmente alle singole abitazioni ed alle singole persone), dall’altro dalle condizioni continuamente mutevoli del traffico.

Reti dei Telco

Sono le infrastrutture della rete internet che gestiscono il trasporto dei dati dai terminali degli end user (o gli ‘oggetti’) ai Server, che offrono i servizi. I Server che sono, nella maggior parte dei casi, nelle reti degli OTT e, in alcuni casi, nel Core delle reti dei Telco. Le reti dei Telco sono costituite da una molteplicità di apparati di natura eterogenea distribuiti sulle aree geografiche di grande, media e breve distanzarouter (detti anche ‘nodi di commutazione’ (in cui i flussi dei bit vengono smistati verso le destinazioni appropriate), cavi in rame, in fibra, antenne, ma anche tutti i sistemi di gestione e controllo, centralizzati e distribuiti, necessari per garantire in ogni istante lo scambio sicuro, affidabile, efficiente della enorme quantità di informazione fra i terminali e i Server.

Nel mondo di Internet il punto chiave, già richiamato, è che tipicamente i terminali non dialogano direttamente fra loro, ma con i ‘Server in Cloud’ (normalmente gestiti dagli OTT), i quali ospitano il Software con cui interagiscono le Applicazioni ‘Client’ dei terminali.

Le reti dei Telco:

  • Collegano gli end user e gli ‘oggetti’ alle reti degli OTT in punti di interconnessione dedicati (in alcuni casi nel segmento ‘Core’ delle reti dei Telco[13]), oppure in centri specializzati denominati IXP[14]; le reti degli OTT a loro volta si fanno carico del collegamento con i Server degli OTT (in Cloud).
  • Sono focalizzate sulla gestione della connettività, sul ‘trasporto’ dei dati, mentre, come detto, la maggior parte dei servizi applicativi è, di fatto, offerta dagli OTT tramite i propri Server

Nelle reti tradizionali:

  • la connettività ‘end user-Core’ è realizzata con cosiddetti ‘tunnel di Livello 2’ (si tratta di ‘canali’ chiusi; i dati entrano da una estremità del tunnel e fuoriescono alla estremità opposta), lungo il percorso ‘end user-Core’ le informazioni non possono essere estratte in modo ‘semplice’ e quindi ‘elaborate’. Questa è una delle ragioni che portano a posizionare i Server nel Core delle reti dei Telco, (nonostante essi siano più ‘lontani’, dagli end user e dagli oggetti). I nodi di Core sono, infatti, in un numero molto minore rispetto ai siti detti Point of Presence (POP) di accesso delle reti fisse e mobili. Questa scelta non è ottimale in quanto al crescere della distanza peggiorano le prestazioni delle applicazioni;
  • la connettività con le reti degli OTT è di ‘Livello 3’. In generale la connettività tra tutte le reti Internet (ogni singola rete appartenente ad Internet è chiamata ‘autonomous system’) è sempre realizzata a Livello 3. Anche all’interno di un autonomous system la connettività è realizzata a Livello 3 e questo consente di estrarre ed elaborare informazioni in modo ‘semplice’ in ogni nodo della rete, laddove risulti più conveniente.:
  • vengono, opzionalmente, utilizzati meccanismi di priorità e di banda riservata per la gestione della qualità del trasporto di specifici flussi di dati; tali meccanismi, in molti casi, non consentono miglioramenti sufficienti della qualità, e possono determinare peggioramenti delle prestazioni di altri flussi di dati (problematiche di Net Neutrality[15])

Reti degli Over The Top (OTT) e dei Content Delivery Provider (CDP)

Gli Over The Top (e i Content Delivery Providergestiscono a livello mondiale i servizi applicativi, che sono, in generale, completamente separati dai servizi di rete e utilizzano servizi di connettività offerti da altri player (International Wholesaler). In alcuni casi, gli OTT hanno anche proprie reti (come Google) e gestiscono quindi direttamente sia la connettività ai ‘livelli bassi’ (servizi di rete), che le comunicazioni ai ‘livelli alti’ (servizi applicativi).

Le reti degli OTT/CDP si collegano alle reti dei Telco, tipicamente al segmento Core delle reti dei Telco, dove nelle reti tradizionali è visibile il Livello 3, che è necessario per l’interconnessione.

In termini molto generali, le reti degli OTT/CDP:

  • collegano Cloud/Server alle reti dei Telco (le quali, a loro volta, si fanno carico dei collegamenti da/verso i terminali degli utenti finali).
  • sono sviluppate con un ‘focus’ sulla gestione delle Applicazioni;
  • gli OTT gestiscono la qualità delle Applicazioni lungo il percorso dal Cloud ai punti di interconnessione con le reti dei Telco:
    • garantendo, caso per caso, il bit rate necessario per uno specifico servizio
    • riducendo, ove possibile, la ‘distanza’ Terminale-Server, grazie a ‘Cloud data center intermedi’ posti tra gli ‘hyperscale data center’ (che sono collocati a livello continentale e a migliaia di chilometri dagli end user) e i punti di interconnessione con le reti dei Telco. I Cloud interconnessi con le reti dei Telco sono tipicamente collocati all’EDGE delle reti degli OTT/CDP e sono le piattaforme di Edge Cloud Computing (ECC[16]) per gli OTT/CDP. Ridurre tale ‘distanza’ è importante perché permette di ridurre la Latenza (che, come detto, influenza in modo determinante le prestazioni: per garantire alta qualità è necessario che la Latenza Terminale-Server sia ‘piccola’).

La distribuzione delle applicazioni e dei contenuti consente agli OTT di garantire la qualità richiesta dalle diverse applicazioni fino ai punti di interconnessione con le reti dei Telco;

  •  
  • la connettività è di Livello 3 anche all’interno di una singola rete (autonomous system); questo permette la massima flessibilità nella gestione del traffico e nell’utilizzo di piattaforme per il miglioramento delle prestazioni;
  •  
  • per migliorare la qualità end-to-end oggi gli OTT propongono anche soluzioni con piattaforme ECC collocate in prossimità della sede dell’enduser, o nella sede stessa dell’enduser (ad esempio Outpost di Amazon WEB Services[17]); si tratta di micro-data center posizionati ancora più vicini all’end user (riducendo quindi al minimo la Latenza);
  •  
  • gli OTT hanno cominciato a utilizzare in modo massivo la distribuzione di applicazioni e contenuti per migliorare la qualità dei servizi applicativi dalla fine degli anni Novanta. Questo ha consentito l’enorme sviluppo dei servizi offerti dagli OTT e la crescita di ‘valore’ degli OTT

Le prestazioni dei servizi applicativi

Le prestazioni di tutte le Applicazioni utilizzate dagli utenti finali (persone, oppure ‘oggetti’ IoT) dipendono dalle caratteristiche del collegamento complessivo end-to-end; quindi, dipendono sia dalle reti degli OTT che da quelle dei Telco:

  1. Le reti di OTT/CDP (di quasi tutti gli OTT e certamente dei più grandi) garantiscono la qualità richiesta dai servizi applicativi, fino ai punti di interconnessione con le reti dei Telco. Gli OTT, infatti, hanno modelli di business che si basano totalmente sulla soddisfazione del cliente; per questo, in generale, realizzano soluzioni, nei Cloud e sulle reti di loro competenza, che non limitano la qualità dei servizi.
  2. Le reti dei Telco sono oggetto di precise normative (il cui rispetto è monitorato costantemente da Authority pubbliche, come AGCOM in Italia), anche per i diversi parametri di qualità che riguardano i servizi di rete (connettività), ma i parametri sono, in molti casi, relativi al solo segmento di accesso e non considerano il collegamento end-to-end (dai terminali ai punti di interconnessione con le reti degli OTT). Oltre a questo, i parametri non sono agli indicatori delle applicazioni (Throughput e parametri relativi alla ‘distanza’).
  • Le reti dei Telco non hanno ancora, in molti casi, realizzato piattaforme di ECC. L’Edge delle reti dei Telco è tipicamente il nodo di accesso della rete fissa (chiamato Point Of Presence – POP), oppure il nodo di aggregazione delle stazioni radio base della rete mobile (spesso esso coincide con il POP di accesso della rete fissa). Le Piattaforme Edge Cloud Computing (ECC) sono al momento realizzate (tranne poche eccezioni, come Rakuten in Giappone) solo in un limitato numero di POP di accesso nelle reti di alcuni Telco, poiché per poter utilizzare Piattaforme ECC è necessaria la ‘visibilità del Livello 3 della pila di protocolli IP’. Per ottenerla si devono distribuire alcune delle funzioni del Core della rete, con un notevole incremento della complessità, causato anche dal fatto che per le reti dei Telco tipicamente non esistono (oppure, anche se definiti, non sono utilizzati) standard per l’interconnessione dei ‘componenti’ del Core e della Radio Access Network (RAN), ovvero la parte di una rete mobile che collega i dispositivi degli utenti finali, come gli smartphone, al cloud. Anche il trasporto basato su tunnel di Livello 2 (citato sopra) aggiunge ulteriori criticità/complessità.
  • L’attuale architettura delle reti dei Telco (insieme ad altri fattori) limita intrinsecamente la qualità dei servizi applicativi, che hanno, in generale, un TH ‘effettivo’ molto minore del Bit Rate disponibile sulle reti Ultra Broad Band (UBB) e Very High Capacity (VHC) (su questa problematica, fondamentale, si rimanda ad un articolo divulgativo, che riporta esempi quantitativi, i cui riferimenti sono riportati nella nota a piè pagina[18]). Inoltre questo ha limitato la monetizzazione delle reti UBB e VHC dei Telco generando criticità in termini di perdita di valore per i Telco (per approfondimenti su questa complessa e cruciale problematica si rimanda alla letteratura[19], che fornisce dati quantitativi sulla perdita di Valore dei Telco, verificatasi in molti casi con la realizzazione delle reti ultra-veloci, con una progressiva riduzione del ROIC – Ritorno del Capitale Investito, che è arrivato ad essere confrontabile o addirittura  inferiore al Weighted Average Cost of Capital (WACC), ovvero il costo medio ponderato del Capitale che l’impresa versa ai suoi azionisti e creditori.

Vantaggi offerti dalle piattaforme Edge Cloud Computing ECC nelle reti dei Telco

Una delle principali linee di evoluzione delle reti dei Telco, realizzabile concretamente già nel breve/medio termine, per migliorare le prestazioni, soddisfare i bisogni degli utenti finali, contenere i costi infrastrutturali e abilitare ricavi incrementali è l’installazione di piattaforme Edge Cloud Computing (ECC).

Il termine Edge Cloud Computing fa, trasparentemente, riferimento a contesti in cui la Elaborazione (…e lo storage…) avvengono non solo nel ‘Cloud’, ma anche in luoghi fisici denominati ‘Edge; l’Edge è, in generale, il ‘bordo’, la ‘periferia’ della Rete, qualunque luogo situato a ‘minore distanza’ dai terminali e dai sistemi dell’Utente Finale rispetto ai Server del tradizionale Cloud.  La novità quindi, rispetto alle architetture Cloud ormai consolidate da tempo, consiste precisamente nella componente ‘decentralizzata’ del ‘processing’. 

L’Edge Cloud Computing rappresenta una realtà in crescita in molteplici settori dell’Information & Communication Technology (ICT). Tutte le organizzazioni internazionali degli Operatori di telecomunicazioni (GSMA, 3GPP, ETNO, ETSI), hanno assunto una chiara posizione sull’Edge Cloud Computing, che è considerato oggi uno dei pilastri dell’evoluzione dell’architettura delle reti fisse e mobili dei Telco, e può essere realizzato nella rete dei Telco in tempi relativamente brevi[20].

Edge Cloud Computing che si colloca nell’ampio settore di mercato del Cloud Computing, presenta tassi di sviluppo ed innovazione estremamente significativi. Molteplici studi, pur nella ampia variabilità delle stime, sostanzialmente concordano sulle tendenze di diffusione delle piattaforme ECC. Ad esempio uno studio[21]  sul periodo 2022-2027 stima un Compounded Average Growth Rate (CAGR), ossia un tasso annuo di crescita composto, di quasi 45 per cento per l’Edge Computing Market, valutato complessivamente pari a oltre 5,2 miliardi di dollari nel 2021; un’altra ricerca stima per tale mercato oltre 87 miliardi al 2026[22].

L’Edge Cloud Computing ha ormai dimostrato, nei contesti in cui è già utilizzato, di risultare particolarmente utile e spesso indispensabile in tutti gli scenari in cui dispositivi ‘periferici’ (Client di natura anche estremamente eterogenea: Stazioni di Lavoro, PCSmart Devices, Dispositivi IoT, eccetera) devono interagire, per qualche finalità operativa, con Server ‘centralizzati/condivisi’.  Esempi tipici comprendono il Computation Offload ovvero il trasferimento di attività computazionali ad alta intensità verso Cloud Server, l’interazione Real Time di App. su terminali con Dati che risiedono in Unità di Storage condivise, la ripartizione ottimizzata di funzioni di elaborazione e/o memorizzazione fra Dispositivi d’Utente e Server in Rete, come in applicazioni di Mixed-Reality, eccetera).

L’importanza dell’Edge Cloud Computing è anche testimoniata, fra l’altro, dall’essere entrato a pieno titolo nei listini di offerta delle Aziende Leader internazionali dei Servizi Cloud, come Amazon, Microsoft, Google, e nelle offerte dei principali fornitori di Servizi di Telecomunicazione nel mondo, fra cui ad esempio ATT, Verizon, Vodafone, China Mobile, eccetera (come è immediato verificare visitando le pagine WEB di queste Aziende, in particolare le pagine dedicate alle offerte per Clientela Business[23]).

La stessa Associazione Global System for Mobile Communications (GSMA) promuove da qualche anno importanti progetti e iniziative di Telco Edge Cloud[24], che vedono la partecipazione attiva dei principali operatori (fra cui Tim, Vodafone, eccetera). Degno di attenzione è l’impegno che la Cina ha deciso su questa tecnologia, in particolare in relazione ai settori del 5G e dell’IoT, che l’ha portata a livelli di leadership mondiale[25].

In generale, risulta conveniente ricorrere all’ Edge Cloud Computing quando è fondamentale:

  • operare in condizioni di bassissima latenza fra Device e Server
  • contenere i costi e le prestazioni della connettività di lunga distanza

I principali vantaggi ottenibili inserendo l’Edge Cloud Computing nelle architetture di rete dei Telco sono:

  1. Miglioramento delle prestazioni dei servizi applicativi.
  • Monetizzazione delle reti UBB/VHC. Il miglioramento della qualità dei servizi sulle reti dei Telco abilita infatti ricavi incrementali sia dagli end-user/oggetti, che dagli OTT (two sides business model).
  • Riduzione dei costi della rete (Capex e Opex), che si ottiene distribuendo contenuti e applicazioni nei POP di accesso. L’ECC riduce infatti il carico di traffico sulla parte delle dorsali ‘backbone’ delle reti dei Telco e quindi riduce il costo della rete dal POP di accesso all’interconnessione con gli OTT/CDP. In particolare:
  1. Il saving, per un nodo di accesso nel quale si inserisce una piattaforma ECC, si ottiene se la riduzione del costo della rete è maggiore del costo della piattaforma ECC;
  2. Per ridurre i costi della piattaforma ECC si può utilizzare lo sharing della piattaforma tra Telco, oppure l’acquisto da Neutral Host (operatori Wholesale) di servizi IaaS (Infrastructure as a Service) e PaaS (Platform as a Service).
  • La monetizzazione da un lato e la riduzione dei costi delle reti UBB/VHC dall’altro, consentono di migliorare gli indicatori economico-finanziari dei Telco.

Oggi sono disponibili sul mercato molteplici soluzioni ‘proprietarie’ per piattaforme Edge Cloud Computing ECC (in effetti solo parzialmente interoperabili), ma sono anche stati sviluppati standard internazionali. Fra tutti, va citato lo standard Multiaccess Edge Computing (MEC[26]).

Il MEC, che era nato come Mobile Edge Computing, è un concetto di architettura di rete definito dall’European Telecommunications Standards Institute (ETSI) concepito per rendere disponibili le capacità di cloud computing nel segmento di accesso delle reti cellulari e, più in generale, alla periferia di qualsiasi rete.

L’idea alla base di MEC è che eseguendo applicazioni e attività di elaborazione più vicine ai dispositivi d’utente, si ottengono importanti miglioramenti per le prestazioni delle applicazioni e, in molti casi, si riduce il costo della rete poiché si riduce il traffico nel segmento di rete tra le piattaforme ECC e i punti di interconnessione con le reti degli OTT.

La tecnologia MEC è progettata per realizzare piattaforme Edge Cloud Computing nei POP delle reti d’accesso fisse e mobili, presso le stazioni base cellulari o altri nodi periferici, e consente un’implementazione flessibile e rapida di nuove applicazioni e servizi per i clienti.

Combinando elementi di tecnologia dell’informazione e reti di telecomunicazioni, MEC consente in particolare agli operatori di aprire la propria rete di accesso (fissa e radio) a terze parti autorizzate, come sviluppatori di applicazioni e fornitori di contenuti.

Commenti sull’evoluzione della rete e dei servizi offerti dai Telco

Fra le ‘raccomandazioni’ che possono essere proposte ai Telco per favorire l’evoluzione verso una rete Internet ‘veloce’, in grado di offrire migliore qualità per i servizi applicativi oggi disponibili e di consentire l’offerta di nuovi servizi che richiedano migliori prestazioni[27], particolare attenzione va data a:

  • Introduzione in rete, in tempi brevi, di piattaforme ECC che possono essere realizzate e gestite anche da Neutral Host; a questo fine, appare importante per i Telco acquisire ‘know how’ sull’ECC e definire collaborazioni con altri player per l’installazione e l’utilizzo (preferibilmente ampiamente condiviso) di apparati ECC nella parte periferica delle reti dei Telco.
  • Imporre ai propri Vendor tradizionali interfacce aperte tra tutti i componenti della rete (RAN, Core delle reti mobili e fisse, che stanno convergendo).
  • Realizzare la effettiva separazione dell’HW dal SW e la diffusione della virtualizzazione delle funzioni di rete (già iniziata).
  • Definire modelli per la valutazione del miglioramento delle prestazioni per i servizi applicativi, dei costi delle piattaforme ECC e dei risparmi sui costi di rete, che sono necessari per gestire efficacemente l’ECC Location Problem (‘quando’ e ‘dove’ realizzare piattaforme ECC).
  • Trasformare progressivamente le modalità con cui vengono realizzati i servizi di connettività migrando verso una rete di Livello 3, indispensabile per avere flessibilità nella gestione del traffico e dei servizi, e per semplificare l’installazione di piattaforme ECC e di altri apparati innovativi in rete.

Commenti sulla regolamentazione per le reti Ultrabroadband (UBB) e Very High Capacity (VHC)

Le Telecomunicazioni sono un settore fortemente condizionato dalla regolamentazione; pertanto, qualunque strategia di medio-lungo periodo non può prescindere da una fattiva collaborazione dei Telco con le Authority, al fine di rendere effettivamente possibile, ed economicamente sostenibile, l’evoluzione della rete; ad esempio:

1.Le Authority di regolamentazione europee (anche AGCOM) prevedono al momento solo finanziamenti per completare la copertura delle reti d’accesso UBB/VHC, per realizzare “reti di ritorno” ‘backhaul’ tra la dorsale e sottoreti ai margini in fibra e data center regionali fuori dalle reti dei Telco, ma non danno indicazioni/obblighi per migliorare la qualità dei servizi applicativi sulle reti dei Telco, che oggi costituiscono, in alcuni casi, il collo di bottiglia, e non prevedono finanziamenti per la realizzazione di piattaforme ECC. Oltre a questo, c’è una generale focalizzazione sulle reti d’accesso (secondo l’assunzione, in realtà non corretta, ‘Accesso con alto bit rate = rete Internet veloce’) e forniscono, in molti casi, indicazioni parziali sul Bit Rate disponibile (ad esempio senza riferimenti alle condizioni, mutevoli, in cui tale Bit Rate debba essere disponibile, come l’ora di punta, e senza considerare adeguatamente la necessità di requisiti end-to-end, che, per le reti dei Telco, devono essere relativi al segmento di rete che collega i terminali e gli ‘oggetti’ ai punti di interconnessione con le reti degli OTT).

2. Le Authorityper realizzare reti UBB/VHC che non costituiscano il collo di bottiglia per le prestazioni dei servizi applicativi (limitando quindi la crescita economica e sociale che la rete Internet consente potenzialmente di ottenere), dovrebbero fornire chiare indicazioni/definizioni su aspetti quali:

  • Key Performance Indicators (KPI) end-to-end dei servizi applicativi (come, ad esempio, la differenza bit rate/throughput, il minimum bit rate disponibile per cliente attivo nell’ora di punta e necessità di distribuire applicazioni e contenuti per migliorare le prestazioni, ridurre i costi di rete e abilitare ricavi incrementali)
    • Relazioni fra i servizi applicativi e i servizi di connettività
    • Miglioramento dei servizi applicativi utilizzando piattaforme ECC
    • Definizione dei valori di riferimento per gli indicatori KPI dei principali servizi applicativi

Auspicabilmente le Authority dovrebbero prevedere (per la parte di loro competenza) finanziamenti per le piattaforme ECC e fornire indicazioni/supporto normativo sulle modalità di realizzazione delle piattaforme ECC anche diverse dall’approccio di produzione interna ‘make’, che è stato tradizionalmente seguito dai Telco.

Leggi le altre notizie sull’home page di Key4biz