La scorsa volta ci siamo lasciati parlando di CDMA, il terzo e più efficiente metodo per multiplare, ovvero far convivere sullo stesso canale fisico, più comunicazioni, senza che esse interferiscano tra loro. Entriamo stavolta nel possibile futuro dell’attuale GSM, e vediamo il suo più probabile successore: la PRMA, una versione molto interessante e ottimizzata di CDMA, ottima per l’era del multimediale.
La CDMA, dunque, è la tecnica del futuro; essa è utilizzata non solo dalla rete Packet via radio, ma anche su tutte le reti dati di computer al mondo, Internet inclusa.
Non so se vi siete resi conto del fatto che, per quanto riguarda le comunicazioni telefoniche, il punto di forza della CDMA è la possibilità per ciascun canale di comunicazione di riutilizzare i tempi morti delle altre (silenzi, ridondanze, interruzioni). Il punto debole è, a parte la complessità, il rischio di conflitti che riducono la capacità effettiva del canale, fino a renderlo inutilizzabile per tutti superato un certo affollamento. Inutilizzabile, si badi bene, non solo per la nuova comunicazione che tenta di inserirsi sul canale, ma anche per quelle già esistenti e che vedono deteriorarsi la connessione fino a cadere. In pratica, durante la telefonata si udiranno sempre più attimi di silenzio nella voce dell’interlocutore, fino a rendere la voce del tutto incomprensibile.
Riguardo alla complessità, si tratta di un problema sempre talmente presente nello sviluppo delle nuove tecniche, che si rischia di dimenticarselo dandolo per scontato. Sviluppare un nuovo standard di telefonia cellulare, ad esempio, richiede un enorme sforzo di ingegnerizzazione, e competenze ai livelli più diversi che devono integrarsi il più possibile. Si parte da studi teorici e calcoli statistici, basandosi sulle caratteristiche dell’emissione che si pensa di utilizzare (tipo di modulazione e di multiplazione, frequenze utilizzabili, tipo di correzione di errore) e sui tantissimi parametri per ottimizzarla (velocità di trasmissione, durata dei "pacchetti" trasmessi, uso di multicanale, compressione e codifica dei dati), in base anche alle specifiche (qualità audio, resistenza ai disturbi, ritardo di trasmissione, livello del segnale, numero di utenti, funzionalità aggiuntive, segnali di supervisione e controllo); lo studio dovrà tenere conto della o delle bande di frequenza su cui inserire il sevizio, e gli altri servizi con cui esso dovrà convivere senza confliggere. Si passa poi alla realizzazione di prototipi di apparecchiature base e terminali, con tutti i problemi di progettazione comportati dallo sviluppo di una sezione analogica a radiofrequenza (e le frequenze si fanno sempre più alte, con maggiori complicazioni elettriche e meccaniche), e di una parte digitale che comprende algoritmi e software a loro volta frutto di studi teorici; segue una sperimentazione pratica, che ha lo scopo di verificare la rispondenza dei risultati statistici ottenuti con quelli attesi; ed in questa fase possono saltare fuori problemi di qualsiasi genere, da interferenze non previste a problemi di installazione dei siti fissi, a incompatibilità di standard, a problemi politici. Alla fase sperimentale segue la fase di avvio commerciale, che presenta problemi di altri ordini ma altrettanto complessi. È quindi necessario rendersi conto che lanciare un nuovo e più efficiente standard ha dei costi iniziali spaventosi, per fortuna poi ripagati dalla enorme quantità di clienti potenziali. È altrettanto facile capire perché standard più aperti, che possono essere aggiornati senza necessità di ripartire da zero, hanno immediatamente la meglio rispetto ad altre soluzioni.
GLI SVILUPPI DEL GSM
Dopo questo doveroso excursus, occupiamoci più da vicino di tematiche più consone al tono della rubrica. La multiplazione CDMA generica, come abbiamo visto, presenta la caratteristica di saturarsi in maniera abbastanza rapida (per la precisione esponenzialmente) all’aumentare delle stazioni sul canale. Questo vuol dire che in caso di sovraffollamento tutte le comunicazioni ne hanno a soffrire, anche se nessuna viene totalmente a bloccarsi. Questo è dovuto alle possibilità di conflitto tra le stazioni: immaginiamo infatti che due "terminali" portatili si trovino nei dintorni di un’unica stazione base, ma non si ricavano tra loro. Esse potrebbero iniziare a trasmettere il loro pacchetto contemporaneamente; la stazione base, ricevendo i due segnali sovrapposti, non riuscirebbe a decodificare nulla, e quindi ne richiederebbe la ritrasmissione a entrambe le stazioni. Se esse, trascorso l’intervallo stabilito, ricominciano a trasmettere insieme, non c’è verso di uscirne fuori. Per questo, in genere i protocolli CDMA (ed anche il Packet Radio) prevedono l’inserimento di un ritardo casuale sulla ritrasmissione, in modo da ridurre al minimo la probabilità di un ripetersi del conflitto. Sta di fatto che la probabilità che esso si verifichi tra due stazioni qualsiasi è grosso modo esponenziale rispetto al numero delle stazioni in attività su quel canale.
POTENZA DELL’ARBITRAGGIO
Poiché l’uomo è un essere geniale, ha pensato bene che nel caso di una rete cellulare, ossia con una stazione base e diversi terminali intorno che dialogano solo con quest’ultima, esiste la possibilità per la prima (che sicuramente tutte le altre riescono a ricevere) di effettuare un "arbitraggio". Ecco come nasce l’idea della PRMA, ossia "Packet Reservation Multiple Access", o "multiplazione a prenotazione di pacchetto". L’idea è di cercare di incorporare i vantaggi della TDMA in una tecnica CDMA.
Cominciamo a dividere i pacchetti in "trame" temporali di durata fissa, come nella TDMA (ricordo nella CDMA in generale la durata del pacchetto è qualsiasi). Qui devo richiamare anche la spiegazione della DSI vista la volta scorsa: come ricorderete, ogni volta che parliamo il nostro telefono inizia la trasmissione dei dati vocali, e la interrompe non appena smettiamo. Dunque, supponiamo che una certa persona abbia finito di parlare, e dunque il suo terminale invia l’ultimo pacchetto di quel talk spurt, segnalando che dal prossimo turno non avrà più bisogno di trasmettere dati. La stazione base prenderà atto che quella particolare finestra temporale si è liberata, e nell’emissione immediatamente successiva avvertirà tutte le stazioni che potranno prenotare la finestra libera, come se indicesse un’asta. All’arrivo della finestra vuota, tutte le stazioni che nel frattempo avranno accumulato dati da spedire trasmetteranno una richiesta di prenotazione; questo è l’unico momento in cui potrà avvenire un conflitto. In genere almeno un terminale riuscirà a prevalere, facendosi sentire dalla stazione base; essa darà conferma durante la trasmissione immediatamente successiva a quel terminale dell’avvenuta prenotazione; alle altre non resta che ritentare la prenotazione alla prossima finestra disponibile.
Come si può vedere, questa tecnica ha la capacità di ridurre notevolmente il numero di conflitti e di relegarli ad istanti limitati e controllati; rispetto alla CDMA "anarchica", il vantaggio è evidente.
Inoltre, essa nasce già perfettamente integrata con la tecnica DSI, permettendo di avvantaggiarsi della relativa tecnica di compressione in modo automatico. Quali sono invece gli svantaggi? Come abbiamo già detto, sicuramente la complessità: se pensate a quante decine o centinaia di volte debba avvenire il processo di prenotazione nel corso di una normale conversazione telefonica, vi renderete conto di quanto debba essere "robusto" il relativo algoritmo; altro scotto da pagare è inoltre un certo calo di efficienza rispetto alla CDMA "tradizionale" in situazioni di basso affollamento: infatti, la divisione in finestre comporta l’adozione di bande di sicurezza temporale (una "testa" ed una "coda" per evitare sovrapposizioni di stazioni leggermente sfasate), emissione di segnali di sincronizzazione prima dei dati veri e propri, e la necessità di occupare un’intera finestra anche se i dati da trasmettere la occupano solo parzialmente. Si tratta di svantaggi tollerabili, se il risultato è un netto aumento della capacità massima. E, a giudicare dal continuo aumento di vendite dei telefoni cellulari di ogni tipo, i 50 milioni di utenti attuali e 200 previsti a fine secolo, ne avremo bisogno.
LE PROSSIME GENERAZIONI
Vorrei infine darvi alcune idee di quali saranno i prossimi sviluppi della telefonia cellulare, in base agli attuali programmi in via di definizione. Il prossimo passo sarà, con ogni probabilità, l’introduzione della rete DCS-1800, di cui l’attivazione commerciale è prevista a partire dal 1° gennaio del 1998. Si tratta in pratica della pura e semplice trasposizione della rete GSM attuale su una nuova banda di frequenza, ossia 1800 MHz anziché gli attuali 900. Lo scopo è, nè più e nè meno, l’aumento di capacità dovuto alla maggiore disponibilità di canali. Le specifiche della Fase 2+ dello standard GSM, emesse dalla European Telecommunications Standards Institute (ETSI), che ne cura l’aggiornamento e l’emissione, prevederanno tra l’altro l’utilizzo di telefoni GSM in grado di operare su entrambe le bande. Chi saranno i gestori italiani di questa nuova rete? Secondo la legge, i due attuali gestori (TIM e Omnitel), più un terzo gestore che dovrebbe entrare in campo alla fine di quest’anno.
Già utilizzato ma molto meno famoso è un servizio denominato DECT (Digital European Cordless Telephone), che dovrebbe coprire le esigenze più locali di trasmissione vocali e dati. Si tratta di un sistema sempre appartenente alla famiglia delle emissioni TDMA che dovrebbe però offrire velocità di trasmissione maggiori su distanze inferiori (da 24 a 552 KBPS per distanze fino a 1 o 2 Km.). DECT, come dice il nome, è lo standard dei "cordless", o dei telefoni senza filo. In realtà, le sue potenzialità vanno ben oltre: come telefono mobile da utilizzare in azienda, o tra un gruppo chiuso di utenti, o come alternativa ai cellulari "normali" in aree cittadine, in cui la densità di utenti è molto alta, e perfino come base per le CLAN (Cordless LAN, ovvero reti di computer senza fili). Ci sono molte probabilità che gli standard DECT e GSM confluiscano, con l’introduzione nello standard GSM delle cosiddette "microcelle", piccolissime aree di copertura urbana analoghe a quelle del DECT, mentre il DECT verrà modificato per aumentare la copertura.
La confluenza potrebbe anche avvenire nel nuovo standard in corso di definizione negli Stati Uniti che prende il nome di PCS-1900, che come intuibile si svolgerà in banda 1900 MHz. PCS è la sigla di Personal Communication Service, un servizio generico che dovrebbe per l’appunto coprire tutte le esigenze viste sopra, a corto ed a lungo raggio: la libertà di movimento e la flessibilità di questo standard dovrebbero essere elevatissime. Lo standard usato per il servizio PCS potrà essere di tipo GSM (DCS) oppure uno dei nuovi protocolli CDMA in corso di sperimentazione.
Ed ancora più avanti? Per oltre l’anno 2000 esistono già due standard cosiddetti delle "terza generazione", che per fortuna dovrebbero essere compatibili tra loro: l’UMTS e IMT2000, già FPLMTS. UMTS (Universal Mobile Telecommunications System) è lo standard in corso di sviluppo da parte del consorzio RACE, che dovrebbe
IMT2000 (International Mobile Telecommunications 2000), già noto come FPLMTS (Future Public Land Mobile Telecommunications System) è l’equivalente sviluppato dalla ITU, l’Unione Internazionale delle Telecomunicazioni.
Lo scopo, estremamente futuribile, è di fornire una infrastruttura integrata di telecomunicazioni che abbracci tutte le possibili forme di comunicazioni con qualunque mezzo fisico. Così, sarà possibile utilizzare la stessa rete per voce e dati, da parte di telefoni fissi, telefoni mobili, computer e cercapersone, per tutti gli utilizzi che chiamiamo "multimediali": posta elettronica, suoni, dati, e perfino immagini fisse ed in movimento. Tali capacità saranno assicurate da una velocità massima di ben 2 megabit al secondo, mentre la copertura di ogni luogo della terra è assicurata grazie a stazioni terrestri e, in zone irraggiungibili, da satelliti. Ogni persona avrà quindi un proprio identificativo universale d’utente grazie al quale sarà raggiungibile in ogni luogo della terra, mentre la rete incorporerà le necessarie risorze per trasformare i dati da un formato all’altro. Questa infrastruttura sarà utilizzabile anche per realizzare reti "private virtuali", ovvero connessioni tra un gruppo di utenti senza collegamenti all’esterno.
Si tratta di una sfida formidabile, oltre che una rivoluzione al nostro attuale modo di vivere.
73 ed alla prossima de Mario