La “tirannia” dei contenuti e i processi di concentrazione
Come luogo di premessa le prime righe non possono non contenere il riconoscimento di cosa significhi ormai la rete per una parte molto rilevante della popolazione mondiale, vale a dire un tesoro di innegabile vivacità culturale e intellettuale così come di infinita utilità, espressività e intelligenza.
Detto ciò, dobbiamo trovare un momento per riflettere su come questo insieme di contenuti è fisicamente supportato e sul modo in cui queste strutture di rete vanno configurandosi per rispondere in maniera sostenibile alle sue evoluzioni. Visto la numerosità dei fattori coinvolti e la dinamicità “ambientale”, rammentiamo che in internet tutto accade con una velocità esponenziale, non è mai semplice delineare le tendenze, soprattutto da un punto di vista quantitativo.
Ad ogni modo, sono ormai evidenti i segnali che indicano un processo di consolidamento e di passaggio a una cossiddetta seconda fase “2.0” più focalizzata sull’offerta diretta di servizi “applicativi” completi, con una gamma che copre uno spettro di utility che vanno dal divertimento al lavoro planando (grazie al cloud computing) su un utente già iper-connesso tramite reti wireless e fisse.
Ma quali sono le rimodulazioni che stanno subendo le infrastrutture fisiche e le entità organizzative che le gestiscono, quel retroscena definito come il “core” della rete internet?
Proveremo a impostare il discorso approfittando, tra le altre fonti, di uno studio indipendente condotto dalla ATLAS Internet Observatory la quale, dopo aver analizzato su larga scala l’andamento degli ultimi due anni di traffico internet, prova ad evidenziarne alcune logiche nel suo 2009 Annual Report.
Il nostro intento è quello di schematizzare, con un alto grado di astrazione, ciò che sta dietro la presa dei fili o dei canali wireless a cui siamo perpetuamente connessi, per esplorare in una ottica sistemica il senso di questi ultimi cambiamenti.
Interpretazione sistemica di internet
Viviamo certamente in un epoca in cui i destini/desideri umani e sociali si compenetrano in configurazioni sistemiche che fanno grande uso di elementi tecnico-organizzativi, e le teorie dei sistemi in ambito sociale hanno provveduto per tempo a disegnarne alcune logiche evolutive (specifichiamo che il termine evolutivo non ha in queste trattazioni una connotazione valoriale, ma indica semplicemente l’osservazione dei successivi cambiamenti).
Così, ogni tanto torna utile guardare ad esse per avere qualche indicazione, o anche per trovare conferma di alcuni fenomeni. Una delle teorie sistemiche più interessanti è stata elaborata da Niklas Luhmann negli anni Ottanta del XX secolo, ed aveva l’intento di ragionare in termini di complessità.
La complessità delle società moderne è una conseguenza degli incessanti processi di differenziazione funzionale attraverso cui si istituzionalizzano sistemi deputati a rispondere a determinate esigenze. Essa è stimolata da movimento che nasce nel momento in cui vi è la possibilità di differenziarsi rispetto ad un ambiente molto più complesso.
In sintesi, la nuova struttura può inglobare (risolvere) una parte di complessità e in questa opera di riduzione trova la sua legittimità funzionale, che rafforza istituendo internamente dei propri codici e procedure di auto-riferimento. Il tutto, ovviamente, ha una valenza temporanea in quanto la risoluzione su cui si attesta il rapporto ambiente-sistemi è solo un’attualizzazione di possibilità che avrebbero altre alternative, e infatti fluttua nella massima contingenza affrontando le inevitabili fasi di riadattamento visti gli incessanti cambiamenti e la creazione di opportunità a cui si è inevitabilmente esposti.
L’insieme vive infati in un costante rumore (informazioni contraddittorie e difficili da trattare) che è in parte prodotto dalle rifrazioni di sistemi e sottosistemi che non devono rispondere a un qualche criterio unitario. Va precisato che la definizione di sistema e ambiente è relativa nel senso che ogni sistema funziona a sua volta come ambiente, e viceversa. Ciò dà modo di investire (e di farsi carico della) complessità in maniera reciproca, anche se il riorientamento funzionale avviene in maniera indiretta (dato che ogni “istituzione” è autonoma) e richiede una grande capacità di sensibilizzarsi per elaborare internamente i segnali generati dal “noise” interno e (soprattutto) esterno, variazioni percepibili e significative perché comunque esiste un rapporto di accoppiamento strutturale.
La teoria dei sistemi di Luhmann ha un valore euristico notevole per spiegare e indagare le logiche di evoluzione di strutture che rispondono a esigenze sociali anche se, molto probabilmente, dovrebbe essere aggiornata alla luce dell’avvento della società in rete, soprattutto negli aspetti del riorientamento delle strutture visto le incrementate possibilità di inter-comunicazione e riflessione.
Nel nostro ambito, più pragmaticamente, ci limitiamo a descrivere quanto è avvenuto in questi anni in quel corpo di infrastrutture che chiamiamo internet, e le teorie sistemiche possono essere di ausilio per contestualizzarne meglio i cambiamenti. Si può riscontrare infatti come esse si sono modificate e riconfigurate proprio sulla base di un forte indirizzo funzionale e sulla capacità di risolvere la complessità tramite lo sviluppo controllato di altra complessità, partendo da strutture configurate in termini molto più semplici.
La lunga fase della ricerca di connettività
L’analisi che segue evidenzia i cambiamenti prendendo in considerazione soprattutto gli interessi che i vari agenti hanno nel mantenere una infrastruttura di rete complessa e costosa che si sostiene fondamentalmente per il contributo economico di privati che pagano, prevalentemente, per avere garantita la interconnessione/capacità di trasporto dati.
La figura n. 1 ci illustra la situazione come organizzata in origine, con tutta una serie di Internet Service Provider che, collegati in maniera più o meno paritaria, si scambiavano i traffici grazie al collegamento individuale ad hub di inter-scambio.
Gli ISP sono i ricettori a cui si connettono gli utenti della rete, utenti che possiamo dividere in due grandi classi, utenti finali (End User) e fornitori di contenuto (Content Provider). In genere, esiste una marcata disparità sulle quantità dei flussi di traffico generati e comunque trattati dalle due categorie dato che la gran parte dei flussi si origina dai fornitori di contenuto mentre gli utenti finali sono per lo più i terminali di arrivo e di trattamento di quote singole marginali.
Da un punto di vista economico le interconnessioni tra i vari attori sono guidate dalla esternalità di rete, vale a dire dal reciproco beneficio di essere intercollegati.
Tipicamente gli ISP pagano i collegamenti di transito per l’interconnessione ad altri ISP dotati di bacini di utenza più grandi mentre, in parallelo, attivano collegamenti “free” verso provider di dimensioni similari, i cosiddetti accordi di interscambio peer-to-peer. I collegamenti di peering tendono però alla rapida saturazione ed ogni incremento di capacità, dovendo trovare l’accordo e l’interesse reciproco, è difficoltoso.
Allo stesso tempo, anche la politica dei transiti tra provider, che si pagano a capacità impegnata, tende a limitare al massimo gli incrementi capacitivi dei circuiti. Il risultato generale è che nella rete si possono generare situazioni di congestione dato il continuo aumento dei traffici conseguente ai modelli di consumo, che risentono degli improvvisi picchi di traffico (comportamenti frattali) così come della crescente preferenza di fruire di contenuti sofisticati (es. audio-visuali).
In questo ecosistema disegnato da fattori economici e tecnici, i fornitori di contenuto, sempre più attenti alla qualità di distribuzione dei propri prodotti, contrassegnati da un incremento degli audio-visivi e da un’utenza sensibile agli “intoppi” di rete, vanno incontro a problemi di performance.
Tra le soluzioni escogitate per superare queste limitazioni vi è la differenziazione dei collegamenti, che vengono frazionati capacitivamente verso diversi ISP (Multi-Homing), una condizione che ne avvantaggia la forza contrattuale (competitività tra ISP) e il controllo delle performance, agendo in uno schema che incrementa l’affidabilità rispetto a singoli punti di interruzione comunicativa. Come ulteriore passo, i Content Provider puntano anche a replicare e decentralizzare i propri contenuti (caching) in strutture di rete per loro geograficamente strategiche e più vicine ai loro utenti finali, collocando file e/o server presso altri ISP che agiscono come Content Delivery Network.
Gli operatori di servizi CDN mettono infatti a disposizione, all’interno di server dislocati in punti periferici delle reti, gli stessi contenuti presenti nel server centralizzato del Content Provider. Così replicati e decentrati, e agganciati a meccanismi di re-directing, i contenuti richiesti vengono direttamente consegnati agli utenti finali corto-circuitando il percorso tra utente e sito originale del provider.
Ciò evita gli eventuali bottleneck dovuti alla necessità di affrontare un percorso di trasporto più lungo mentre, allo stesso tempo, i content provider possono limitare i propri collegamenti multi-homed verso gli altri ISP.
Vi è stata dunque una lunga fase “1.0” guidata prevalentemente dal criterio della connettività, dove cioè la cosa maggiormente importante era essere connessi, che ha portato ad una sorta di commodificazione del traffico, tanto da spingerne i prezzi costantemente in giù. In questo periodo espansivo la configurazione degli operatori si è mantenuta abbastanza gerarchizzata mentre i margini di guadagno sul trasporto a livello di traffico “core” (e riguardanti una qualità standard) si sono via via estremamente assottigliati.
La sofisticazione del trasporto
La fase “2.0” è invece guidata dalla ricerca di una maggiore qualità del servizio, e ciò sta cambiando anche la “natura” del trasporto. Ora, in una situazione di sofisticazione dei servizi e dei materiali, le funzioni di collegamento e trasporto si de-commodificano in base a tutta una serie di nuovi servizi di Information Technology “aggiuntivi”. Questi aumentano la qualità di consegna dei dati e, allo stesso tempo, cambiano le tecniche del trasporto, che si avvalgono sempre di più, in parallelo, di meccanismi combinati e sincronizzati di “elaborazione e memorizzazione”.
La focalizzazione su ciò che può aumentare la qualità è la conseguenza di uno spiccato interesse verso i contenuti (la connettività è data per scontata), e ciò si ripercuote sui modelli commerciali e ingegneristici, che ridefiniscono ruoli, architetture e attori dell’ecosistema. Così, attraverso i servizi aggiuntivi e i collegamenti a qualità più controllata si tenta di guadagnare ciò che si perde in profitti sul trasporto dei dati. Inoltre, in un regime di aggregazione dei contenuti e di crescita dei guadagni pubblicitari, aumentano le velleità di infilarsi in qualche anello della filiera dell’advertising.
Uno dei risultati di queste tendenze è un maggior grado di dis-intermediazione tra i diversi provider dei servizi di rete, con i fornitori di contenuto che riescono a gestire direttamente, anche con proprie risorse, i collegamenti con il bacino degli utenti. Ma un’altra tendenza non troppo sorprendente, laddove si impone anche la capacità di disporre/attirare/aggregare una grande mole di investimenti per elaborare contenuti di qualità, è che si restringe il gruppo di provider che controlla la rete.
Rispetto a due anni fa, quando erano circa 5.000 le compagnie che originavano il 50% del traffico di internet, il gruppo si è ristretto a 150. Di questi, solo una trentina, tra cui Facebook, Google, e Microsoft, generano il 30% del traffico (solo Google il 6%).
Insomma, troviamo un ulteriore conferma di quanto veniva fuori analizzando il fenomeno del cloud computing, e che ci esortava in qualche modo a mantenere un’attenzione adeguata alla nuova configurazione dei mezzi.
La nostra vita commista ed espansa in sistemi si è arricchita negli ultimi decenni degli sviluppi delle tecnologie ICT, grazie alla massiccia adozione sociale, favorita dai feedback positivi tra fattori abilitanti quali disponibilità, flessibilità e modularità di risorse, bassi costi, semplicità d’interfacciamento ed espressività, esternalità di rete, ecc.
E tuttavia, questa incredibile e delicata costruzione socio-tecnica, a cui hanno contribuito un folto ed eterogeneo gruppo di attori con politiche ideali e pratiche che ne hanno stabilito e garantito gli equilibri, sta registrando profondi cambiamenti nella struttura, nei valori e nelle relazioni in campo.
40 anni dopo
Allora, proprio nel periodo in cui si stanno festeggiando i suoi 40 anni, si può avanzare un’ultima considerazione.
Internet è e rimarrà un progetto in continua evoluzione, anche se in discussione ora dovrebbero essere il grado, l’estensione e la profondità delle libertà di scopo. Il problema è dunque quello di preservare nelle potenzialità ingegneristiche, il “core di internet, il “cuore” ideologico del suo progetto, quell’apertura che è anche il prodotto di una presa salda e sapiente sul medium tecnologico da parte di una pluralità di persone radicalmente “indipendenti”.
P.S.
Come ben documentato da quasi tutti gli storici, internet è il risultato di una gestazione e uno sviluppo che, impegnando ben quattro decadi , ha saputo incorporare e vivere sulle ali di una dialettica profonda che ha coinvolto necessità e forze veramente variegate e spesso così apparentemente antitetiche come esigenze militari e ideologie controculturali, potere di controllo e di comando e impulsi antigerarchici e decentralizzanti.
Nata nel periodo post-Sputnick per supportare la ricerca e lo sviluppo nei sistemi military-oriented quali quello della difesa missilistica-balistica, ha visto però impegnati nella reale pratica implementativa giovani ingegneri, scienziati e studenti laureandi cresciuti nella cultura “utopica” degli anni Sessanta e Settanta, figli di un’America californiana in cui si concentravano persone affezionate alle ideologie del “mondo aperto”, associate con i movimenti contro la guerra e alla ricerca di forme nuove di comunità, così come di nuove filosofie di condivisione.
Bibliografia
ATLAS Internet Observatory, 2009 Internet Report.
Hau, T., Wulf, J., Zarnekow, R., Brenner, B., 2008, “Economic Effects of Multi Homing and Content Delivery Networks on the Internet” in Proceedings of the 19th ITS European Regional Conference, Rome.
Luhmann, N., 1984, Sistemi sociali. Fondamenti di una teoria generale, Bologna, Il Mulino, 1990.