L’incubo delle gabbie e il lievito delle contraddizioni
Per i paesi collocati geograficamente e culturalmente nella regione occidentale del mondo il mese di agosto è notoriamente un periodo in cui i pensieri per le vacanze, nella loro effettiva possibilità di concretizzazione — quindi di frustrazione o soddisfazione — possono favorire sentimenti controversi ma quasi tutti portatori di distrazione. Non conosciamo le effettive ragioni, ma potremmo anche pensare che sia questa la ragione che ha favorito il brutto incidente in cui è incappato Google, uno dei pilastri fondamentali di internet — scherzosamente, qualcuno ha imputato il fatto alla decisione della stessa di non permettere più ai propri dipendenti di utilizzare il 20% del tempo di lavoro per progetti che esulano dai compiti specificamente assegnati…).
Per la prima volta dopo molti anni — ma ora Google ha veramente un ruolo molto più centrale nella Rete — tutti i servizi dell’azienda sono venuti a mancare comportando un blackout di 11 minuti, in Europa dalle 1:37alle 1:48 AM del giorno 17/8/2013.
La cosa impressionante è che il traffico globale di internet, secondo la ricostruzione di alcuni analisti, è contemporaneamente sceso di oltre il 40%!!
Dunque, un evento enorme.
“Come utenti siamo abituati a confidare moltissimo su Google” è stato uno dei commenti più immediati. In realtà, molto di ciò che utilizziamo in Rete è strutturato (spalmato) su architetture e meccanismi che girano su computer e reti che sono, allo stesso tempo, distribuite e concentrate — a volte logicamente e ancor più spesso fisicamente — in particolari centri di servizio che fanno capo a pochi player. Il risultato è che le applicazioni/aziende diventano pezzi vivi, importanti e inestricabili, dell’intera rete internet.
Ma entriamo maggiormente nel merito illustrando questa compenetrazione attraverso un altro soggetto altrettanto centrale per il funzionamento dei servizi fruibili in rete. Se non per i più, Amazon è nota anche per essere stata il pioniere — e ora leader incontrastato — delle architetture di servizio di cloud computing pubblico. Molte delle ultime aziende nate sul filone social network si appoggiano sulle sue infrastrutture, motivo per cui qualunque suo accidente, anche minimo, diventa notizia non occultabile —nello stesso mese di agosto essa stessa ha accusato un fermo parziale in alcune “zone”, propagando gli effetti ad aziende quali Instagram, Vine e Netflix, per citarne alcune.
Nota al grande pubblico per i suoi variegati negozi virtuali, Amazon fornisce dunque anche un ampio spettro di servizi “infrastrutturali” elementari con cui costruire e gestire attività basate sull’utilizzo di risorse ICT. A tal fine, essa ha implementato una rete dorsale che trasporta traffico IP tra gli Stati Uniti, Brasile, Europa, Giappone, Singapore e Australia per collegare i suoi Data Center stipati di armadi contenenti processori, memorie e sistemi di storage.
Queste infrastutture globali di cloud computing, storage e reti sono organizzate in nove “regioni” e ognuna funziona come un “data center hub” logico dal quale vengono erogati i servizi. Ogni regione è suddivisa a sua volta in almeno due “Availability Zone”, vale a dire ha disponibilità di replicare i servizi in locazioni fisicamente diverse per evitarne un blocco in caso di accidenti localizzati — ogni zona alternativa si diversifica in termini di circuiti di rete, sorgenti di alimentazione elettrica, caratteristiche sismologiche ecc.
La struttura ha un ulteriore livello di estensione consistente in una rete internazionale che collega 35 “locazioni periferiche” (edge location) in cui sono installate dei server applicativi e memorie di caching che avvicinano i servizi ai suoi bacini di utenza finale ottenendo sia migliori performance (mirroring delle funzioni dei server centrali) che il confinamento locale dei grandi flussi di traffico dati da/verso i propri clienti.
In effetti, il modo in cui si connettono le molte reti costituenti la rete internet è cambiato profondamente nel tempo. La progressiva liberalizzazione delle TLC e la ricerca di efficienza e diffusione dei servizi ha comportato negli anni una de-gerarchizzazione dei livelli delle interconnessioni tra ISP (Internet Service Provider) di diversa taglia (tier 1, tier 2, …) favorendo la nascita regionale e nazionale di “luoghi terzi” (Internet Exchange Point) in cui soggetti “neutrali” mettono a disposizione dei vari operatori spazi e servizi logistici in cui accogliere e favorire inter-connessioni dirette. (Ma qualunque funzionalità inseribile a livello di edge location può essere ospitata presso gli ISP locali che offrono specifici servizi di housing).
Al momento sono oltre 350 gli IXP regionali presenti nel mondo, distribuiti un po’ ovunque, spesso sponsorizzati dalle autorità nazionali per garantire la presenza in internet del proprio paese, soprattutto quando, per la legge dei ritorni economici immediati, ci si trova ad essere considerati “in periferia”.
Tra gli IXP ve ne sono una ventina che riescono a ospitare in media oltre 100 provider di TLC sviluppando internamente un traffico dati in costante aumento. È il caso, ad esempio, del AMS-IX in Amsterdam o del DE-CIX in Francoforte, che concentrano da soli un traffico dati paragonabile per volumi a quello di grandi Network provider quali AT&T o Deutsche Telekom.
Ovviamente, data la disponibilità e la capacità di trovare e gestire soluzioni adatte, sulla base delle strategie di sviluppo e degli equilibri economici, operatori globali quali Amazon, Google, Facebook, Microsoft o Yahoo variano e adattano dinamicamente le proprie infrastrutture decidendo flessibilmente se affittare da terze parti rete e spazi o implementarne autonomamente di nuove .
Ma se questa è una visione che evidenzia una capacità di giocare, adattarsi e armonizzarsi “in scala” che sembra contare sull’abilità di saper dominare le problematiche del networking, dobbiamo sinteticamente richiamare ciò che accade nelle aree della ricerca e degli sviluppi nell’ambito del software/computing per comprendere veramente le capacità necessarie a governare tali megastrutture.
In queste ultime decadi industrie di microcircuiti, università e aziende ICT, grazie a quello che stava sviluppandosi su e tramite internet, si sono impollinate vicendevolmente trovando vie nuove per gestire appropriatamente la scala della domanda. Aziende come Google, Twitter, Facebook, che gestiscono milioni di computer e miliardi di miliardi di MB di spazi di memorizzazione (peta, exa, zetta, …) si sono sviluppati in casa specifici software per governare la moltitudine di processori e la mole di dati in strutture più semplificate che permettono di trattare una Data Center come computer e data-base “unici” su cui caricare “trasversalmente” i processi di lavoro generati dai singoli utenti. (Piuttosto che caricare i processi dei servizi su sistemi e cluster di server separati, Google riesce a far funzionare tutto su un unico cluster grazie a Borg e al suo successore Omega). (Illustrazione: Ross Patton/Credit:Wired).
Detto sinteticamente, anche le tecniche più sofisticate quali quelle di virtualizzazione, pur efficaci nell’omogeneizzare l’hardware di base (cluster di singoli server) e ormai commercializzate al grande pubblico, sono su quelle scale inefficienti.
“Ci sono altri modi per fare ciò. Si potrebbe usare quello che è ora conosciuta come virtualizzazione dei server, ma essa comporta un livello aggiuntivo di complessità di cui non c’è bisogno” afferma John Wilkes, “e Google può ridurre la dimensione delle sue infrastrutture di qualche percentuale che, viste le sue dimensioni, può corrispondere a un intera facility. In pratica, è un Data Center in meno da implementare. Una piccola percentuale qui, una là e, improvvisamente, si parla di un grande esborso di denaro”. Google ha un sistema software di gestione dei cluster proprio chiamato Omega, ma anche gli altri (Facebook, Twitter, Amazon, ecc.) hanno sviluppato “in casa” armi segrete simili chiamate Mesos, Aurora, Corona, ecc…
Dis-equilibri
Recentemente, l’Oxford Internet Institute ha pubblicato una mappa visiva che fornisce un immediato riscontro del prodotto di questi sforzi in termini di popolarità dei servizi nelle diverse aree del mondo. Tra le conseguenze palesi di queste architetture di servizio è che tutti noi abitanti della Rete ci troviamo ad essere cittadini di un territorio tecnologicamente “governato” in maniera sbilanciata, nel senso che i campi di azione sono delimitati e tracciati da un limitato e particolareggiato insieme di aziende.
La storia sembra ormai segnata. Commentando la fresca acquisizione di Nokia da parte di Microsoft, più di un analista ha sottolineato come l’Europa abbia ormai perso anche l’ultimo suo importante protagonista nell’high-tech, mentre non sembra andare meglio nell’ICT.
Con la rivoluzione digitale e di internet l’Europa si ritrova presa in una tenaglia tra la vitalità imprenditoriale degli Stati Uniti, capace di inventare un leader mondiale ogni 10 anni, e la competività industriale degli asiatici. Risultato, nella classifica delle dieci più alte capitalizzazioni borsistiche del settore high-tech, escludendo gli operatori di telecomunicazioni, troviamo che nove aziende sono statunitensi e una è asiatica (Samsung) (Le Monde).
Come contro-bilanciare e redistribuire il peso rimane un’impresa (se possibile) ardua che comporterà comunque enormi sforzi e investimenti — economici, culturali e politici. In attesa di rimedi più corposi, si potrebbe però lavorare sulla scia di una governance più generale puntando sulle contraddizioni interne a un “sistema” così consolidato che ha però una natura profondamente culturale.
Una premessa va fatta: l’abilità di queste imprese nello sfornare e soprattutto gestire queste meraviglie tecnologiche è decisamente un grande merito per le possibilità e attività aperte all’intera umanità, che giustamente ne apprezza (e ne ambisce) i prodotti.
E tuttavia, la configurazione diventa rischiosa anche per le stesse aziende vincitrici. Traendo successo da un mercato globale e spesso dalla benevolenza dell’utenza, soprattutto quando i servizi, per lo più, insistono su business model che hanno l’advertising come motore, esse dimostrano di non essere nelle condizioni, mancando norme vincolanti a livello sovranazionale, di sottrarsi ai poteri biecamente nazionali, finendo di “rovinarsi la piazza”.
Il rilascio di documenti e interviste sulla vicenda del mega progetto di spionaggio PRISM messo in piedi dal governo statunitense sta evidenziando questa fragilità. Se nella periferia vi è chi può tranquillamente affermare che “chiunque navighi in internet, viene sempre sottoposto alla legislazione degli Stati Uniti (Il Manifesto), dal centro dell’impero il Pew Research Center’s Internet Project e la Carnegie Mellon University certificano che ben il “90% degli utenti di internet” hanno preso o cercano di adottare iniziative per evitare di essere sorvegliati nelle loro attività online.
Alcune società statunitensi specializzate in servizi di comunicazione “sicure”, Lavabit e Silent Circle, hanno chiuso le loro aziende ammettendo di non poter garantire la privacy. Microsoft e Google, per una volta alleate, hanno legalmente denunciato il governo statunitense in quanto impossibilitati a documentare le ingiunzioni a cui sono forzatamente sottoposte, così come, a loro dire, la limitatezza delle informazioni restituite.
Purtroppo, una volta minato il campo, il sospetto di usare o mettersi in casa apparecchiature o software potenzialmente “pericolosi” e con qualche porta di servizio “aperta” non vale solo per i prodotti ICT della Cina ma inizia a echeggiare anche nei paesi amici (ad esempio, la Germania) (Zeit Online). Rammentiamo che, da parte statunitense, amministrazione e congresso “sconsigliano” da tempo l’utilizzo di tecnologia cinese nei vitali servizi di TLC dopo aver denunciato di aver subito pratiche di hacking internazionale (BusinessWeek)!
Ma le contraddizioni “interne” vanno oltre gli affari. Oddio, qualcuna nasce anche attorno al business visto il reale restringimento degli spazi per le nuove imprese e per i modi stessi di creare nel web.
Ad esempio, quasi tutti puntano a reclutare utenti con il gratuito tentando di farsi ripagare dalla pubblicità ma il sovraffollamento e la competizione è altissima mentre i player più famosi gestiscono già quote importanti dell’advertising online, alcuni da soli il 30-50 % a seconda che si considerino le fruizioni da postazioni fisse o mobili.
Mentre la user experience tipica del navigatore avviene nella consapevolezza di dover pagare pegno “rilasciando” dati personali che saranno incrociati e mantenuti in qualche data warehouse, avanziamo attenti a schivare le trappole visive che vogliono attirarci in un qualche click “fraudolento”.
Nell’ambito centrale delle funzioni del searching, poi, ci sono dei veri e propri dominatori che elaborano nuovi modi di presentazione in cui è difficile distinguere i risultati prodotti dalla normale ricerca organica dai link sponsorizzati o altre proposte collegate (negli esempi allegati essi sono relegati nelle aree rettangolari in rosso mentre si riportano le ripartizioni percentuali dello spazio schermo dedicato ai vari spazi “utili”. Credit/Aaron Harris di Tutorspree)).
Le cose possono anche peggiorare sugli schermi più ridotti dei vari device mobili.
Nel nome di una creatività tradita nella ricerca di un’eccellenza estetica che miri a stabilire corretti e soddisfacenti rapporti con i fruitori, il designer statunitense Matthew Butterick protesta forte contro le derive prodotte da queste strategie, propugnate da alcuni player anche attraverso il proprio peso negli sviluppi che by-passano il lento processo degli enti deputati al mantenimento di standard comuni per le tecnologie web.
Pensate ad esempio a Facebook e alle affermazioni sulla sua missione. La missione di Facebbok – spero che lo sappiate – è “rendere il mondo più aperto e connesso”. Vi siete mai chiesti cosa si intende per “aperto e connesso”? Bene, ve lo dico io. Essi vogliono dire “formati pubblicitari più grandi e più ricchi di contenuti mediali”. Essi intendono anche “cose realmente arricchite come enormi immagini”. Non so voi, ma quando penso a “aperto e connesso” non penso a messaggi pubblicitari molto più ingombranti. Ma è questo ciò che intendono. (The bomb in the garden).
Sue Gardner è l’executive director della Wikimedia Foundation, l’organizzazione non-profit che sostiene Wikipedia. In un intervento al 2013 MIT-Knight Civic Media Conference di Boston sull’argomento si è espressa in maniera molto preoccupata.
Internet sta evolvendo in uno spazio dominato dai settori privati che devono primariamente rispondere agli azionisti piuttosto che ai cittadini. Essa prova costantemente a vendervi merci. Fa praticamente quello che vuole con i vostri dati personali e, come inizia a essere regolamentata o a auto-regolamentarsi, accade spesso che ciò avvenga in maniera opaca e dannosa, ferendo la capacità di internet di funzionare per il beneficio del pubblico.
Wikipedia è il quinto sito più frequentato al mondo ma è l’unico non-profit tra i primi top 25. Nonostante il suo successo e la meraviglia che esercita sulle persone, esso rimane un’eccezione che conferma la regola. Per altro verso, la sua natura non-profit genera un altro genere di meraviglia nella Silicon Valley.
Essi mi chiedono perché Jimmy Wales “lasci così tanto denaro sul tavolo” e se rimpianga il fatto di farlo. (Risposta: no). A volte le persone mi chiedono perché non aggiungiamo pubblicità sul sito e se noi siamo contro l’advertising, le aziende for-profit, il capitalismo. Noi diciamo di no. Il nostro punto di vista è che internet dovrebbe avere un equilibrio, proprio come il mondo offline. Una città ha ristoranti, negozi e banche così come scuole, librerie e parchi. Wikipedia è come un parco, uno spazio pubblico, accessibile e utilizzabile da tutti. … Ma dove sono gli altri parchi? … dovremmo essere onesti: non stiamo guadagnando terreno. Le nostre scuole, librerie e parchi sono cose molto ma molto piccole … [rispetto] alla promessa di internet a cui tutti noi originariamente abbiamo creduto, non abbiamo ancora perso ma stiamo perdendo (Quartz).
Quinn Norton è una giornalista e scrittrice americana che si occupa di hacker, tecnologie e internet — tra le altre cose, ha avuto l’opportunità di vivere per tre anni accanto al compianto Aaron Swartz, il geek e hacker morto suicida a gennaio 2013 dopo essere stato pesantemente accusato e legalmente perseguito dal governo USA per aver violato i diritti di copyright diffondendo articoli delle riviste del MIT. Recentemente la Norton ha pubblicato un articolo dedicato alla storia di un altro geek, il soldato Bradley Manning, la cui forte e (allo stesso tempo) fragile figura divide tuttora gli americani, per cui egli è sia un esempio di eroe, sia un traditore in quanto, come analista informatico arruolato in Iraq nel 2009, fonte dei documenti top-secret consegnati a Julian Assange/Wikileaks.(Illustrazione: Bradley Manning Credit/Wikipedia).
Vale la pena di riprendere le sue considerazioni per descrivere le tensioni che animano l’impero e questi (ancora) nuovi territori.
Per parlare in maniera sensata di Manning dobbiamo parlare delle forze che hanno agito su di lui. Dobbiamo parlare degli Stati Uniti, di Internet e, alla fine, di noi stessi. Da una parte, il rilascio di Manning del materiale classificato alla competenza pubblica è una dichiarazione del diritto delle persone a conoscere ed è un commento adirato su come il mondo funziona dietro le porte chiuse. Da un altro versante, esso rappresenta una forza che minaccia il sistema che tiene insieme gli Stati Uniti. Se vediamo gli Stati Uniti come un luogo con confini, un governo burocratico e imperiale che agisce per conto dei suoi 350 milioni di persone, se si vedono gli Stati Uniti come i suoi edifici, i suoi funzionari amministrativi, le grandi e protettive istituzioni che hanno edificato le nostre città e la vasta cultura fisica, il duro trattamento riservato a Manning per aver sfidato quella istituzione ha senso anche se è stato, a volte, brutale.
Ma se vedete gli Stati Uniti come un’idea, e come un’idea ancor oggi rivoluzionaria, che non solo una persona potrebbe decidere il suo destino ma che un corpo di persone potrebbe agire insieme come fosse un grande leader a farlo – e che questo è il modo migliore di essere – Manning non ha tradito quell’America. La seconda America non ha più quel nome. Essa si è trasformata ed è cresciuta proprio come la prima, proclamata in poco tempo dal lato est al centro del continente nord americano ma per divenire un simbolo di democrazia e dei diritti dell’uomo. Essa è confluita insieme con gli altri spiriti nati dall’Illuminismo e divenuti la forza dietro la scienza, la tecnologia, il libero esprimersi e la volontà del popolo comune. Allora, le idee di auto-determinazione e di libertà di conoscere fiorirono come mai prima negli ultimi giorni di vita del XX secolo. La seconda America divenne una creatura trasnazionale amorfa e strana. Essa diventò una struttura collegata in rete.
La prima America ha costruito Internet ma la seconda ci si è mossa sopra. Entrambe pensano che ora il posto gli appartenga. Entrambe le Americhe hanno avuto successo e sono a questo punto leggermente sorprese di scoprire che devono condividere il mondo con l’altra. Nel frattempo, la legge, il misero terzo giocatore in questo dramma, ha cercato di cavalcare le due come un uomo che cerca di stare in piedi su due navi da battaglia, mentre esse vanno separatamente alla deriva. (The Medium).
Chiuderei annotando che non manca giorno, nel rutilante incedere degli eventi, di registrare innesti interessanti nelle fila dei critici attivi. Contro i comportamenti insensibili a visioni più allargate del patrimonio umano che vive la rete, e contro le conseguenti azioni di free-riding indiscriminato, iniziano a levarsi voci importanti dallo stesso alveo dei tecnologi di internet.
Parole forti quelle espresse dall’esperto di sicurezza Bruce Schneier, che argutamente sottolinea come siano ormai molti a sentirsi nella condizione della “sposa tradita”, che non riesce più a dare niente per scontato, ad esempio riguardo alla fiducia accordata a tanti enti per la definizione e lo sviluppo delle tecnologie di rete (threatpost).
Egli elogia gli “informatori” e parla in nome di “un dovere morale” che contrasti il “tradimento del contratto sociale” che ha sottinteso la creazione e lo sviluppo della Rete. “Noi ingegneri abbiamo costruito internet ed ora dobbiamo lavorare per rimetterla a posto” (The Guardian).
Riferimenti
“Bruce Schneier on the NSA, Cryptography and Trust“, threatpost.com, 11/9/2013.
“Bundesbehörden sehen Risiken beim Einsatz von Windows 8 (Agenzie federali vedono rischi nell’utilizzo di Windows 8)”, Zeit Online, 29/8/2013.
“How Google is Killing Organic Search“, TutorSpree Blog, 1/7/2013.
“How we are losing the war for a free and open internet”, Quartz, 1/7/2013.
“Is Huawei Giving Up on the U.S.? Pretty Much”, Business Week, 24/4/2013.
“Internet, intercettazioni in salsa tutta americana”, Il Manifesto, 3/9/2013, p. 11.
“La chute de Nokia confirme le déclin de la high-tech européenne”, Le Monde, 5/9/2013, p. 5
“Microsoft, Google team up to sue federal government over NSA spying”, Yahoo! News, 30/8/2013.
Norton, Q., 2013, “Bradley Manning and the Two Americas“, The Medium, 21/8.
Pew Research Center’s Internet Project, Anonymity, Privacy, and Security Online, 5/9/2013.
“Return of the Borg: How Twitter Rebuilt Google’s Secret Weapon“, Wired, 3/2013.
“Silent Circle Shuts Down Silent Mail, Marking Yet Another Encrypted Email Service To Bite The Dust”, The Huffington Post, 9/8/2013.
“The Bomb in the garden“, Talk given by Matthew Butterick at TYPO San Francisco, 11 April 2013.
“The US government has betrayed the internet. We need to take it back“, The Guardian, 6/9/2013.
“The N.S.A. and Its Targets: Lavabit Shuts Down”, The New Yorker, 8/8/2013.