Dove vanno i personal computer?

Critica delle nuvole

Nel XX secolo l’ICT ha dato dimostrazione  di saper innescare cambiamenti in quasi ogni  settore  della società. Nel corso di questa azione e in relazione al periodo ci siamo però fatti delle idee abbastanza fumose sulle risorse e la strumentazione che  ne hanno supportato la forza.

In generale, a esclusione degli specialisti del campo — e anche da quelle parti siamo stati spesso spinti  a farlo— le abbiamo immaginate in maniera imprecisa ammantandole finanche di un’aura quasi mitologica.

Nel frattempo, irresistibilmente e implacabilmente,  siamo stati sempre più irretiti da queste macchine anche solo come  meri utilizzatori. In realtà, è con l’internet degli anni 2000  che le tecnologie informatiche e trasmissive hanno iniziato a coinvolgere il grande pubblico, intrufolandosi dappertutto e sollecitando il bisogno di una certa alfabetizzazione tecnica.

Per essere ancora più precisi, la  democratizzazione dei computer in termini di effettiva disponibilità e manipolabilità,  se non di conoscenza approfondita, era già iniziata negli anni Ottanta per un gruppo sempre più consistente di persone grazie alla diffusione dei personal computer.

La diffusione delle conoscenze e delle risorse informatiche/telecomunicative e la loro sottrazione ai centri di potere monopolistici pubblici o privati sono stati un indispensabile prerequisito per la definizione di ciò che oggi si definisce “software culturale”. Nati come mere piattaforme di calcolo, i personal computer interconnessi sono diventati i tasselli di un territorio comunicativo di proposta, elaborazione e aggregazione di progetti individuali e di gruppo in cui procedure e materiali hardware/software si combinano continuamente per alimentarsi reciprocamente e costruire le  grammatiche e semantiche dei linguaggi e della cultura della Rete

Come ha spiegato mirabilmente l’economista ed esperto di diritto Yochai Benkler, i vincoli tecnologici ma anche legali in termine di libertà e capacità di organizzazione dei materiali sono  determinanti per disegnare le possibilità di una nuova economia e di nuove forme di comunicazione ed espressione.

Ciò che nel passato era possibile solo mettendo insieme competenze e risorse centralizzate,  con il sostegno di enormi capitali, è stato altrimenti ottenuto grazie a forme di cooperazione capaci di riaggregare  le componenti frazionate dei mezzi e delle competenze ridefinendo i termini della produzione e del consumo nei molti campi in cui l’elaborazione, la memorizzazione e la trasmissione di dati è essenziale.

Allo stesso tempo, ci sono stati riflessi  profondi su tutti quei centri di potere che, grazie alla necessità di dover accentrare mezzi e lavoro per costruire e gestire servizi, avevano una influenza primaria nel campo del simbolico, vale a dire nella creazione e circolazione di informazioni e idee.

Svolte su svolte
All’inizio del nuovo millennio, una serie di continui progressi tecnologici sta apportando grandi cambiamenti allo stesso modo di concepire, organizzare e distribuire le componenti e le risorse dell’ICT.

Con l’incredibile incremento delle capacità trasmissive dei dati sui cavi e sulle onde aeree, e infine sui canali broadband forniti all’utenza per accedere o distribuire i servizi, stiamo assistendo a una enorme riorganizzazione dei suoi stessi fondamenti. L’accresciuta potenza delle connessioni di rete non si traduce infatti solo nella disponibilità  di scambi informativi istantanei, ma anche nella delocalizzazione e centralizzazione di computer e archivi di memorizzazione in enormi silos di produzione, facilmente raggiungibili da ogni luogo e in qualunque istante, persino in mobilità.

Come è avvenuto alle centrali elettriche che hanno sostituito i generatori autarchici una volta che la rete di distribuzione energetica si è diffusa capillarmente  — un parallelo storico richiamato frequentemente e che riprenderemo in seguito – computer e memorie sono ora in grado di dispacciare “energia informatica” attraverso le nostre prese broadband.

In breve, queste nuove architetture ottengono una completa smaterializzazione del computer e dei suoi servizi, diventati beni non solo negoziabili ma anche completamente smerciabili attraverso la rete, l’apoteosi di una pura economia dell’accesso (Rifkin, 2000).

Paradossalmente, anche il computer, virtualizzatore per eccellenza,  ha subito  il destino intuito da Marx per molti dei dispositivi della realtà moderna che, dietro l’opera incessante dei processi di astrazione tipici delle società complesse, fa si che «tutto ciò che è solido si dissolve nell’aria» (Marx, 1848, p. 59; cfr. Berman, 1982).

In effetti, la nuova filosofia di computing ha le nuvole come  metafora principe, un’immagine che richiama leggerezza, disponibilità e copertura ubiqua dei servizi in un’architettura distribuita che non richiede un nostro investimento conoscitivo. Uno dei suoi obiettivi dichiarati è di sollevarci da tale incombenza a costi convenienti — paghiamo una frazione dei reali costi e solo per l’effettivo utilizzo — così da farci concentrare su quello che è veramente utile per le nostre specifiche attività.

Tutto ciò ha riflessi su più fronti: per l’utenza, nelle modalità di distribuzione e utilizzo dei servizi/risorse; per l’infrastruttura, nella proprietà, organizzazione e gestione dei beni hardware/software; per i servizi, nell’ideazione, lo sviluppo e l’esercizio delle applicazioni.

Nella pratica, sono molte le riflessioni critiche che l’argomento inizia a stimolare per i cambiamenti che questi sviluppi stanno (re)introducendo rispetto alle ventate di novità, apertura e libertà a cui ci avevano abituato le logiche della Rete. Per essere chiari, non siamo in presenza di un preciso e coordinato disegno di restaurazione. Piuttosto, siamo nello stato in cui i diversi attori operanti nell’ecologia ICT sono pronti a consolidare e  organizzare in logiche di tornaconto una serie di condizioni; tra queste,  la crisi economica e l’enorme successo a livello di utenza di internet, con le conseguenti ed enormi aspettative di gruppi, aziende e persone; l’avanzare di monopoli dovuti all’esternalità di rete e alla scarsa affermazione di business model alternativi alla ricerca di proventi pubblicitari. E, in generale, il tutto accade in una scarsa attenzione al valore e ai valori intrinseci delle tecnologie digitali diventati beni comuni fondamentali in ogni sfera, e dunque anche nella politica e nel sociale.

Certamente, non meno importante si è rivelato il successo dell’«applicazione» web e la sua attrazione massiva che, a detta dello stesso ideatore Berners-Lee in una recente critica sulle chiusure che certi sviluppi stanno comportando quando si persegue la logica del walled garden o della asimmetria più spinta tra centro e periferia, rischia di compromettere la rete internet nonostante sia solo una delle applicazioni possibili.

Da un certo punto di vista, infatti, è sensato pensare che ciò che era potenzialmente implicito nella tipica architettura client-server del web, nata a fini di presentazione e di interconnettibilità di contenuti (publishing), è stato esploso ed esteso a livello di generica esigenza di elaborazione/archiviazione (computing).

La conseguenza è che i vari player che rincorrono la moltitudine degli utenti si sono indirizzati verso due tipi di strategie. Da una parte riorganizzano una nuova forma di computing centralizzato, dall’altra si spendono per affinare e ottimizzare le tecniche periferiche che si devono occupare del rendering grafico e delle modalità di processamento dei formati complessi (testo/immagini/audio-video) che fluiscono in tempo reale sui terminali locali degli utenti. Vi è una grande spinta a elaborare interfacce grafica user-friendly e neutre – nel senso di poter funzionare trasversalmente su ogni dispositivo – con cui poter usufruire dei servizi di comunicazione, informazione, ricerca, editing, calcolo, archiviazione che il “super-computer della Rete” rilascia. Preferibilmente, esse dovranno impegnare in maniera minimale le risorse degli apparati personali dal momento che il maggior carico così come la complessità del lavoro si è spostato al centro.

Quest’ultimo, oltre a gestire le risorse hw/sw e mantenere disponibili e aggiornati dati e applicazioni, si riserverà anche l’onere di ideare e sviluppare i nuovi servizi. In ogni caso, per sottolineare la complessità di questo passaggio, le critiche devono anche essere controbilanciate dal fatto che la nuova piega tecnologica fornisce una soluzione a servizi sempre più articolati, ubiqui e globali.

Af-fidarsi
Oggi, quasi ogni genere di informazioni è finito (o è a rischio di cadere) dentro una qualche sorta di nuvola. Ciò è certamente vero per i servizi consumer, mentre le aziende sono invece ancora in gran parte diffidenti nell’ affidare i loro dati e processi elaborativi all’esterno, soprattutto per problemi di sicurezza.

In ogni caso, essere su qualche sito di social network vuol dire utilizzare questa tecnologia, così come avere account di posta su Gmail — ma anche su Yahoo e Hotmail — o utilizzare micro-blogging come Twitter, blog come WordPress, video-sharing come Youtube o DailyMotion, oppure postare e guardare foto su Flickr, valutare qualcosa su Yelp e TrpAdvisor, usare documenti e applicazioni quali Google Docs, siti per il social-bookmarking come Delicious o piattaforme e-commerce tipo eBay.

Il noto istituto di ricerca statunitense Pew Research Center, sempre attento a vagliare le attività dei cittadini americani in rete, ha recentemente intervistato alcuni dei massimi esperti del settore ICT sul merito delle tecnologie cloud. Essi ne sottolineano l’efficacia e sofisticazione nello sviluppare servizi “anfibi” che fanno comunque uso di risorse locali e remote.

Le loro risposte rivelano tuttavia una sorta di fatalismo nel prevedere che il baricentro dei servizi sarà spostato inevitabilmente verso un centro esterno (Pew, 2010). È in questo senso che tra gli addetti si parla di un “internet operating system”. Le applicazioni ospitate dai nostri dispositivi personali ci fanno accedere a servizi che hanno senza dubbio bisogno di componenti processive e di informazioni “locali”, ma ciò è solo una piccola parte del processo.

È facile pensare che siano i sensori nel vostro dispositivo – lo schermo tattile, il microfono, il GPS, l’accelerometro, il magnetometro – che stanno consentendo le nuove ed elettrizzanti funzionalità. In realtà, questi sensori sono solo gli input a grandi sottosistemi di dati che vivono nella nuvola. Quando – e questo è un esempio che riguarda lo sviluppatore di un’applicazione sull’iPhone – voi utilizzate la funzione Core Location Framework per stabilire tramite il telefono dove siete, voi non state solo interrogando il sensore ma effettuate una ricerca fornendo dei dati ai server della nuvola che trasformano le coordinate GPS in indirizzi stradali, una cosa che può essere fatta anche partendo [invece che dal GPS] dai segnali WIFI circostanti. Quando Amazon o Google Goggles scannerizzano un codice a barre, o la copertina di un libro, non si sta utilizzando solo la fotocamera per processare sul dispositivo l’immagine, si sta passando l’immagine a un’elaborazione molto più potente effettuata nei server delle nuvole, la quale produrrà il risultato grazie a un confronto tra immagini depositate in un database. Sempre di più, gli sviluppatori delle applicazioni non effettuano a un livello basso il riconoscimento delle immagini o della voce, la ricerca della locazione, la gestione dei social network e la connessione con gli amici. Essi scrivono nel codice dei programmi chiamate di alto livello alle piattaforme informative esterne che forniscono tali servizi» (The State of the Internet Operating System, 2010).

La costruzione di nuovi servizi assomiglia dunque a un’opera di collage che interconnette i diversi domini una volta che questi decidono, ed è questo l’altro pericolo reale, di non richiudersi dentro un walled garden per condividere invece le risorse e attività alimentate in ultimo dai propri utenti.

All’inevitabilità di poter avere disponibili servizi così complessi senza questa sorta di federazione e di centri di calcolo potenti può far da contraltare l’eccessivo affidamento a realtà su cui non vi è alcun controllo. Un recente evento ha ricordato questo aspetto. Il pericolo è stato adombrato tante volte ma, ciononostante, nessuno pensava dovesse concretizzarsi coinvolgendo servizi altamente popolari e, per giunta, supportati da big player.

Nel settore high-tech le crisi possono arrivare improvvise per ragioni competitive o per il venir meno dei supporti finanziari a fronte dell’incerto consolidamento di business model alternativi al tipico free pagato dalla pubblicità o dai dati comportamentali sulle abitudini di consumo degli utenti.

In genere, a farne le spese sono le realtà più recenti e non inserite in gruppi che possono contare su attività sinergiche e articolate. Invece, ci si accorge che il fenomeno può riguardare anche le grandi realtà e che, soprattutto, niente può contrastare decisioni private riguardo alla dismissione di piattaforme di social network, tanto più nel momento in cui si affrontano delle crisi.

Il nuovo destino di Delicious e degli altri servizi Yahoo ci offre una lezione sul cloud computing che è probabilmente familiare alle persone che hanno seguito l’ascesa del cosiddetto software come servizio (SaaS) pochi anni fa: se decidete di affidare a una terza parte un servizio di vostro interesse, correte il rischio che il vostro fornitore vi stacchi la spina in ogni momento… non stiamo parlando di un fornitore improvvisato o di uno sconosciuto. Stiamo parlando di Yahoo, che in internet è una realtà ben inserita e radicata” (Yahoo’s offloading of Delicious a reminder of cloud risks, 2010).

In un sistema di rete classico, dove conta il paradigma dell’esternalità e delle economie di scala – enormi investimenti in domini che crescono e si auto-rafforzano attraendo utenti con offerte basate su costi marginali – i monopoli hanno molte chance di affermarsi. Nonostante la varietà e numerosità degli attori coinvolti prefiguri una situazione molto più complessa, ciò sembra valere anche nel caso di internet, e almeno in due specifici punti della sua catena del valore.

Nel punto più basso, a livello di connettività, oppure, in quello superiore, nell’ambito dei servizi a più alto valore aggiunto, più legato alla qualità dei contenuti e definito over-the-top per la caratteristica di internet di supportare servizi end-to-end – costruire una comunicazione diretta client-server su un trasporto unificato dal protocollo comune IP fornito da terzi, normalmente dalle aziende di telecomunicazioni.

Una recente ricerca ha certificato che solo 30 aziende internet riescono a controllare il 30% del traffico globale della rete. Solo due anni prima la metà del traffico era generato da ben 5.000 imprese; la stessa percentuale oggi è gestita da solo 150 compagnie (Atlas Internet Observatory 2009 Annual Report, 2010).

Una delle spiegazioni potrebbe risiedere proprio nel successo delle architetture cloud: il mantenimento e l’espansione dei servizi richiede enormi investimenti e, mediamente, le infrastrutture di alcuni degli ultimi data center sviluppati — ad esempio, da Microsoft o Apple — impegnano tranquillamente un miliardo di dollari.

La pressione economica è così forte che si prevedono a breve molte operazioni di fusione tra i provider del settore più oberati da debiti e che hanno minori possibilità di inserirsi nella parte alta della catena del valore dei servizi ICT, così come di attrarre le persone con le specifiche competenze (The danger of the coming ‘big cloud’ monopolies, 2010).

Google story
Termineremo queste sommarie riflessioni provando a ripercorrere e  comprendere meglio la genesi e la forza di queste nuove forme di concentrazione che, nonostante l’improvvisa evidenza, hanno avuto molto tempo per ramificarsi. Seguiremo la storia di Google. Questa impresa incarna l’ideal-tipo della filosofia del computing di rete avendo sviluppato da subito saperi e infrastrutture di elaborazione pensate e implementate in una logica distribuita e, allo stesso tempo, unitaria. La cattura e indicizzazione della massa dei contenuti della rete ai fini della ricerca rapida gli ha consentito di conquistare un enorme platea e la conseguente attenzione degli utenti online collocandola in una posizione primaria nell’ambito dei servizi advertising, uno dei modelli di business realmente consolidato nel settore.

Ma la capacità di coordinare, organizzare e gestire sincronicamente, in maniera interrelata e modulare, una considerevole quantità di risorse hardware e software è stata altresì sfruttata, migliorandone le economie di scala, per sviluppare e supportare via via altri servizi (e-mail, mappe, foto, calendari, libri, news, video, strumenti di office, storage, ecc.). Con una tale panoplie di risorse essa continua ad alimentare un inarrestabile ciclo di progetti innovativi che avanzano anche solo attraverso il semplice metodo del “tentativo ed errore”. Oppure, per dirla con il tecnologo Clay Shirky, che parla esplicitamente di qualità sprigionata dalla quantità, con il sistema del «prima pubblico e poi filtro» (2008).

Mentre ci abituavamo alla semplicità parossistica dell’interfaccia del suo portale, Google ha continuato a edificare nel mondo una potente e sofisticata rete di infrastrutture utilizzando la stessa tecnologia di base della normale utenza – in verità, sui pc ci sono soprattutto prodotti open source che la svincolano dal pagamento delle relative royalty –, assemblando decine di data center ricolmi di personal computer tra di loro interconnessi, attualmente valutati in almeno 1.000.000 di unità e su cui, per ragioni di marketing e di sicurezza, vige una rigida riservatezza.

Un esperto e critico del settore IT, Nicholas Carr, fa il parallelo con quanto avvenuto nella produzione dell’energia elettrica, paragonando queste strutture, a tutti gli effetti dei super-computer, a delle stazioni di potenza nucleari capaci di pompare dati e software in milioni di case e di uffici (2008a). Per le industrie e gli utenti professionali diviene conveniente non sobbarcarsi l’onere delle piattaforme ICT e usufruire direttamente dei servizi cloud erogati a un decimo del loro normale costo, pagando peraltro solo l’effettivo consumo.

Per Carr il modello della produzione centralizzata delle risorse ICT segue le orme del passaggio dall’energia meccanica a quella elettrica avvenuto circa 100 anni fa, quando gli utilizzatori – imprese e, successivamente, normali utenti – trovarono più conveniente abbandonare la produzione autonoma per usufruire della corrente elettrica pagata a consumo, veicolata dalla rete di cavi delle aziende specializzate operanti su larga scala (2008b).

Pronti ad allargare le possibilità di distribuzione e consumo anche alle utenze non professionali domestiche, e innescando una spirale di crescente utilità sociale, gli impianti di grandi dimensioni riuscirono a offrire l’energia a costi incrementali incredibilmente bassi.

Il parallelo in termini di propellente tra energia elettrica e informazione è, in verità, anche un’efficace metafora della svolta postindustriale. Anche in questo caso il passaggio si accompagna a venature di preoccupazione su come si articola il cambiamento poiché le tecnologie ICT stanno inducendo una rimodulazione a livello di industria e commercio, e il fenomeno interessa anche

il divertimento, il giornalismo, l’educazione, la politica e la difesa nazionale. Le onde dello shock prodotte dal movimento nella tecnologia computerizzata saranno intense e lunghe. Possiamo già vedere i primi effetti attorno a noi – nell’indebolimento del controllo dei media da parte delle istituzioni e dalla presa della gente, nel crescente senso di affiliazione delle persone con le “comunità virtuali” piuttosto che con quelle fisiche, nei dibattiti sul valore della privacy (Carr, 2008a).

Il parallelo energia elettrica informazione funziona bene ma è comunque limitativo, come sembra trapelare da queste ultime considerazioni. In effetti, l’informazione, con la sua natura simbolica, non è mai qualcosa di neutro ma ha un potere che si declina in ogni fase della sua vita impregnando e plasmando sempre più in profondità – in sistemi sociali dove si intensificano le relazioni a distanza e si producono e consumano beni ideati e gestiti con dispositivi knowledge-based – la vita di cose, persone, gruppi e comunità.

Riferimenti

Atlas, 2010, Atlas Internet Observatory 2009 Annual Report.

Benkler, Y., 2006, La ricchezza della Rete. La produzione sociale trasforma il mercato e aumenta le libertà, Milano, Egea, 2007.

Berman, M., 1982, L’esperienza della modernità, Bologna, Il Mulino, 1985.

Carr, N., 2008a, A revolution is taking shape, in “The Financial Times”, 29 gennaio.

Carr, N., 2008b, Il lato oscuro della rete. Libertà, sicurezza, privacy, Milano, Etas.

Marx, K., Engels, F., 1848, Manifesto del partito comunista, Milano, Mondadori, 1978.

PEW, 2010, The future of cloud computing, 11 giugno.

Rifkin, J., 2000, L’era dell’accesso. La rivoluzione della new economy, Milano, Mondadori.

Shirky, C., 2008, Uno  per uno, tutti per tutti. Il potere di organizzare senza organizzazione, Torino, Codice, 2009.

The State of the Internet Operating System, 2010, «O’Really Radar», 29/3.

The danger of the coming ‘big cloud’ monopolies, 2010, «InfoWorld», 20/10.

Yahoo’s offloading of Delicious a reminder of cloud risks, 2010, «InfoWorld», 17/12.