Parte 1/ Investire nell’accesso e nei contenuti
Negli ultimi tempi internet è gradualmente avanzato nelle priorità argomentative delle varie autorità nazionali che regolamentano il settore delle telecomunicazioni, fino a diventare uno degli argomenti centrali.
In particolare, il dibattito è diventato molto animato negli Stati Uniti. Le ragioni sono molteplici, ma, a guardare con distacco la situazione, l’urgenza è dettata fondamentalmente da istanze economiche e dunque da motivi seri visto sia gli effetti che la rete sta determinando in molti campi, sia il massiccio livello di investimenti richiesti da un settore che segue logiche infrastrutturali ed economie di scala.
Per essere chiari, il problema è ugualmente rilevante in ogni regione del mondo e riguarda il nuovo ruolo che internet e i servizi associati stanno assumendo a livello di sviluppo e di consumo in molteplici aree: lavoro, comunicazione, informazione, divertimento. E tuttavia, oltre a essere una nazione leader nel campo dell’ICT, il caso statunitense è interessante per la sua ideal-tipicità dato che il perno su cui ruotano generalmente tutti questi discorsi è l’economia di mercato e le sue proprietà nello stabilire le migliori condizioni di sviluppo del sistema.
In effetti, rispetto ad altri paesi, e in particolare europei, le telecomunicazioni americane sono nate e si sono evolute seguendo l’approccio di mercato, una tradizione in qualche modo esportata con le spinte alla deregulation degli anni ’90 del XX secolo. In questo contesto, non interessa soffermarci sulla natura o validità della scelta ma sul necessario e problematico rapporto che si viene a stabilire tra le logiche del privato e quelle del pubblico quando si demanda al libero gioco del mercato la gestione e lo sviluppo di beni particolari.
Tra l’altro, il dibattito americano si incanala in una lunga tradizione che vede riproporsi il dilemma in maniera ciclica, tanto che gli USA hanno dovuto costituire fin dal 1934 una specifica autorità federale, la FCC (Federal Communication Commission), che possiamo considerare il modello-madre di ogni authority tcl, per dirimere controversie inconciliabili e/o tutelare gli interessi più generali. Da allora, questa agenzia federale ha dovuto trattare temi delicati e fondamentali per una nazione che, per tutta una serie di ragioni, ha riconosciuto immediatamente l’importanza dei media per la propria società, provando a governare e anticipare le derive a cui una mancanza di consapevolezza al riguardo potrebbero portare.
Ed è proprio a fronte di questa tradizione che i governi si preoccupano di potenziarne le strutture per essere in grado di affrontare velocemente e adeguatamente i cambiamenti epocali che le nuove forme di comunicazione/informazione allo stesso tempo registrano e alimentano (GAO, 2009). In effetti, queste tecnologie si rivelano oggi ancora più centrali per ogni tipo di attività, costituendosi a loro volta come nuovo territorio di sviluppo e innovazione culturale, sociale ed economica.
Nel farlo, esse creano le condizioni in cui persone, gruppi o organizzazioni riescono a sfidare gli assetti e le mentalità in essere, provocando sconcerto e rapide rivoluzioni in vari settori. Il pericolo che devono affrontare le società sono allora le reazioni scomposte di chi si trova impreparato ai cambiamenti, che può implementare azioni non ponderate perché al di fuori di un contesto di analisi che sappia valutarne le ricadute per tutta la società, anche in termini di ritorni economici.
Il lavoro delle agenzie è di aprire riflessioni pubbliche, sollecitando e raccogliendo elementi che avviino e concludano un dibattito per stabilire i principi e le politiche più adatte al bene comune, in un contesto che è necessariamente diverso dal precedente e dove le implicazioni di ordine internazionale richiedono armonizzazioni accorte e aperte.
Un fresco esempio riguardo agli approcci e alle procedure riguarda il sistema informativo giornalistico, un problema che sta accomunando tutte le democrazie. Aprendo la discussione sull’informazione al tempo dei nuovi media, un dibattito che si terrà sia nelle sedi pubbliche sia attraverso un apposito sito web per allargarne al massimo grado la partecipazione, l’attuale chairman della FCC Julius Genachowski sintetizza così i termini della discussione.
Noi siamo a un passaggio critico nell’evoluzione dei media americani. Un cambiamento tecnologico rapido nel mondo dei media ha creato enormi opportunità di innovazione. Ma esso ha anche causato problemi finanziari per i media tradizionali, mettendo in questione il fatto di poter mantenere il loro storico ruolo nel fornire alle comunità locali le notizie e le informazioni civiche essenziali (FCW, 2010).
Detto in altri termini, il problema è capire come rimanere informati su ciò che accade in un mondo così interconnesso e immediato conciliando velocità, accuratezza, qualità e indipendenza dell’informazione così da avere un cittadino capace di decidere sui propri destini e quelli della comunità in/con cui vive.
In pratica, come essere meglio attrezzati per affrontare vecchi e nuovi problemi in maniera solidale. Ciò comporta farsi carico anche della transizione rispetto al funzionamento e mantenimento della precedente attrezzatura, che è comunque solo uno degli aspetti della questione ma che spesso si utilizza per perpetuare rendite di posizione economiche e, soprattutto, politiche, impegnando risorse pubbliche per dispositivi che tendono comunque a degradarsi e a implodere inesorabilmente su se stessi.
Con la discussione intorno alla neutralità della rete abbiamo l’occasione di entrare più compiutamente nel merito del nuovo ecosistema e capire i risvolti economici primari che governano (o negano) costituzione e sviluppo di questo nuovo ambiente connettivo, così come le basi per stabilire su di esso una governance socialmente accettabile.
La neutralità della rete
Nell’affrontare il tema della “neutralità della rete”, il principio per cui un operatore di telecomunicazione deve essere indifferente ai contenuti veicolati dal servizio offerto garantendo un accesso non discriminatorio (un principio che ereditiamo dal sistema telefonico, a sua volta proveniente dal sistema di trasporto ferroviario), non facciamo altro che proseguire il discorso trattato nel precedente intervento. In esso avevamo evidenziato come in internet stia avvenendo un passaggio in cui si registra un trasferimento di ricchezza verso le attività più legate al mondo dei contenuti rispetto a quelle relative alla connessione e al trasporto puro del traffico dati, che è la funzione classica degli operatori tlc.
In questo nuovo intervento vedremo la situazione non dalla parte più nascosta della rete, ma all’altro terminale, quello dell’accesso. Ciò consentirà di legare le due problematiche avvicinandole alle esperienze degli utenti e dunque ai temi più concreti e sensibili che questa (nuova) forma di comunicazione ed espressione — personale, di massa e di autocomunicazione di massa (Castells, 2009) — sta stimolando, e a cui bisognerà rispondere per avere la capacità di mantenerne la struttura e coordinarne gli sviluppi.
Per inoltrarci nella questione approfitteremo in prevalenza di un recente e articolato studio prodotto per contestualizzarne meglio il tema e arricchirne le riflessioni a valle delle regole che la FCC ha formulato per dirimere le controversie che si stanno creando tra i fornitori di accesso — gli ISP, Internet Service Provider — e i fornitori di contenuti in merito alle possibilità di poter discriminare le tipologie dei traffici dati per fini eterogenei. In questi casi è prassi aprire una discussione in cui le regole sancite vengono commentate e dibattute pubblicamente così da poterle poi (eventualmente) modificare, emanandole definitivamente.
Proveremo a seguire tutto lo svolgersi dei ragionamenti fatti dall’Institute for Policy Integrity della New York University School of Law perché li reputiamo istruttivi per chiarire la natura complessa di questo genere particolari di beni. Il lavoro è altresì prezioso perché il profilo a cui si attengono gli studiosi è quanto più possibile economico e dunque, se vogliamo, massimamente oggettivo per chi si sforza di circoscrivere il problema a questo solo ambito.
Allo stesso tempo, esso mostra come questa pretesa di affrontare i risvolti evitando di cadere in ciò che spesso viene considerato inquinamento ideologico sia un’ingenua speranza alla luce degli ampi risvolti politici, sociali e culturali che gli attuali sviluppi tecnologici comportano. (La questione è molto seguita: sono circa 200.000 i commenti attualmente pervenuti sul tema alla FCC, e provengono da un insieme di persone che impressiona per l’eterogeneità delle attività che esplicano attraverso la rete, e che sono perlopiù interessati a mantenerla quanto più possibile “aperta”).
La premessa
Nell’affrontare l’argomento si richiama il valore che l’insieme di infrastrutture e contenuti che definiamo internet ha assunto per la società, influenzando drasticamente la vita di milioni di persone, ad esempio a livello di contatti e di possibilità di curare affetti, soprattutto per gli emigranti di ogni parte del mondo; per la ricerca e ottenimento di beni e informazioni, dalle più banali alle più sofisticate; per lo sviluppo e gli scambi culturali, lavorativi, organizzativi, partecipativi o di critica politica, e così via.
Tutto ciò è stato reso possibile anche dal fatto che internet ha quasi annullato i costi di ingresso per iniziare delle attività, una condizione necessaria per non scoraggiare preventivamente chi ha soprattutto idee e progetti ma scarsi supporti o aiuti finanziari. Un altro elemento importante è che la forza che fa diventare internet “più grande, intelligente e utile ogni giorno che passa” è la “profondità ed estensione” dei suoi contenuti.
Questa premessa costituisce l’ottica più appropriata per inquadrare il problema della cosiddetta “neutralità della rete”, quel principio che consente di usufruire di questo mondo di informazioni e conoscenze, così come di alimentarlo, pagando solo per il servizio di accesso, al di là dei contenuti che poi si tratteranno. Un modello, dunque, che non concepisce la possibilità di poter imporre un ulteriore balzello sulla base dei dati smistati o del numero di utenti raggiunti, una modalità di pagamento che costituirebbe un innalzamento delle barriere partecipative.
La Federal Communications Commission (FCC) ha proposto nell’ottobre 2009 una serie di regole perché gli Internet Service Provider continuino a garantire questa parità di accesso di fronte alla minaccia di applicare nuovi meccanismi quali, ad esempio, la prioritarizzazione delle tipologie dei traffici, giustificata ai fini di gestire e prevenire le congestioni dei canali di trasmissione.
Con questa presa di posizione la FCC risponde a due contrapposti fronti. Da una parte vi sono coloro che sono contrari a ogni regola che limiti il libero gioco degli interessi degli agenti in campo, e che vedono la stessa iniziativa come una forma di intrusione e limitazione. Tuttavia, il traffico internet è in costante aumento e richiede agli ISP adeguamenti di strutture e strumenti di gestione che, a loro detta, non vengono remunerati adeguatamente. Inoltre, ogni svolta negli usi e negli sviluppi di internet produce effetti che si rivelano quasi sempre poco prevedibili, un fenomeno che complica, se non adeguatamente affrontato, l’erogazione e la qualità dei servizi.
I sostenitori della neutralità della rete fanno però notare come la deroga del principio porterebbe gli ISP ad agire come gatekeeper pronti a sacrificare proprio la creatività e l’espansione espressiva e funzionale di internet. Chi propone i contenuti si sobbarca già i costi elaborativi delle idee e lo sviluppo pratico dei progetti, avviando così nuovi format che arricchiscono tutta la rete.
L’erogazione dei servizi di trasporto basati su una differenziazione tipologica dei flussi introdurrebbe, per potersi garantire le adeguate performance trasmissive, un ulteriore pagamento e ciò sarebbe un altro ostacolo alla creatività e, molto probabilmente, la stagnazione di internet.
Al riguardo, molto interessanti sono le note spedite alla FCC dagli sviluppatori di video giochi online. Essi lamentano una progressiva balcanizzazione della rete a vantaggio esclusivo dei grandi player — quali Apple, Microsoft, Sony, ecc. — che possono permettersi di contrattare privatamente le condizioni di accesso alle reti forti dei guadagni che realizzano le proprie filiere produttive (applicazioni, hardware, policy commerciali globali e nazionali, ecc.). Invece, già ora i produttori di software indipendenti incontrano situazioni di rete in cui si vedono degradare le prestazioni trovandone poi le cause in “blocchi” temporanei che, a loro dire, possono essere messi in atto dagli ISP sulla base dei tracciamenti sempre più puntuali delle tipologie di traffico, fenomeni che infatti spariscono dopo le loro precise lamentele. (I software delle piattaforme dei videogiochi online soffrono dei ritardi con cui viaggiano i messaggi più che dalla ristrettezza di banda in quanto le informazioni sono snelle ma fondamentali per tenere aggiornate le posizioni dei giocatori in real-time e garantire l’evoluzione coordinata)*.
Il lavoro di Inimai M. Chettiar e J. Scott Holladay, rispettivamente esperto di legge e di economia, vuole esaminare le posizioni degli operatori di rete e dei content provider. Il loro intento è di cercare la migliore risposta per soddisfare, da un punto di vista economico, gli interessi di entrambi i fronti, essendo tra l’altro consapevoli che un’analisi ristretta ai soli termini economici risulti riduttiva rispetto al compito e agli scopi propri della commissione. La FCC, come organo di controllo delle policy delle comunicazioni negli Stati Uniti, dovrebbe avere infatti l’obiettivo di salvaguardare gli interessi più generali e la peculiarità — in termini di funzionalità, creatività e libertà — di internet per tutti i cittadini americani.
Le regole di internet
Per neutralità di rete si intende la “libertà di accedere indifferentemente contenuti, servizi, applicazioni e dispositivi”. In pratica, la tariffa che un ISP applica agli utenti che interconnette (semplici utenti, fornitori di contenuto, ecc.) deve essere unica e non discriminate rispetto a come le persone possono recuperare o uploadare i dati da/per i siti — per dire, far pagare diversamente se si va verso Yahoo o altri. Ad oggi ciò si dà per scontato ma non vi è un obbligo di legge. Un provider potrebbe per esempio decidere di far pagare di più l’interconnessione a Yahoo, o di negare l’accesso al suo sito da parte del proprio bacino di utenti mettendo a rischio l’architettura end-to-end che ha fatto la fortuna di internet ed aprendo quindi la strada ad una network fragmentation.
La FCC sta provando a far diventare la prassi della neutralità una legge per preservare il carattere universalistico di internet. In generale, la FCC, fin dalla sua nascita, è intervenuta nel settore delle telecomunicazione solo per gestirne le politiche di uso sulla base di contestazioni che nascevano da singoli episodi. Solo nel 2004 ha deciso di impostare un regime speciale e comprensivo che, in qualche modo, tutelasse la natura di internet stabilendo che:
- gli utenti hanno il diritto di accedere, nel rispetto delle leggi, i contenuti liberamente scelti;
- gli utenti hanno il diritto di sviluppare e usare le applicazioni liberamente, sempre che non contravvengano a qualche legge;
- gli utenti hanno il diritto di connettere i dispositivi che scelgono, a patto che non siano pericolosi per il funzionamento della rete;
- gli utenti possono competere con tutti gli attori coinvolti nella rete a livello di rete, servizi e applicazioni.
Nel 2008, in seguito al caso Comcast, un provider di rete via cavo che monitorava il traffico dei propri abbonati per individuare connessioni peer-to-peer, rallentandone i flussi quando la velocità di trasferimento sulle proprie linee degradava, la FCC è intervenuta bloccando le pratiche discriminatorie proprio sulla base del secondo punto (diritto di sviluppare e usare le applicazioni liberamente).
Allo stesso tempo, si è convinta di dover affermare con più forza il rispetto dei suddetti punti, aggiungendone altri due. Questi, in sintesi, rammentano la non applicabilità di politiche di discriminazione sulla base delle tipologie di traffico generate dall’utente, concedendo invece che vi sia un monitoraggio “ragionevole” volto a migliorarne la gestione in real-time (prevenzione malware, congestioni, comportamenti individuali che inficiano altri singoli utenti).
La pratica deve comunque essere specificata chiaramente e può anche sfociare, in alcuni casi, in offerte commerciali peculiari per quegli utenti che hanno particolari esigenze. Per la FCC il termine “ragionevole” è un termine ombrello che offre all’ISP quella flessibilità sufficiente a poter analizzare i trend di sviluppo dei servizi.
La definizione del contesto economico
Da un punto di vista economico lo scopo della FCC dovrebbe essere quello di massimizzare il valore degli asset internet, vale a dire
la combinazione di proprietà intellettuale, capitale fisico e lavoro umano che è stato ed è dedicato alla costruzione e al mantenimento della struttura fisica e dei contenuti che la formano. Massimizzare il valore netto attuale — che è il valore attuale di tutti i flussi netti futuri dei guadagni (o, più generalmente, utility) derivati da internet — assicura che queste risorse siano utilizzate nella maniera più produttiva possibile. Assicurare un livello ottimale degli investimenti e un’allocazione ottimale di quegli investimenti massimizzerà il valore netto attuale di internet.
Sfortunatamente, nonostante le critiche o gli appoggi agli interventi regolatori cerchino le proprie giustificazione nell’ambito economico, i dati necessari a stimare il “valore di internet non sono disponibili”. Tuttavia, sulla base della teoria economica, è possibile avanzare un discorso sugli impatti che la neutralità di rete può avere sul suo valore. A prima vista, dato che tende a lavorare per favorire gli incentivi dei privati e, allo stesso tempo, mantenere gli investimenti in internet su un livello ottimale, essa dovrebbe avere degli impatti positivi.
In ogni caso, è possibile sviluppare un’analisi su più livelli. Il primo è quello delle “esternalità di rete” — miliardi di dollari per la vita americana — che internet produce come insieme di infrastrutture e contenuti, un valore che può giustificare gli interventi atti a superare i fallimenti del mercato e incentivare gli investimenti ottimali.
La seconda linea di approfondimento deve vagliare la funzione di bilanciamento tra interessi dei provider di rete e interessi di chi tratta o genera i contenuti che la neutralità di rete assicura, impedendo lo sviluppo di meccanismi che spostano ricchezza da un attore a un altro.
La terza linea di analisi prova a spiegare come questo spostamento di ricchezza possa influenzare l’evoluzione di internet assecondando forse uno sviluppo più potente delle infrastrutture, danneggiando però l’estensione delle pratiche o dello sviluppo dei contenuti dato il venire meno delle capacità di investimento in taluni attori. (Non considerando il fatto che è arduo avere la certezza che tali spostamenti di ricchezza diventino poi effettivamente degli investimenti su internet).
Ultimi due aspetti indagati: la difficoltà di sussidiare i diversi agenti rispetto all’efficacia di fissare nel tempo le regole appropriate, e gli effetti deleteri di una politica di discriminazione verso determinate tipologie di servizi, che sposterebbero le convenienze su determinati contenuti a detrimento di altri.
Il tesoro nascosto di internet, ovvero le esternalità positive
Il mondo, come sappiano, non è perfetto. Di conseguenza, spesso non riesce a esserlo neanche il mercato. La regolazione governativa deve allora intervenire per prevenire “fallimenti” che comportano una perdita di benefici per l’intera società. Il discorso è particolarmente interessante quando si riferisce a internet perché struttura che tende a generare una specie particolare di fallimento di mercato, le cosiddette “esternalità positive” per cui “i produttori non sono interamente compensati per i benefici che i loro prodotti creano”. Il rischio così è di abbassare l’impegno verso i prodotti degradando la produzione invece di portarla a un livello socialmente ottimale.
La struttura di internet
Ai fini di una corretta valutazione, internet dovrebbe essere pensata come un insieme comprendente tutte le infrastrutture di connessione e di trattamento delle informazioni — reti fisse e mobili, server centralizzati e dispositivi periferici dei provider e degli utenti, con i relativi software di base — e di contenuti — informazioni, siti web, blog, forum, video, applicazioni software, ecc. Gli utenti ottengono direttamente informazioni ed esperienze da questi contenuti, che diventano chiaramente anche materia di condivisione sociale e dunque anche patrimonio dei “non utenti”. Inoltre, “più le persone accedono, usano o aggiungono informazioni alla rete, più aumenta il valore della connessione per ognuno”.
L’accesso alla rete è un input di valore anche per le industrie, sia per i processi di produzione che per la distribuzione (prodotti, informazioni) verso i propri clienti. La possibilità di comunicare velocemente e flessibilmente è centrale per ogni attività, si pensi solo al settore dei servizi (educativi, professionali, pubblici, ecc.). Tipicamente, è possibile rappresentare i termini della interconnessione tra i vari agenti all’interno della infrastruttura internet in questo modo.
Utenti finali e produttori di contenuto sono entrambi connessi agli Internet Service Provider che forniscono l’accesso alla rete a fronte del pagamento di una quota su cui non influisce il modo in cui si attiveranno i flussi di traffico (parte sinistra). Senza la regola della neutralità di rete (parte destra della fig.), l’ISP potrebbe far pagare diversamente gli upload dei provider di contenuto rispetto invece ai download degli utenti finali, così come discriminare economicamente il formarsi di circuiti di contatto tra determinati content provider e i propri utenti.
Nella figura si possono notare diverse tipologie di ISP. Gli operatori di rete più interessati alla neutralità di rete sono quelli dell’ultimo miglio, ovvero coloro che curano l’accesso e la distribuzione dei contenuti agli utenti sul territorio e che devono, perciò, sobbarcarsi gli oneri degli ingenti investimenti necessari a portare e assicurare le connessioni fisiche con le residenze dell’utenza. Nella parte di rete più a monte che costituisce l’internet backbone gli ISP — agendo da intermediatori tra ISP — affrontano altri livelli di problematiche (vedi l’articolo precedente) ma, ovviamente, qualunque cambiamento nella politica di neutralità verso i traffici veicolati potrebbe avere riverberi anche sulle loro azioni commerciali.
L’inefficienza del mercato di internet
Le critiche che si fanno al rispetto della neutralità della rete si richiamano costantemente alla distorsione che si ha in termini di dinamiche di mercato. Gli interventi statali hanno sempre l’effetto di impedire l’evolversi naturale degli interessi e rischiano di frenare l’innovazione e disincentivare gli investimenti. Gli ISP si vedono limitati nella possibilità di gestire o sviluppare meglio e velocemente le proprie reti. Soprattutto, essi lamentano di non avere possibilità di incrementare i guadagni rispetto alla mole di investimenti che la rete e i suoi servizi sempre più sofisticati richiedono, un fatto che provoca il rallentamento del passo con cui le infrastrutture possono essere aggiornate e potenziate.
Per quanto ben fondate, queste critiche non considerano un fatto fondamentale:
internet non funziona come un mercato ideale: data la sua struttura di rete e la capacità degli utenti di trasferire conoscenza in maniera gratuita ai non utenti [o ad altri utenti esterni allo stretto circuito della transazione originaria N. d. T.], internet crea esternalità positive pervasive che riducono sistematicamente gli incentivi a investire. In tali circostanze, è una politica statale ben congegnata che può garantire dei correttivi a questo tipo di distorsione.
La teoria dell’efficienza del mercato prevede che il raggiungimento dell’equilibrio ottimale si realizzi nel punto di incontro tra l’offerta e la domanda: è qui che si determina il prezzo di un bene su cui converge la volontà del venditore e del compratore nel finalizzare una transazione.
Per definizione, il prezzo sarà più basso di quello che il compratore sarebbe stato disposto a pagare, ma più alto di quel valore sotto cui il venditore non può rilasciarlo. Con queste soglie, definite reservation price, si possono calcolare i benefit economici degli agenti (economic surplus).
Il consumer surplus è la differenza tra quanto preventivato e quanto pagato dall’utente, mentre il producer surplus è il sovrappiù tra il prezzo e la soglia minimale del venditore. Per essere efficiente, un mercato deve massimizzare la somma di questi due surplus. Ciò non implica che deve preoccuparsi anche della sua distribuzione — uno dei due agenti potrebbe avere maggiori benefici. Invece, in questo mercato in cui il confronto è tra chi vende l’accesso all’informazione e chi la compra, sono i principi riguardanti la neutralità che, in definitiva, si prendono in carico la gestione della distribuzione dei surplus.
In presenza di un mercato di beni standard si può avere una situazione ideale per cui si verifica il massimo beneficio per entrambi gli agenti.
In pratica, accade spesso che questa massimizzazione non comporti una suddivisione equilibrata dei benefit e il prezzo possa svantaggiare, ad esempio, i consumatori. Se fossimo dunque in presenza di beni standard la strada migliore sarebbe proprio, come affermano gli oppositori della neutralità, quella di lasciar fare il mercato e aggiustare il prezzo con la pura e libera competizione.
In presenza di scarsa competizione o possibilità per il venditore di applicare qualche forma di discriminazione aprioristica sui prezzi, il consumatore non ha evidentemente il miglior risultato possibile mentre per il venditore la risposta non può essere così netta ma, essendo il livello del prezzo aumentato, ha molte più probabilità di averci guadagnato. Sicuramente, invece, si crea una disfunzionalità generale in quanto parte dei benefici possibili svaniscono. In questo caso, da parte di un buon governo, si cerca di incentivare la competizione (che forza l’efficienza) attuando dei ragionamenti che sposano le logiche di mercato cosicché il prezzo dei beni possa scendere.
Inefficienze di mercato ed esternalità
Il problema è che non abbiamo a che fare con prodotti standard.
Il mercato di internet non è efficiente per due ragioni primarie: in esso si formano esternalità informazionali e di rete. “L’esternalità’ accade quando l’acquisto di un bene comporta un beneficio o un costo che non è catturato dall’acquirente o dal venditore di origine. In altre parole, la transazione produce effetti che sono esterni al mercato
e ciò crea inefficienze.
L’esternalità possono essere negative, come nel caso dell’inquinamento prodotto dalla produzione dell’elettricità. In genere, essendo scaricate all’esterno, esse non impediscono al mercato di sviluppare una produzione efficiente (dal punto di vista quantitativo ovviamente….). Se sono positive, invece, il prezzo tenderà a trovare un equilibrio che non potrà mai scontare l’intero beneficio nell’ambito del circuito compratore e venditore. Una parte rimarrà sempre fuori per il vantaggio di terzi. Il mercato allora tenderà a produrre una quantità inferiore di beni funzionando sempre al di sotto delle sue possibilità ottimali provocando così distorsioni nell’efficienza. Ed è allora che nascono i presupposti per un intervento governativo.
Le esternalità di rete
L’esternalità di rete è un effetto tipico di quelle strutture relazionali che acquistano valore via via che si incrementa il numero di utilizzatori in quanto si attivano nuove possibilità di scambio. Il sistema telefonico è un esempio classico.
Internet acquista valore per ogni utente nel momento in cui altri utenti vi si aggiungono. Questo fenomeno accade in parte perché i suoi utenti sono anche creatori di contenuto. Sono poche le persone che riescono a programmare in java ma parecchi utenti commentano storie, inviano email a listserv, postano annunci e richieste a Graiglist e Ebay. Le strutture di internet rendono abbastanza semplice ad ogni utente di generare contenuti che altri utenti trovano interessante.
Tale principio vale anche al suo interno: vi è una continua ricerca di aumentare la desiderabilità di servizi e siti per attrarre utenti, e tutto ciò provoca dei continui feedback positivi per tutta internet.
Anche l’esternalità di rete crea inefficienze in quanto l’estensione del numero di utenti e la quantità e qualità dei contenuti sono sia la forza che l’ostacolo — sicuramente nella fase iniziale — ad un’ottimale livello di produzione e consumo (la non aggregazione di utenti sufficienti non stimola i relativi investimenti infrastrutturali). Gli interventi governativi tendono sia a contrastare le fasi più critiche dello sviluppo che a gestire le sue dinamiche disequilibranti.
Esternalità informative
Un altro tipo di esternalità positiva è quella informazionale perché si ampliano le possibilità di usufruire di informazioni in maniera gratuita. In questo caso l’informazione diventa “bene pubblico”, e dunque un bene non oggetto di contesa, non rivale (un ulteriore uso non deprime il suo valore) e non esclusivo (a cui cioè è difficile impedire l’accesso).
Nonostante l’esistenza dei diritti di proprietà intellettuale, una gran parte dell’informazione, per svariati e fondamentali ragioni, è libera da tali limitazioni. Anche in questo caso, la facilità di circolazione e condivisione delle informazioni in internet oltre i circuiti originali dello scambio porta il mercato a mantenere un livello di produzione minore rispetto all’ottimale.
Ma quali sono gli effetti dell’esternalità? Se si parte dalla teoria economica si può affermare che qualunque intervento esterno sulla normale dinamica di formazione dei prezzi comporta una produzione che non sfrutta adeguatamente le possibilità di soddisfare efficacemente la domanda e dunque la disponibilità dei beni per l’intera comunità.
Ma ciò vale, appunto, quando non si presentano i suddetti difetti che, se lasciati a se stessi, portano a non sviluppare adeguatamente né le strutture né i contenuti.
Se lo scopo delle politiche statali è di massimizzare il valore di internet, la regolazione del prezzo può essere giustificato per affrontare le esternalità di rete e di informazione. La necessità di compensare pienamente i fornitori di contenuto per i benefici informativi che forniscono alla società e correggere gli effetti sulla rete è un problema ben noto. Tuttavia, vi sono poche soluzioni. Quando il reale valore di questa informazione è sconosciuto, il valore reale per la società degli investimenti in contenuti e infrastrutture necessarie per accedere quel contenuto sono nascosti. I benefici degli investimenti privati in internet sono più bassi rispetto a quelli sociali perché le esternalità informative e di rete rendono impossibile alle aziende di internet di ricevere compensazioni per tutto il valore che essi forniscono. Finché queste esternalità non saranno corrette, le infrastrutture e i contenuti di internet soffriranno una offerta non ottimale.
In questo caso, la letteratura economica suggerisce tra i rimedi anche forme più o meno dirette di sussidiarizzazione. In genere, le economie di rete non partono in mancanza di utenti e gli utenti non entrano in un mercato “vuoto”.
Allora, si possono agevolare gli accessi abbassando temporaneamente, facendosi carico di parte degli oneri, la tassa applicata ai servizi di accesso. Da parte loro, gli ISP suggeriscono di considerare il mercato nella sua doppia entrata, così da poter far pagare gli accessi verso i fornitori di contenuto agli utenti, e gli accessi verso gli utenti ai fornitori di contenuto. Questa logica di tariffazione potrebbe essere sostituita invero da una doppia logica di sussidiarizzazione da parte dello Stato (incentivare utenti e provider).
Più in generale, e come dimostrato con successo più volte nella storia economica, si può ragionare alla luce di un intervento statale che salvaguardi e incrementi i benefici vitali di questi particolari beni per tutta la società. Esso prevede interventi coordinati in un bilanciamento di incentivazioni e di modulazione dei principi di neutralità di rete.
“Prese insieme, queste misure correggono almeno alcune di queste esternalità positive associate con internet, facendo innalzare il livello degli investimenti complessivi rispetto a quanto accade in un mercato non regolamentato”.
(fine parte 1)
* Game Developers Note Net Neutrality Concerns To FCC, 15/1/2010.
Bibliografia
Castells, M., 2009, Comunicazione e potere, Università Bocconi, Milano.
FCW (Federal Computer Week), 2010, FCC launches discussion on the news media. Commission examining TV, newspapers, radio in the digital age, 10/1.
GAO (U.S. Government Accountability Office), 2009, FCC Management: Improvements Needed in Communication, Decision-Making Processes, and Workforce Planning.
Chettiar, I., Holladay, J., 2010, Free to Invest. The Economic Benefits of Preserving Net Neutrality, Institute for Policy Integrity, New York University School of Law.