Decentramento Editoriale, Facilità D'uso E Concorrenza Nella Crescita Di Internet (2008)

  • Uploaded by: Alberto Cottica
  • 0
  • 0
  • October 2019
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Decentramento Editoriale, Facilità D'uso E Concorrenza Nella Crescita Di Internet (2008) as PDF for free.

More details

  • Words: 2,018
  • Pages: 3
Il giardino senza giardiniere: decentramento editoriale, facilità d'uso e concorrenza nella crescita di internet di Mr. Volare (Alberto Cottica) – 3 gennaio 2008 Il rapido sviluppo di internet desta un comprensibile interesse, sia per le sue dimensioni – nel settembre 2007 si stimavano oltre 1,2 miliardi di utenti; già nel 2005 Kevin Kelly valutava che vi fossero 600 miliardi di pagine1 – sia perché si presenta come un fenomeno emergente, dietro al quale non è facile individuare un progetto o uno stratega. In realtà, molte persone che si occupano di internet professionalmente sostengono che precisamente questa mancanza di controllo centrale sia stato un fattore assai potente del processo di crescita della rete delle reti. Nel resto di questo saggio cercheremo di ricostruire i meccanismi con cui questo sarebbe avvenuto. Prima, però, sono necessarie due avvertenze: 1. Non è esatto dire che internet non ha un governo. Esiste una struttura di governance di internet, evoluta a partire dal programma ARPANET negli anni 60 e “risistemata” dopo il 1995 quando il governo USA trasferisce la titolarità della gestione della rete a una serie di organizzazioni indipendenti: la Internet Society, la Internet Architecture Board, la Internet Engineering Task Force, Internet Research Task Force, ICANN, IANA etc. Ciò che è sostanzialmente esatto dire è che tutte queste organizzazioni non hanno alcun piano rispetto al ruolo di internet nella società e nell'economia moderna: semplicemente non si pongono il problema. Formalmente si limitano a fare funzionare il sistema, a gestire l'assegnazione degli indirizzi IP, a fornire standards nella forma di consigli tecnici. Esse, però, hanno giocato un ruolo politico essenziale nel difendere la rete da approcci troppo orientati al business, come vedremo più avanti. 2. La crescita di internet è tutt'altro che un fenomeno unitario. In generale, si può dire che internet nasce nel 1990, dalla connessione tra tre reti: NSFNET, discendente della prima ARPANET (che funzionava dal 1969 e ha dato all'odierna internet buona parte della sua peculiare cultura) e altre due reti accademiche, una in nord America e l'altra in Europa. Nei primi anni (1990-1993) l'applicazione trainante della crescita di internet è stata la posta elettronica. Subito dopo si è avuta l'esplosione del web, e cioè della navigazione ipertestuale: può essere convenzionalmente fatta iniziare nel 1993, con l'invenzione del moderno browser punta-e-clicca, ed è durata per tutti gli anni 90. A partire più o meno dal 1997 le imprese, soprattutto americane, hanno cominciato a concepire internet come un luogo chiave per la crescita dei rispettivi business, il che ha portato al boom della New Economy con i suoi eccessi finanziari. Dal 2003 circa (nascita di del.icio.us), infine, è cominciata una nuova ondata di espansione di internet, legata al cosiddetto web 2.0. Esistono importanti differenze sociali ed economiche tra le diverse ondate, che consigliano di prendere qualunque “teoria sulla crescita di internet” con qualche cautela. Internet, dunque, è cresciuta con una rapidità spettacolare e in un modo assolutamente decentrato. Il carburante di questa crescita, quindi, è stata la volontà di partecipare alle attività in rete di singole persone e imprese: alcune migliaia all'inizio, alcune centinaio di milioni oggi. Queste persone si sono messe in rete perché, semplicemente, hanno trovato utile e affascinante farlo. Ondata, dopo ondata, internet ha reso disponibili servizi in grado di interessare sempre nuovi strati di popolazione: dalla posta elettronica al web 1.0, dalla ricerca di informazioni allo shopping online, dalle reti di file sharing agli odierni social network. Quasi tutti questi servizi hanno a che fare con la connessione tra persone: in effetti è questo che internet fa, connette gente, non computers. L'impulso primario dell'homo sapiens a connettersi – che ha anche una dimensione di efficienza economica, nel senso che lavorare in rete consente un coordinamento molto più stretto tra persone fisicamente lontane e un accesso “celestiale” alla conoscenza – è stato rinforzato da una caratteristica comune a tutte le reti: il loro valore cresce in modo più che proporzionale al numero dei loro nodi. E' la legge di Metcalfe: un singolo telefono non serve a nulla; due telefoni consentono un solo collegamento; ma se tutti hanno il telefono la rete telefonica diventa molto, molto utile. Quindi: internet è cresciuta su centinaia di milioni di decisioni di connettersi, basate sulla disponibilità di informazioni e servizi che i singoli individui hanno trovato utili e rinforzate dalla legge di Metcalfe, per cui ogni persona, connettendosi, aggiunge valore per le altre persone 1 Incluse quelle generate dinamicamente. http://www.wired.com/wired/archive/13.08/tech.html?pg=2&topic=tech&topic_set=

connesse. Impulso a connettersi a partire dalla disponibilità di servizi e legge di Metcalfe valgono per molte reti, non solo per internet. Ciò che contraddistingue la crescita di internet è la grande quantità di servizi e informazioni resi disponibili in breve tempo. Ciò è stato possibile grazie a una decentralizzazione spinta delle decisioni: per esempio, America Online poteva costruire un pacchetto d'offerta connessione/indirizzo email/portale in modo totalmente indipendente dalla decisione di Yahoo! di lanciare un motore di ricerca. Ciò che ha consentito a un numero molto alto di soggetti di “costruire qualcosa in rete”, lanciando il proprio sito web e causando il Big Bang di metà anni 90, è stato un approccio molto aperto alla tecnologia, vissuta come enabler e non come gabbia. Per cominciare, il linguaggio in cui è scritto il codice delle pagine web, HTML, consente di controllare l'aspetto della pagina stessa, in modo del tutto indipendente dal browser con cui la si visualizza. Questo rappresenta un salto logico rispetto al software del tempo (1993), in cui gran parte dell'aspetto, per esempio, di un file Word una volta aperto era codificato in Word. Ha avuto l'effetto di decentrare le decisioni sul look and feel del primo web a un gran numero di web designers indipendenti, e spesso dilettanti, dando a ciascuno di loro il controllo totale sull'aspetto della pagina che progettava. Questo approccio così aperto è uno dei punti più delicati dell'intera discussione: ne riparleremo. HTML è un linguaggio piuttosto semplice (Clay Shirky lo chiama babyish, infantile”); inoltre tutti i browsers fin dal primissimo hanno mantenuto una funzione che consente di visualizzare il codice sorgente della pagina su cui si sta navigando. Questo, naturalmente, ha avuto l'effetto di appiattire ulteriormente la curva di apprendimento di HTML, trasformando legioni di grafici in web designers: bastava visualizzare il codice sorgente di una pagina che andava più o meno bene, copiare il codice sorgente, incollarlo su un nuovo file e usare un semplice editore di testi per apportare le modifiche volute. Disegnare una pagina web è quindi coding, programmazione di software, ma è un coding alla portata dei non specialisti. Già a metà anni 90, oltre alla posta elettronica, era disponibile una forma di partecipazione attiva al neonato web a chiunque avesse un minimo di tempo e buona volontà. Nel frattempo si va delineando una caratteristica molto importante dell'umanità connessa: i meccanismi di concorrenza si intensificano molto. Quando una pagina è cool fa rapidamente il giro della rete, e in un ipertesto ogni cosa è just a click away: quindi, anche se le pagine sono tante e, in assenza di una redazione centrale molte sono piene di “brutte foto di gatti”2, è chiaro a tutti quali sono le pagine da frequentare, e legioni di web designers accedono al suo codice sorgente. La concorrenza tra siti funziona così bene che, nel 1995, l'1% di essi attira il 70% del traffico in rete. La ricetta per la crescita del web primi anni 90, quindi, è composta di tre elementi: l'impulso umano a stare in contatto con i propri simili; una tecnologia accessibile ai non specialisti; e meccanismi di concorrenza efficienti, che premiano e diffondono le innovazioni di successo. Gli stessi elementi, ulteriormente accentuati, si trovano nell'altra e più recente ondata di espansione di internet, quella del web 2.0. Le piattaforme del web sociale come Myspace fanno esplicitamente leva sulla propensione universale a connettersi e a condividere; abilitano i loro utenti a creare e condividere contenuto, senza che questo richieda neppure una conoscenza superficiale di HTML o di qualunque altro linguaggio; e sono esplicitamente competitive, introducendo misure della popolarità dei contenuti creati (numero di amici, visualizzazioni del profilo ecc.). Risultato, un ulteriore allargamento della base di creazione di contenuti di internet. Lanciata nel 2003, Myspace dichiarava oltre 300 milioni di utenti registrati a dicembre 2007: quasi un quarto della popolazione totale della rete. Naturalmente molti di loro caricano ancora brutte foto di gatti, ma nella marea di terabyte di dati caricata ogni giorno si trovano anche molte gemme, soprattutto in ambito musicale, e sono queste ad attirare la maggior parte del traffico. I dati disponibili oggi indicano che questo processo continua, e continua a radicalizzarsi. L'esplosione della blogosfera avvenuta negli ultimi anni va nella stessa direzione: i blog sono ormai legione (112 milioni quelli registrati su Technorati a dicembre 2007). Girano su piattaforme semplicissime da usare; trattano di qualunque argomento che almeno una persona giudichi abbastanza meritevole di attenzione da dedicarvi un po' di tempo, senza l'ombra di un coordinamento centrale; propagano viralmente i contributi migliori, rafforzando la reputazione della persona che li ha proposti; si avvalgono di una batteria di misurazioni che aiuta a farsi un'idea dell'autorevolezza dei singoli bloggers e quindi rafforza il meccanismo di concorrenza tra blog. Lo 2 L'espressione è ancora di Clay Shirky: http://www.shirky.com/writings/view_source.html

“spacchettamento” tra piattaforme e contenuto è sempre più accentuato: per esempio, grazie alla natura open source della maggior parte del software è stato semplice scrivere e rendere disponibili (e gratuiti) programmi che consentono di spostare il contenuto del proprio blog da una piattaforma di blogging a un'altra. Un processo simile è la creazione di applicazioni sociali (per esempio: per la condivisione dei film preferiti) spostabili da una rete sociale all'altra: di questo si interessa il progetto Open Social di Google, che unisce piattaforme come Friendster, hi5, LinkedIn, MySpace, Ning, Salesforce.com, e molte altre. Uno dei fattori abilitanti di questa continua crescita, l'approccio di “aprire il cofano” del software di internet per svelare a tutti il funzionamento del suo motore (in informatica questo approccio si chiama open source) merita un approfondimento. Dopotutto si tratta di un'anomalia storica: il software più diffuso negli anni 80 e 90 veniva venduto in forma di applicazioni eseguibili, con il cofano ben sigillato e protetto da copyright. Nessun programmatore al di fuori dell'azienda che lo produceva aveva accesso al codice sorgente. L'esempio più noto e di maggior successo di questo approccio proprietario e riservato al software è naturalmente Microsoft. La scelta di Tim BernersLee e Marc Andreesen, autori dei primi browsers, di consentire l'accesso al codice sorgente delle pagine sembra dissonante rispetto alla cultura informatica dominante dell'epoca, ma è coerente rispetto alla cultura che la neonata internet ereditava da ARPANET; un villaggio globale popolato di qualche migliaio di accademici e hackers, buoni conoscitori delle tecnologie rilevanti. In questo contesto sociale di “nessuno spettatore, tutti partecipanti” progettare applicazioni chiuse sarebbe sembrato strano, se non addirittura offensivo nei confronti degli altri coders. Inoltre, si trattava di un contesto rigorosamente non commerciale: fino al 1991 fare affari in internet era strettamente vietato, e ancora nel 1995 le regole vigenti favorivano le istituzioni pubbliche come le università e ne vietavano l'uso commerciale “intensivo”3. Nonostante la colonizzazione di internet da parte di fiorenti attività for profit, la cultura open source dei primi hackers è ancora vitale, e anzi ha segnato parecchi punti a suo favore a partire dagli anni 90. Anche la struttura di governance della rete ha tenuto, resistendo alle spinte del business per la creazione di una “super-rete” in cui dare priorità al traffico su contenuti a pagamento. E' ancora molto alto il prestigio della geek élite associata alla creazione della prima internet: nomi come Berners-Lee, Kelly, O'Leary e Andreesen sono estremamente autorevoli. Per un osservatore italiano, la situazione può ricordare l'Italia dell'immediato dopoguerra, dove una classe dirigente formatasi nella Resistenza antifascista godeva di grande prestigio ed era in grado di indirizzare lo sviluppo del paese. Vi sono, quindi, i presupposti per una prosecuzione della crescita di internet anche nei prossimi anni, anche se sarà interessante vedere cosa succederà quando i padri fondatori si saranno fatti da parte e i figli della bolla speculativa della new economy del 1999 li avranno sostituiti sul ponte di comando.

3 http://www.wired.com/wired/archive/13.08/tech.html?pg=2&topic=tech&topic_set=

Related Documents


More Documents from "Luisanna Fiorini"