Home > Information Technology > Cos’è Web 2.0

Cos’è Web 2.0

Qualche tempo fa ho letto un interessante articolo che tratta del concetto di “Web 2.0″ non da un punto di vista tecnologico quanto piuttosto di mercato e prospettive future; penso, anzi ne sono sicuro, che lo troverà interessante.  Del resto la tecnologia sta evolvendo verso uno scenario “distribuito” dove, se vogliamo vedere il prossimo grande sistema operativo, ci basta aprire un browser. Ormai le applicazioni web più “impossibili”, come i word-processor di Google, cominciamo ad essere dei temibili concorrenti per le tradizionali applicazioni desktop: probabilmente è solo questione di tempo prima che si comincino a lanciare applicazioni come Photoshop o Excel scrivendo un indirizzo “www…” .
In tutta questa evoluzione la rete offre anche numerose risorse (Wikipedia,forum,Google trends…), che a parer mio si possono sfruttare anche per business.

Design Pattern e Modelli di Business per la Prossima Generazione di Software

Lo scoppio della bolla dot-com nell’autunno del 2001 ha segnato un punto di svolta per il web. Molte persone sono giunte alla conclusione che il web sia stato assolutamente sopravvalutato, quando, di fatto, le bolle e le conseguenti crisi sembrano essere una caratteristica comune di tutte le rivoluzioni tecnologiche. Le crisi tipicamente segnano il punto in cui una tecnologia in crescita è pronta a prendere il posto che le spetta, al centro del palcoscenico. Tra i diversi pretendenti si distinguono quelli che hanno veramente successo, e si comprende il motivo di tale successo.
Il concetto di “Web 2.0″ ebbe inizio con una sessione di brainstorming, durante una conferenza, tra O’Reilly e MediaLive International. Dale Dougherty, pioniere del web e Vice Presidente di O’Reilly, fece notare che, tutt’altro che “crollata”, la rete era più importante che mai, con nuove interessanti applicazioni e siti che nascevano con sorprendente regolarità. Inoltre, le società che erano sopravvissute al collasso sembravano avere alcune caratteristiche in comune. Poteva essere che il collasso delle dot-com avesse segnato un punto di svolta per la rete, tale che un richiamo all’azione come “Web 2.0″ potesse avere senso? Concordammo con questa analisi, e così nacque la Conferenza Web 2.0.
Nell’anno e mezzo trascorso da allora, il termine “Web 2.0″ ha decisamente preso piede, con oltre 9,5 milioni di citazioni in Google. Ma c’è ancora un grande disaccordo circa il significato di Web 2.0: alcuni lo denigrano, considerandolo un termine di marketing, alla moda ma insignificante, mentre altri lo accettano come il nuovo standard convenzionale.
Questo articolo è un tentativo di fare chiarezza su cosa noi intendiamo con Web 2.0.
Nel nostro brainstorming iniziale, abbiamo formulato il significato che per noi ha il concetto di Web 2.0 attraverso degli esempi:

La lista continuava a lungo. Ma cosa ci ha portato a identificare e a definire un’applicazione “Web 1.0″ e l’altra “Web 2.0″? (Il tema è scottante perché il termine Web 2.0 è diventato così diffuso che le società ora lo stanno utilizzando un po’ a sproposito, senza comprenderne effettivamente il significato. La domanda è particolarmente difficile in quanto molti di queste startup che si circondano di paroloni sono decisamente non Web 2.0, mentre alcune delle applicazioni che abbiamo identificato come Web 2.0, quali Napster e BitTorrent, non sono nemmeno vere applicazioni per il web!). Abbiamo provato a sbrogliare i principi che, in un modo o in un altro, si sono dimostrati alla base delle storie di successo del web 1.0 e delle più interessanti tra le nuove applicazioni.
Il Web Come Piattaforma
Come molti concetti importanti, il Web 2.0 non ha confini rigidi ma, piuttosto, un centro gravitazionale. Si può visualizzare il Web 2.0 come un insieme di principi e di procedure che collegano un autentico sistema solare di siti che dimostrano questi principi, o parte di essi, a una distanza variabile da tale centro.

La Figura 1 mostra una “mappa meme” del Web 2.0 sviluppata nel corso di una sessione di brainstorming durante FOO Camp, una conferenza tenutasi presso O’Reilly Media. Si tratta, per molti versi, di un work in progress, ma mostra le numerose idee che scaturiscono dal cuore del Web 2.0.

Per esempio, nella prima conferenza sul tema Web 2.0, nell’ottobre 2004, John Battelle e io, nel nostro discorso di apertura, elencammo una serie di principi preliminari. Il primo di questi principi fu “Il web come piattaforma”. Però quello era anche il grido di guerra dell’eroe del Web 1.0, Netscape, che crollò in fiamme dopo una battaglia sanguinosa con Microsoft. Inoltre, due dei nostri esemplari iniziali del Web 1.0, DoubleClick e Akamai, erano entrambi dei pionieri nel trattare il web come una piattaforma. Spesso non lo si pensa come “web service” ma, in effetti, l’ad serving fu il primo web service ampiamente diffuso e il primo “mashup” (per usare un altro termine molto utilizzato negli ultimi periodi) di largo utilizzo. Ogni banner pubblicitario è erogato in maniera trasparente da due siti web, che forniscono un’unica pagina all’utente su un altro computer. Anche Akamai tratta il network come una piattaforma, e a un livello più profondo dello stack, costruendo una cache trasparente e una rete di distribuzione dei contenuti che diminuisce la congestione della banda.

Ciò nonostante, questi pionieri hanno fornito utili contrasti, grazie ai quali chi è arrivato successivamente ha potuto sviluppare ulteriormente la propria soluzione allo stesso problema, comprendendo qualcosa di più profondo sulla natura della nuova piattaforma. Sia DoubleClick, sia Akamai sono stati pionieri del Web 2.0; comunque possiamo anche vedere come sia possibile mettere in atto altre possibilità utilizzando gli ulteriori design pattern del Web 2.0.

Approfondiamo per un momento ognuno di questi tre casi, cercando di analizzare alcuni degli elementi essenziali di differenza.

Netscape vs. Google

Se Netscape era l’archetipo del Web 1.0, Google è certamente l’archetipo del Web 2.0, non fosse altro che per il fatto che le loro rispettive IPO hanno definito gli eventi di ciascuna era. Cominciamo dunque con un confronto tra queste due società e il loro posizionamento.

Netscape diede forma al “web come piattaforma” nei termini del vecchio paradigma del software: tra i prodotti, il loro fiore all’occhiello era il browser web, un’applicazione desktop, e la loro strategia era quella di usare il loro predominio nel mercato dei browser per stabilire un mercato di prodotti server di fascia alta. Il controllo sugli standard relativi alla visualizzazione dei contenuti e delle applicazioni nel browser avrebbero dovuto, in teoria, dare a Netscape il tipo di potere di mercato che Microsoft aveva nel mercato dei PC. Così come “carrozza senza cavalli” identificava l’automobile per estensione del concetto più familiare di carrozza, Netscape promosse un “webtop” in sostituzione del desktop, e programmò di popolarlo con aggiornamenti di informazioni e applet, inseriti sul webtop dai fornitori di informazioni che avrebbero acquistato i server di Netscape.

Alla fine, sia i web browser, sia i web server si dimostrarono commodity, mentre crebbe il valore dei servizi forniti su piattaforma web.

Google, invece, iniziò la sua vita come un’applicazione web nativa, mai concepita come un pacchetto in vendita, ma fornita come servizio, con i clienti che pagavano, direttamente o indirettamente, per l’uso di quel servizio. Nessuna delle trappole della vecchia industria del software era presente. Nessuna release di software programmata, ma solo miglioramenti continui. Nessuna licenza o vendita, solo utilizzo. Nessun porting su piattaforme diverse affinché i clienti potessero utilizzare il software sulle proprie macchine, solo un’enorme collezione scalabile di PC, ormai commodity, funzionanti con sistemi operativi open source oltre ad applicazioni e utility locali che nessuno al di fuori della società ha mai la possibilità di vedere.

Alla base, Google richiede una competenza di cui Netscape non ha mai avuto bisogno: la gestione dei database. Google non è semplicemente un insieme di strumenti di software, è un database specializzato. Senza i dati, gli strumenti sono inutili; senza il software, i dati sono ingestibili. Le licenze software e il controllo delle API – la leva di potere nell’era precedente – sono irrilevanti perché il software non avrà mai bisogno di essere distribuito, ma solo utilizzato, anche perché senza la capacità di raccogliere e gestire i dati, il software serve a poco. Infatti, il valore del software è proporzionale alla scala e al dinamismo dei dati che esso aiuta a gestire.

Il servizio di Google non è un server – sebbene sia erogato tramite un’immensa rete di server internet – né un browser – sebbene sia fruito dall’utente all’interno del browser. E il suo eccellente servizio di ricerca nemmeno ospita i contenuti che consente ai suoi utenti di trovare. Analogamente a una telefonata, che non avviene solo alle estremità dei due telefoni coinvolti, ma anche sulla rete che li collega, Google si trova nello spazio tra il browser e il motore di ricerca e il server di destinazione dei contenuti, come uno strumento o un intermediario tra l’utente e la sua esperienza online.

Sebbene sia Netscape che Google possano essere descritte come società di software, è chiaro che Netscape apparteneva allo stesso mondo del software di Lotus, Microsoft, Oracle, SAP, e altre società che iniziarono la loro attività nel corso della rivoluzione del software degli anni ‘80, mentre Google è più simile alle applicazioni internet quali eBay, Amazon, Napster, e sì, DoubleClick e Akamai.

DoubleClick vs. Overture e AdSense

Come Google, DoubleClick è un vero figlio dell‘era internet. DoubleClick tratta il software come servizio, ha una competenza fondamentale nella gestione dei dati e, come indicato in precedenza, è stato un pioniere nei web service molto prima che questi avessero un nome. Però, DoubleClick fu alla fine limitata dal suo modello di business. Condivise la convinzione degli anni ‘90 secondo la quale il web significava pubblicare e non partecipare, che gli inserzionisti, e non i consumatori, dovessero gestire il gioco; che le dimensioni contassero, e che internet fosse sempre più dominato dai siti più importanti secondo le valutazioni di MediaMetrix e di altre società che misuravano l’advertising online.

Come risultato, DoubleClick orgogliosamente vanta sul suo sito “oltre 2000 implementazioni di successo” del suo software. Yahoo! Search Marketing (originariamente Overture) e Google AdSense, invece, servono già centinaia di migliaia di inserzionisti.

Il successo di Overture e di Google derivò dalla comprensione di quello che Chris Anderson definisce long tail (“lunga coda”), il potere collettivo dei piccoli siti che costituiscono il grosso del contenuto del web. Le offerte di DoubleClick richiedono un contratto formale di vendita, limitando il proprio mercato a poche migliaia di siti tra i più grandi. Overture e Google capirono come rendere possibile il posizionamento delle pubblicità virtualmente su qualsiasi pagina web. Inoltre, evitarono i formati pubblicitari tipici delle agenzie pubblicitarie quali banner e popup, preferendo testi pubblicitari poco invasivi, sensibili al contesto, e consumer friendly.
La lezione di Web 2.0: far leva sul customer self service e sulla gestione di dati algoritmici per raggiungere l’intero web: le periferie, non solo il centro; la “lunga coda”, non solo la testa.

Una Piattaforma Batte Sempre un’Applicazione

In ogni passato confronto con i rivali, Microsoft ha giocato con successo la carta della piattaforma, sconfiggendo anche le applicazioni più importanti. Windows ha consentito a Microsoft di sostituire Lotus 1-2-3 con Excel, WordPerfect con Word, e Netscape Navigator con Internet Explorer.

Questa volta, però, lo scontro non è tra una piattaforma e un’applicazione, ma tra due piattaforme, ciascuna con un modello di business radicalmente diverso: da una parte, un singolo fornitore di software, la cui massiccia base e il sistema operativo strettamente integrato con le API permettono di controllare il paradigma di programmazione; dall’altra, un sistema senza un proprietario, tenuto insieme da una serie di protocolli, standard aperti e accordi di cooperazione.

Windows rappresenta il culmine del controllo di software proprietario tramite l’uso delle API. Netscape ha provato a strappare il controllo a Microsoft utilizzando le stesse tecniche che Microsoft stessa aveva usato contro i suoi rivali, e ha fallito. Ma Apache, che aveva scelto gli standard aperti del web, ha avuto successo. La battaglia non è più impari, una piattaforma contro una singola applicazione, bensì una piattaforma contro un’altra piattaforma; la domanda quindi è quale piattaforma, e più specificamente, quale architettura e quale modello di business sono più idonei per affrontare le opportunità che si presentano.

Windows era una soluzione brillante per i problemi dell’inizio dell’era dei PC. Ha livellato il campo di gioco per gli sviluppatori di applicazioni, risolvendo un buon numero di problemi che in precedenza avevano reso la vita difficile a questa industria. Ma un singolo approccio monolitico, controllato da un solo venditore, non è più una soluzione, è un problema. I sistemi communication oriented, come internet sicuramente è in quanto piattaforma, richiedono interoperabilità. A meno che un venditore non possa controllare entrambe le estremità di ogni interazione, le possibilità di vincolo dell’utente via API software sono limitate.

Qualsiasi fornitore di applicazioni Web 2.0 che cercasse di vincolare i profitti al controllo della piattaforma, per definizione, non giocherebbe più sulla potenza data dalla piattaforma stessa.

Questo non è per dire che non ci sono opportunità di creare vincoli e vantaggi competitivi, ma noi crediamo che questi non dovrebbero essere ricercati attraverso il controllo delle API software e dei protocolli. È in corso un nuovo gioco. Le società che avranno successo nell’era del Web 2.0 saranno quelle in grado di comprendere le regole di tale gioco, piuttosto che cercare di tornare alle regole dell’era del software per PC.

Non sorprende che altre storie di successo del web 2.0 dimostrino questo stesso comportamento. eBay ha reso possibili transazioni occasionali di anche solo pochi dollari tra singoli individui, agendo come un intermediario automatizzato. Napster (sebbene chiuso per ragioni legali) ha costruito la sua rete non su un database di canzoni centralizzato, bensì architettando un sistema in modo tale che chiunque scarichi un brano diventi esso stesso un server, facendo quindi crescere il network.

Akamai vs. BitTorrent

Come DoubleClick, Akamai è ottimizzato per fare business con la testa e non con la coda, con il centro e non con le periferie. Sebbene sia a vantaggio degli individui delle periferie del web, facilitando il loro accesso ai siti high-demand al centro, esso raccoglie i propri guadagni da questi siti centrali.

BitTorrent, come altri pionieri nel movimento P2P, ha un approccio radicale verso la decentralizzazione di internet. Ogni client è anche un server; i file sono divisi in frammenti a cui si può accedere da diversi server, utilizzando in modo trasparente la rete di downloader che forniscono sia banda che dati ad altri utenti. Più il file è popolare, infatti, più velocemente può essere disponibile, in quanto ci sarà un numero maggiore di utenti che mettono a disposizione banda e i frammenti del file completo.

BitTorrent dimostra così un principio chiave del Web 2.0: il servizio migliora automaticamente con l’aumentare del numero di utenti. Mentre Akamai deve aggiungere server per migliorare il servizio, ogni consumatore di BitTorrent porta le proprie risorse al gruppo. C’è un’implicita “architettura della partecipazione”, un’etica incorporata di co-operazione, nella quale il servizio funziona principalmente come un broker intelligente, collegando le periferie una con l’altra e sfruttando la potenza degli utenti stessi.

Sfruttare l’Intelligenza Collettiva

Il principio centrale che sta dietro al successo dei giganti nati nell’era del Web 1.0 che sono sopravvissuti per guidare l’era del Web 2.0 sembra essere questo: che hanno abbracciato la potenza del web per sfruttare l’intelligenza collettiva:

•    L’hyperlinking è il fondamento del web. Quando gli utenti aggiungono nuovi contenuti e nuovi siti, questi vengono integrati alla struttura del web dagli altri utenti che ne scoprono il contenuto e creano link. Così come le sinapsi si formano nel cervello, con le associazioni che diventano più forti attraverso la ripetizione o l’intensità, la rete delle connessioni cresce organicamente come risultato dell’attività collettiva di tutti gli utenti del web.
•    Yahoo!, la prima grande storia di successo in internet, nacque come un catalogo, o una directory di link, un’aggregazione del lavoro migliore di migliaia e poi milioni di utenti del web. Sebbene Yahoo! da allora si sia spostato verso un business basato sulla creazione di contenuti di molti tipi diversi, il suo ruolo come portale per il lavoro collettivo degli utenti della rete rimane il centro del suo valore.
•    Il fattore di successo di Google nel campo delle ricerche, che rapidamente l’ha reso il leader indiscusso di mercato, è stato il PageRank, un metodo che utilizza la struttura dei link, anziché semplicemente le caratteristiche di una pagina web, per fornire risultati di ricerca migliori.
•    Il prodotto di eBay è l’attività collettiva di tutti i suoi utenti; come il web stesso, eBay cresce organicamente in risposta all’attività degli utenti. Il ruolo della società è quello di mettere a disposizione un contesto in cui tale attività possa aver luogo. Inoltre, il vantaggio competitivo di eBay viene quasi interamente dalla massa critica di acquirenti e venditori, che rendono chiunque tenti di offrire servizi simili significativamente meno interessante.
•    Amazon vende gli stessi prodotti che vendono i suoi concorrenti, come Barnesandnoble.com, e riceve le stesse descrizioni del prodotto, le stesse immagini di copertina e gli stessi contenuti editoriali dai suoi fornitori. Ma Amazon ha fatto della partecipazione degli utenti una scienza. Conta su un numero sempre maggiore di recensioni da parte degli utenti, invita a partecipare in vari modi su virtualmente qualsiasi pagina e, ancora più importante, usa l’attività degli utenti per produrre risultati di ricerca migliori. Mentre una ricerca sul sito Barnesandnoble.com molto probabilmente porterà ai prodotti della società o ai risultati sponsorizzati, Amazon porta sempre al “più popolare”, un calcolo in tempo reale basato non solo sulle vendite, ma anche su altri fattori che gli insider di Amazon chiamano il “flusso” intorno ai prodotti. Considerando la sempre maggiore partecipazione degli utenti, non sorprende che le vendite di Amazon superino quelle dei concorrenti.

Ora, le società innovative che seguono queste intuizioni, e che forse le estenderanno ulteriormente, stanno lasciando il segno nel web:

•    Wikipedia, un’enciclopedia online basata sull’improbabile idea che ciascuna voce possa essere aggiunta da qualsiasi utente web, e modificata da qualunque altro, è un esperimento radicale di fiducia, che applica alla creazione di contenuti il detto di Eric Raymond (coniato originariamente nel contesto del software open source), secondo cui “con molti occhi puntati addosso, ogni bug diventa una bazzecola”. Wikipedia è già nella lista dei primi 100 siti web, e molti ritengono che sarà tra i primi dieci a breve. Questo rappresenta un cambiamento profondo nelle dinamiche della creazione di contenuti!
•    Siti come del.icio.us e Flickr, due società che hanno ricevuto grande attenzione negli ultimi tempi, hanno fatto da pionieri per un concetto che alcuni definiscono “folksonomia” (in contrasto con tassonomia), uno stile di categorizzazione collaborativa dei siti che utilizza parole chiave liberamente scelte, che spesso sono definite tag. Il tagging consente di ottenere quel tipo di associazione multipla e in sovrapposizione che il cervello stesso utilizza, anziché delle categorie rigide. Nell’esempio canonico, una foto Flickr di un cucciolo può essere “taggata” sia come “cucciolo”, sia come “carino” – consentendo di trovarla lungo gli assi naturali generati dall’attività degli utenti.
•    I prodotti per filtrare lo spam in modo collaborativo, come Cloudmark per esempio, aggregano le decisioni individuali di chi usa la posta elettronica in merito a cosa è spam e cosa non lo è, superando i sistemi che si basano sull’analisi dei messaggi stessi.
•    È una verità scontata che le società che vantano i più grandi successi in internet non fanno pubblicità dei propri prodotti. La loro adozione è guidata dal “marketing virale”, cioè dalle raccomandazioni che passano direttamente da un utente a un altro. Potete quasi arrivare alla conclusione che se un sito o un prodotto si basa sulla pubblicità per farsi conoscere, non si tratta di Web 2.0.
•    Persino gran parte dell’infrastruttura del web, compreso il codice di Linux, Apache, MySQL, e Perl, PHP, o Python usato in molti server web, si affida ai metodi di peer-production dell’open source; in essi stessi si trova un esempio di intelligenza collettiva creata dalla rete. Ci sono più di 100.000 progetti di software open source elencati su SourceForge.net. Chiunque può aggiungere un progetto, chiunque può scaricare e utilizzare il codice, e nuovi progetti migrano dalle periferie al centro come risultato del fatto che gli utenti li utilizzano, un processo di adozione organico del software che si affida quasi interamente al marketing virale.

La lezione: Gli effetti del network derivanti dai contributi degli utenti sono la chiave del predominio del mercato nell’era del Web 2.0

Il Blog e la Saggezza delle Folle

Una delle caratteristiche più pubblicizzate dell’era del Web 2.0 è la crescita dei blog.
Home page personali sono state pubblicate sin dall’inizio del web, e i diari personali e gli editoriali quotidiani sono popolari da molto prima. A cosa è dovuto allora tutto questo scalpore?

Semplificato al massimo, un blog non è altro che una home page personale nel formato di un diario. Ma come fa notare Rich Skrenta, l’organizzazione cronologica di un blog “sembra una differenza insignificante, ma definisce un sistema di erogazione, una pubblicità e una catena del valore completamente differenti”.

Una delle cose che hanno fatto la differenza è una tecnologia che si chiama RSS. RSS è il progresso più significativo nell’architettura fondamentale del web da quando i primi hacker hanno capito che le CGI potevano essere utilizzate per creare website supportati da database. RSS consente non solo di collegarsi a una pagina, bensì di “abbonarsi” ad essa, ricevendo un avviso ogni volta che la pagina viene modificata. Skrenta lo definisce il “web incrementale”. Altri lo chiamano “live web”.

Ora, naturalmente, i “website dinamici” (cioè siti basati su un database con contenuti generati dinamicamente) hanno sostituito le pagine web statiche più di dieci anni fa. Quello che è dinamico nel live web non sono solo le pagine, ma anche i link. Un link a un weblog punta a una pagina in continuo cambiamento, con un “permalink” per ogni singolo inserimento e una notifica per ogni cambiamento. Un feed RSS è quindi molto più potente di un link, sia esso un bookmark o un link a una singola pagina.

*****

L’Architettura partecipativa

Alcuni sistemi sono progettati per incoraggiare la partecipazione. Nel suo articolo, The Cornucopia of the Commons, Dan Bricklin indica che ci sono tre modi per realizzare un ampio database. Il primo, dimostrato da Yahoo!, è di pagare le persone perché lo facciano. Il secondo, che prende ispirazione dalla comunità degli open source, è di cercare volontari che realizzino lo stesso compito. L’Open Directory Project, un concorrente open source di Yahoo, ne è il risultato. Ma Napster ha dimostrato un terzo modo. Avendo come default la possibilità di mettere a disposizione automaticamente qualsiasi pezzo musicale che viene scaricato, Napster ha consentito a ogni utente di contribuire all’aumento del valore del database condiviso. Questo stesso approccio è stato seguito da tutti gli altri servizi di condivisione di file P2P.

Una delle lezioni chiave dell’era di Web 2.0 è questa: gli utenti aggiungono valore. Ma solo una piccola percentuale di utenti si prenderà la briga di aggiungere valore all’applicazione in modo esplicito. Perciò, le società Web 2.0 impostano di default sistemi per l’aggregazione dei dati degli utenti e per la costruzione di valore come effetto collaterale del normale utilizzo dell’applicazione. Come indicato in precedenza, tali sistemi migliorano con l’aumentare del numero di utenti.

Mitch Kapor una volta affermò che “architettura è politica”. La partecipazione è intrinseca in Napster, è parte della sua architettura fondamentale.

Questa visione dell’architettura può essere considerata alla base del successo dei software open source anche più dei frequentemente citati appelli al volontariato. L’architettura di internet, e il World Wide Web, così come i progetti di software open source come Linux, Apache, e Perl, è tale che gli utenti che perseguono i propri interessi “egoistici” costruiscono un valore collettivo come conseguenza automatica. Ognuno di questi progetti ha un piccolo nucleo centrale, meccanismi di estensione ben definiti e un approccio che consente a chiunque di aggiungere qualsiasi componente ben funzionante, facendo crescere gli strati più esterni di quello che Larry Wall, il creatore di Perl, definisce “la cipolla”. In altre parole, queste tecnologie dimostrano gli effetti della rete, semplicemente attraverso il modo in cui sono state progettate.

Questi progetti possono essere visti come aventi una naturale architettura partecipativa. Ma, come Amazon dimostra, con sforzi continui (oltre a incentivi economici quale il programma Associates), è possibile sovrapporre questa architettura a un sistema di cui normalmente parrebbe non far parte.

*****

RSS significa anche che il browser web non è l’unico mezzo per vedere una pagina web. Mentre alcuni aggregatori RSS, come Bloglines, si basano sul web, altri sono applicazioni desktop per i client, e altri ancora consentono agli utilizzatori di dispositivi portatili di abbonarsi ai contenuti costantemente aggiornati.

RSS viene utilizzato ora per spingere non solo le notifiche di nuovi inserimenti sul blog, ma anche tutti i tipi di aggiornamento dei dati, incluse le quotazioni azionarie, il meteo e la disponibilità di foto. Questo utilizzo è di fatto un ritorno a una delle sue radici: RSS nacque nel 1997 dalla confluenza della tecnologia “Really Simple Syndication” di Dave Winer, utilizzata per pubblicare gli aggiornamenti di blog, e di “Rich Site Summary” di Netscape, che consentiva agli utenti di creare home page personali di Netscape con flussi di dati aggiornati regolarmente. Netscape ha perso interesse e la tecnologia è stata portata avanti da Userland, la società di Winer, pioniera nel settore del blogging. Nell’attuale insieme di applicazioni vediamo comunque l’eredità di entrambi i genitori.

Ma l’utilizzo di RSS è solo una parte di ciò che rende un weblog differente da una normale pagina web. Tom Coates sottolinea il significato del permalink:

“Può sembrare una funzionalità insignificante ora, ma si tratta del dispositivo che ha efficacemente trasformato i weblog da un fenomeno di “pubblicazione facile” in una confusione conversazionale di comunità che si sovrappongono. Per la prima volta è diventato relativamente semplice puntare direttamente a una sezione specifica del sito di qualcun altro e parlarne. Sono nate discussioni. Sono nate conversazioni. E, di conseguenza, sono nate amicizie. Il permalink è stato il primo, e più vincente, tentativo di costruire ponti tra i weblog.”

In molti modi, la combinazione di RSS e permalink aggiunge tante delle caratteristiche di NNTP, il Network News Protocol of the Usenet, all’HTTP, il protocollo web. La “blogosfera” può essere considerata un nuovo equivalente peer-to-peer di Usenet e dei bulletin-board, le aree conversazionali del primo internet. Non solo è possibile iscriversi ai siti degli altri e collegarsi facilmente ai singoli commenti su una pagina: tramite un meccanismo noto come trackback si può anche vedere quando qualcun altro si collega alle proprie pagine e rispondere, con link reciproci o aggiungendo commenti.

Stranamente, i collegamenti reciproci, a due vie, erano lo scopo dei primi sistemi ipertestuali, come Xanadu. I puristi dell’ipertesto hanno celebrato i trackback come un passo verso tali collegamenti. Ma è bene notare che i trackback non sono propriamente sistemi a due vie: si tratta piuttosto di collegamenti a una via realmente (potenzialmente) simmetrici che creano l’effetto dei collegamenti a due vie. La differenza può sembrare sottile, ma in pratica è enorme. I sistemi di network sociale come Friendster, Orkut e LinkedIn, che richiedono il riconoscimento da parte del ricevente per stabilire una connessione, non possiedono la stessa scalabilità del web. Come ha fatto notare Caterina Fake, co-fondatrice del servizio di condivisione foto di Flickr, l’attenzione è reciproca solo accidentalmente. (Flickr consente così agli utenti di impostare delle watch list, e chiunque può iscriversi al photostream di un altro utente via RSS. Tale utente riceve una notifica, ma non è necessario che approvi la connessione).

Se una parte essenziale del Web 2.0 riguarda lo sfruttamento dell’intelligenza collettiva, trasformando il web in una specie di cervello globale, la blogosfera è l’equivalente di un chiacchiericcio mentale costante nel proencefalo, la voce che tutti sentiamo nella nostra testa. Può non riflettere la struttura profonda del cervello, che spesso è inconscia, ma è l’equivalente dei pensieri consci. E in quanto riflessione del pensiero conscio e dell’attenzione, la blogosfera ha iniziato ad avere un potente effetto.

Innanzitutto, dato che i motori di ricerca utilizzano la struttura dei link per prevedere quali pagine saranno utili, i blogger, essendo gli utilizzatori di link più prolifici e tempestivi, hanno un ruolo sproporzionato nel dare forma ai risultati dei motori di ricerca. In secondo luogo, considerato che la comunità dei blog è tanto auto-referenziale, i blogger che prestano attenzione agli altri blogger aumentano la loro visibilità e il loro potere. Anche la “camera dell’eco” che i critici denigrano è un amplificatore.

Se si trattasse semplicemente di un amplificatore, i blog sarebbero poco interessanti. Ma come Wikipedia, il blog sfrutta l’intelligenza collettiva come una specie di filtro. Entra in gioco qui quella che James Suriowecki chiama “la saggezza delle folle”, e così come PageRank produce risultati migliori dell’analisi di ogni documento individuale, l’attenzione collettiva della blogosfera seleziona il valore.

Sebbene i media tradizionali possano vedere i singoli blog come concorrenti, l’aspetto più snervante è che la concorrenza è in realtà con la blogosfera come insieme. Non si tratta solo di una concorrenza tra siti, bensì di una concorrenza tra modelli di business. Il mondo Web 2.0 è anche il mondo di ciò che Dan Gillmor chiama “noi, i media”, un mondo in cui “il pubblico”, e non alcune persone dietro le quinte, decide ciò che è importante.

I Dati sono il Prossimo “Intel Inside”

Ogni applicazione internet significativa fino ad oggi è stata supportata da un database specializzato: il web crawl di Google, la directory (e web crawl) di Yahoo!, il database prodotti di Amazon, il database di prodotti e venditori di eBay, il database di mappe di MapQuest, il database delle canzoni distribuite di Napster. Come ha evidenziato Hal Varian in una conversazione personale l’anno scorso, “SQL è il nuovo HTML.” La gestione dei database è una competenza centrale delle società Web 2.0, al punto che qualche volta abbiamo definito queste applicazioni come “infoware” piuttosto che semplicemente software.

Questo fatto porta a una domanda chiave: a chi appartengono i dati?

Nell’era internet, è già possibile vedere un certo numero di casi in cui il controllo sui database ha portato al controllo del mercato e a guadagni finanziari fuori misura. Il monopolio sul registro dei domini originariamente garantito per decreto dal governo alla Network Solutions (in seguito acquistata da Verisign) fu uno dei primi grandi affari in internet. Mentre abbiamo discusso del fatto che il vantaggio competitivo tramite il controllo delle API è molto più difficile nell’era di internet, il controllo delle fonti chiave dei dati non lo è, specialmente se tali fonti sono costose da creare o portano ad aumentare i guadagni tramite gli effetti della rete.

Guardate le note sul copyright alla base di ogni mappa fornita da MapQuest, maps.yahoo.com, maps.msn.com, o maps.google.com, e vedrete la riga “Maps copyright NavTeq, TeleAtlas,” o con i nuovi servizi di immagini via satellite, “Images copyright Digital Globe.” Queste società hanno fatto investimenti importanti per i loro database (pare che NavTeq da sola abbia investito $750 milioni per costruire il proprio database di indirizzi e indicazioni di strade. La Digital Globe ha speso $500 milioni per lanciare il satellite per migliorare le immagini fornite dal governo). NavTeq è arrivata a imitare il familiare logo Intel Inside della Intel: le auto con i sistemi di navigazione portano il marchio “NavTeq Onboard.” I dati corrispondono in effetti all’Intel Inside di queste applicazioni, un unico componente nei sistemi la cui infrastruttura software è ampiamente open source o altrimenti resa una commodity.

L’arena delle mappe online, ora vivamente contestata, dimostra come la scarsa comprensione dell’importanza di possedere un nucleo di dati alla base dell’applicazione potrebbe ridurne la capacità competitiva. MapQuest ha fatto da pioniere nella categoria delle mappe per il web nel 1995, ma quando Yahoo!, e poi Microsoft, e più recentemente Google, decisero di entrare nel mercato, furono in grado di offrire un’applicazione competitiva semplicemente usando in licenza gli stessi dati.

Differente è, d’altra parte, la posizione di Amazon.com. Come i concorrenti quali Barnesandnoble.com, il suo database originale deriva dal provider del registro ISBN R.R. Bowker. Ma a differenza di MapQuest, Amazon ha sistematicamente arricchito i dati in suo possesso, aggiungendo quelli forniti dagli editori, come le immagini delle copertine, le mappe dei contenuti, gli indici e materiali campione. Ancora più importante è il fatto che abbiano sfruttato i loro utenti per inserire i dati, così che, dopo dieci anni, Amazon, e non Bowker, è la fonte primaria dei dati bibliografici sui libri, una fonte di riferimento per studiosi e bibliotecari, oltre che per i consumatori. Amazon ha anche introdotto il proprio codice identificativo proprietario, l’ASIN, che corrisponde all’ISBN quando questo esiste, mentre viene creato appositamente per quei prodotti che ne sono sprovvisti. Amazon ha “inglobato e esteso” efficacemente l’opera iniziata dai propri fornitori di dati.

Immaginate se MapQuest avesse fatto la stessa cosa, sfruttando i propri utenti per inserire mappe e indicazioni, aggiungendo valore. Sarebbe stato molto più difficile per i concorrenti entrare nel mercato semplicemente usando in licenza la base di dati.

La recente introduzione di Google Maps fornisce un laboratorio vivente per la concorrenza tra i vendor di applicazioni e chi fornisce loro i dati. Il modello di programmazione leggero di Google ha portato alla creazione di numerosi servizi a valore aggiunto in forma di mashup che collegano Google Maps con altre fonti di dati accessibili via internet. L’esempio più eccellente di tali mashup è housingmaps.com di Paul Rademacher, che combina le funzionalità di Google Maps con i dati sugli acquisti e le locazioni di appartamenti forniti da Craigslist, creando uno strumento interattivo per la ricerca di abitazioni.

Attualmente, questi mashup sono principalmente esperimenti innovativi, realizzati dagli hacker. Ma l’attività imprenditoriale segue da vicino. E già ora possiamo vedere che per almeno una classe di sviluppatori, Google ha assunto il ruolo di fonte di dati indipendente da Navteq e si è inserita come intermediario favorito. Ci aspettiamo di assistere, nei prossimi anni, a battaglie tra i fornitori di dati e vendor di applicazioni, in quanto entrambi sanno quanta importanza certe classi di dati acquisteranno per la realizzazione delle applicazioni Web 2.0.

La corsa è per la proprietà di determinate classi di dati centrali: indirizzi, identità, date di eventi pubblici, codici di identificazione di prodotti e namespace. In molti casi, quando il costo per la creazione dei dati è alto, ci può essere un’opportunità per un’azione in stile Intel Inside, con un’unica fonte di dati. In altri casi, il vincitore sarà la società che per prima raggiungerà una massa critica tramite l’aggregazione degli utenti e che trasformerà questi dati aggregati in un servizio di sistema.

Per esempio, nell’area dell’identità, PayPal, 1-click di Amazon, e i milioni di utenti dei sistemi di comunicazione, possono essere tutti contendenti legittimi per la costruzione di un database di identità comprensivo di tutta la rete. (A questo proposito, il recente tentativo di Google di usare i numeri dei telefoni cellulari come un identificativo per i clienti Gmail potrebbe essere un passo per inglobare ed estendere il sistema telefonico). Nel frattempo, i nuovi attori come Sxip stanno esplorando il potenziale delle identità confederate, alla ricerca di un tipo di “1-click distribuito” che possa fornire un ininterrotto sotto-sistema di identità Web 2.0. Nell’area della pianificazione, EVDB è un tentativo di costruire l’agenda virtuale condivisa più grande al mondo tramite un’architettura partecipativa in stile wiki. Mentre la giuria è ancora impegnata a valutare il successo di qualunque particolare avvio o approccio, è chiaro che gli standard e le soluzioni in queste aree, che trasformano efficacemente certe classi di dati in affidabili sotto-sistemi del “sistema operativo di internet”, consentiranno la realizzazione della prossima generazione di applicazioni.

Un ulteriore punto da notare riguarda i dati, e cioè il fatto che gli utenti sono preoccupati per la privacy e per i diritti sui propri dati. In molte delle prime applicazioni web, il copyright viene fatto rispettare in modo un po’ vago. Per esempio, Amazon rivendica i diritti su qualsiasi recensione inserita nel sito, ma in assenza di imposizioni, le persone possono inviare la stessa recensione altrove. Comunque, poiché le società stanno iniziando a comprendere che il controllo sui dati potrebbe essere la loro fonte principale per ottenere un vantaggio competitivo, potremmo vedere un aumento negli sforzi per ottenere tale controllo.

Così come la nascita del software proprietario aveva portato al movimento Free Software, ci aspettiamo che la nascita di database proprietari darà come risultato un movimento Free Data entro i prossimi dieci anni. Possiamo già vedere i primi segni di questa controtendenza nei progetti open data quali Wikipedia, Creative Commons, e nei progetti software come Greasemonkey, che consentono agli utenti di controllare come i dati vengono visualizzati sui loro computer.

Fine del Ciclo delle Release di Software

Come indicato in precedenza nella discussione su Google vs. Netscape, una delle caratteristiche che definiscono il software dell’era internet è che questo viene fornito come servizio, non come prodotto. Questo fatto porta a una serie di cambiamenti fondamentali nei modelli di business di queste società:

1.    Le operazioni devono diventare una competenza centrale. La conoscenza di Google o di Yahoo!’ nello sviluppo dei prodotti deve essere accompagnata da una conoscenza nelle operazioni quotidiane. Il passaggio dal software come prodotto al software come servizio è così fondamentale che il software cesserà di funzionare se la sua manutenzione non sarà quotidiana. Google deve tenere sotto controllo continuamente il web e aggiornare i suoi indici, deve filtrare continuamente gli spam dei collegamenti e altri tentativi di influenzare i suoi risultati, rispondere continuamente e dinamicamente alle centinaia di milioni di ricerche asincrone degli utenti, confrontandole al contempo con pubblicità contestuali.

Non è un caso che l’amministrazione del sistema, il networking e le tecniche di bilanciamento del carico di Google sono segreti protetti forse più accuratamente dei loro algoritmi di ricerca. Il successo di Google nell’automatizzazione di questi processi è un fattore chiave per il suo vantaggio competitivo sui costi rispetto ai concorrenti.

Non è un caso anche che i linguaggi di programmazione quali Perl, Python, PHP e ora Ruby abbiano un ruolo così ampio per le società web 2.0. Perl fu splendidamente descritto da Hassan Schroeder, il primo webmaster di Sun, come “il duct tape di internet”. I linguaggi dinamici (spesso definiti linguaggi di programmazione e guardati dall’alto in basso dagli ingegneri di software dell’era dei manufatti software) sono lo strumento di scelta per gli amministratori di sistemi e di reti, oltre che per gli sviluppatori di applicazioni che costruiscono sistemi dinamici che richiedono cambiamenti costanti.

2.    Gli utenti devono essere trattati come co-sviluppatori, quale conseguenza delle pratiche di sviluppo degli open source (anche se il software in questione difficilmente sarà rilasciato con una licenza open source). Il motto open source, “rilascia presto e rilascia spesso” si è di fatto trasformato in qualcosa di ancora più radicale, “l‘eterno beta”, in cui il prodotto è sviluppato in un contesto aperto, con nuove caratteristiche integrate e aggiornate su base mensile, settimanale o perfino quotidiana. Non è un caso che servizi quali Gmail, Google Maps, Flickr, del.icio.us, e simili potrebbero aspettarsi di essere contrassegnati da un logo “Beta” per anni.

Il monitoraggio in tempo reale del comportamento degli utenti per vedere quali nuove funzioni vengono utilizzate, e come vengono utilizzate, diventa allora un’altra competenza centrale necessaria. Uno sviluppatore di un servizio online tra i più importanti ha affermato: “Noi mettiamo in linea due o tre nuove funzioni in qualche parte del sito ogni giorno, e se gli utenti non le adottano le togliamo. Se invece le apprezzano, le estendiamo all’intero sito.”

Cal Henderson, il capo sviluppatore di Flickr, ha recentemente rivelato che loro pubblicano nuovi contenuti fino a ogni mezz’ora. È chiaro che si tratta di un modello di sviluppo radicalmente diverso! Sebbene non tutte le applicazioni web siano sviluppate in modo estremo come Flickr, quasi tutte hanno un ciclo di sviluppo che è radicalmente diverso da quelli dell’era del PC o dei client-server. È per questa ragione che un recente editoriale di ZDnet è arrivato alla conclusione che Microsoft non sarà in grado di battere Google: “Il modello di business di Microsoft dipende dal fatto che chiunque aggiorna l’ambiente del proprio computer ogni due o tre anni. Quello di Google dal fatto che ogni utente esplora cosa c’è di nuovo nel proprio ambiente tutti i giorni”.

Sebbene Microsoft abbia dimostrato un’enorme abilità nell’imparare dalla propria concorrenza, e migliorando in questo senso, non c’è dubbio che questa volta la concorrenza richiederà a Microsoft (e, estendendo il concetto, a qualsiasi altra società di software esistente) di diventare una società profondamente diversa. Le società native Web 2.0 godono di un vantaggio naturale, in quanto non hanno vecchi schemi (e modelli di business o fonti di reddito corrispondenti) di cui liberarsi.

Una Tesi di Investimento Web 2.0

Il venture capitalist Paul Kedrosky scrive: “La chiave è trovare gli investimenti attuabili nei quali si è in disaccordo con l’opinione comune”. È interessante vedere come ogni aspetto del Web 2.0 preveda il disaccordo con l’opinione comune: ognuno enfatizzava che i dati devono essere mantenuti privati, Flickr/Napster/et al. li rendono pubblici. Non si tratta semplicemente di un disaccordo fine a se stesso (cibo per animali! online!), si tratta di un disaccordo con il quale è possibile costruire qualcosa partendo dalle differenze. Flickr costruisce comunità, Napster ha costruito collezioni.

Un altro punto di vista in merito è che tutte le società di successo rinunciano a qualcosa di costoso ma considerato critico per ottenere gratuitamente qualcosa di prezioso che una volta era costoso. Per esempio, Wikipedia rinuncia al controllo centralizzato della pubblicazione in cambio di velocità e ampiezza. Napster ha rinunciato all’idea del “catalogo” (tutte le canzoni che il venditore promuoveva) e ha ottenuto ampiezza. Amazon ha rinunciato all’idea di avere un presidio fisico per la vendita, ma è riuscita a raggiungere tutto il mondo. Google ha rinunciato ai grandi clienti (inizialmente) e ha ottenuto l’80% dei piccoli, i cui bisogni non venivano soddisfatti. C’è qualcosa di molto aikido (utilizzare la forza dei vostri avversari contro di essi) nell’affermazione “Sai, hai ragione: proprio chiunque al mondo PUÒ aggiornare questo articolo. E indovina, questa è una brutta notizia per te”.

Nat Torkington

Modelli di Programmazione Leggeri

Una volta che l’idea dei servizi web è diventata familiare, le grandi società sono entrate nella mischia con un complesso insieme di web service progettati per creare ambienti di programmazione altamente affidabili per applicazioni distribuite.

Ma così come il web ha avuto successo proprio perché ha eliminato molta della teoria sugli ipertesti, sostituendo un semplice pragmatismo per la progettazione ideale, RSS è diventato forse il servizio web più ampiamente diffuso grazie alla sua semplicità, mentre i complessi web service delle grandi aziende devono ancora ottenere un’ampia diffusione.

In modo simile, i web service di Amazon.com sono forniti in due forme: il primo aderisce ai formalismi dei web service di SOAP (Simple Object Access Protocol), il secondo fornisce semplicemente dati XML nell’HTTP, con l’approccio leggero che viene spesso chiamato REST (Representational State Transfer). Mentre le connessioni B2B ad alto valore (come quelle tra Amazon e i partner rivenditori, come ToysRUs) utilizzano lo stack SOAP, secondo Amazon il 95% dell’utilizzo avviene con il servizio leggero REST.

Questa stessa ricerca di semplicità può essere vista in altri web service “organici”. Il recente rilascio di Google Maps da parte di Google è un esempio di questo. La semplice interfaccia AJAX di Google Maps (Javascript e XML) è stata velocemente decriptata dagli hacker, che hanno poi proceduto a miscelare i dati in nuovi servizi.

I web service relativi alle mappe sono stati disponibili per un certo periodo di tempo presso i fornitori GIS, come ESRI, oltre che da MapQuest e Microsoft MapPoint. Ma Google Maps ha fatto furore a causa della sua semplicità. Se la sperimentazione con qualsiasi dei web service supportati da fornitori richiedeva un contratto formale tra le parti, il modo in cui Google Maps è stato implementato ha lasciato i dati a disposizione di chi volesse prenderli e gli hacker hanno trovato presto il modo di riutilizzarli in modo creativo.

Da tutto ciò si possono trarre alcune lezioni significative:

1.    Supportare modelli di programmazione leggeri che rendano possibili sistemi abbinati in modo non rigido. La complessità dei web service sponsorizzati dalle grandi aziende è progettata per consentire abbinamenti rigidi. Se questo è necessario in molti casi, molte delle applicazioni più interessanti possono rimanere abbinate in modo libero, addirittura fragile. Il punto di vista del Web 2.0 è molto diverso dal punto di vista IT tradizionale!
2.    Pensare alla syndication e non alla coordinazione. I web service semplici, come RSS e quelli basati su REST, sono propensi a rendere disponibili i dati verso l’esterno, piuttosto che a controllare cosa succede quando si arriva all’altra estremità della connessione. Questa idea è fondamentale per internet stesso, il riflesso di quanto è noto come il principio end-to-end.
3.    Progettare ”hackable” e remixable. I sistemi come il web, RSS e AJAX hanno tutti un aspetto in comune: le barriere per il riutilizzo sono estremamente basse. Buona parte del software utile è effettivamente open source, ma anche quando non lo è, poco esiste in termini di protezione della proprietà intellettuale. L’opzione “View Source” del browser web ha reso qualunque utente in grado di copiare le pagine web di chiunque altro; l’RSS è stato progettato per abilitare l’utente a vedere il contenuto desiderato che desidera, nel momento in cui lo desidera, non su ordine del provider di informazioni; i web service di maggior successo sono quelli che sono stati più facili da portare in direzioni nuove, che i loro creatori non avevano immaginato. La frase “some rights reserved” (“alcuni diritti riservati, N.d.T.), resa popolare da Creative Commons in contrapposizione alla più tipica “all rights reserved” (“tutti i diritti riservati, N.d.T.), è un utile indicatore.

Innovazione nell’Assemblaggio

I modelli di business leggeri sono una naturale conseguenza della programmazione leggera e delle connessioni leggere. L’impostazione del Web 2.0 è buona per il riutilizzo. Un nuovo servizio come housingmaps.com è stato costruito semplicemente mettendo insieme due servizi esistenti. Housingmaps.com non ha un modello di business (non ancora), ma per molti servizi su piccola scala, Google AdSense (o forse il programma di affiliazione di Amazon, o entrambi) fornisce l’equivalente di un business model.

Questi esempi aiutano a comprendere un altro principio chiave del web 2.0, che chiamiamo “innovazione nell’assemblaggio.” Quando i componenti di base abbondano, si può creare valore aggiunto semplicemente assemblandoli in un modo nuovo o efficace. Così come la rivoluzione del PC ha fornito molte opportunità di innovazione assemblando hardware di base, con società come Dell che hanno fatto di questo assemblaggio una scienza, sconfiggendo quindi società il cui modello di business richiedeva innovazione nello sviluppo di prodotto, noi crediamo che il Web 2.0 fornirà alle società molte opportunità di battere la concorrenza sfruttando in modo migliore e integrando i servizi forniti dagli altri.

Il Software supera il Livello del Singolo Dispositivo

Un’altra caratteristica del Web 2.0 che merita di essere menzionata è il fatto che non è più limitato alla piattaforma PC. Nel suo discorso di congedo da Microsoft, Dave Stutz, a lungo sviluppatore di Microsoft, ha evidenziato che “un software utile scritto senza vincoli dettati dal singolo dispositivo otterrà alti margini per un lungo periodo.

Naturalmente, qualsiasi applicazione web può essere vista come un software svincolato dal singolo dispositivo. Dopotutto, anche la più semplice applicazione web prevede almeno due computer: quello che ospita il server web e quello che ospita il browser. E come abbiamo discusso, lo sviluppo del web come piattaforma estende questa idea alle applicazioni sintetiche composte da servizi forniti da computer multipli.

Ma come con molte aree del Web 2.0, dove il “2.0″ non rappresenta qualcosa di nuovo ma piuttosto una più completa realizzazione del vero potenziale della piattaforma web, questa frase ci dà una indicazione chiave su come progettare applicazioni e servizi per la nuova piattaforma.

A oggi, iTunes è il miglior esempio di questo principio. Questa applicazione collega in modo trasparente il dispositivo portatile a un massiccio back-end su web, con il PC che funziona da cache locale e da stazione di controllo. In precedenza ci sono stati molti tentativi di portare i contenuti del web su dispositivi portatili, ma la combinazione iPod/iTunes è una delle prime applicazioni di questo tipo progettate in partenza per dispositivi multipli. TiVo è un altro buon esempio.

iTunes e TiVo dimostrano anche molti degli altri principi di base del Web 2.0. Non sono applicazioni web di per sé, ma aumentano la potenza della piattaforma web, rendendola una parte senza soluzione di continuità, quasi invisibile della loro infrastruttura. La gestione dei dati è chiaramente il cuore della loro offerta. Si tratta di servizi, non di pacchetti di applicazioni (sebbene iTunes possa essere utilizzato come un’applicazione, gestendo solo i dati dell’utente locale). Inoltre, sia TiVo che iTunes mostrano un primo utilizzo dell’intelligenza collettiva, sebbene in entrambi i casi i loro esperimenti siano in guerra con la lobby degli IP. C’è solo una limitata architettura partecipativa in iTunes, ma la recente aggiunta del podcasting modifica sostanzialmente questa equazione.

Questa è una delle aree del Web 2.0 dove ci aspettiamo di vedere alcuni dei cambiamenti più grandi, con l’aumento dei dispositivi collegati alla nuova piattaforma. Quali applicazioni diventano possibili quando i nostri telefoni e le nostre auto non consumeranno più dati ma li renderanno disponibili? Il monitoraggio del traffico in tempo reale, i flash mob e il giornalismo dei cittadini sono solo alcuni dei primi segnali di avviso delle possibilità della nuova piattaforma.

Design Pattern di Web 2.0

Nel suo libro, A Pattern Language, Christopher Alexander definisce un format per la descrizione concisa della soluzione di problemi architetturali. Egli scrive: “Ogni pattern descrive un problema che avviene di continuo nel nostro ambiente, e poi descrive il nucleo fondamentale della soluzione a quel problema, in modo tale che potrete usare questa soluzione un milione di volte senza farlo mai nello stesso modo”.

1. The long tail
I piccoli siti rappresentano il grosso del contenuto internet; nicchie ristrette rappresentano il grosso delle applicazioni internet possibili. Perciò: fate leva sul customer-self service e sulla gestione dei dati algoritmici per raggiungere l’intero web, le periferie e non solo il centro, la lunga coda e non solo la testa.

2. I Dati sono il Prossimo Intel Inside
Le applicazioni sono sempre più guidate dai dati. Perciò: Per un vantaggio competitivo, cercate di possedere una fonte di dati unica e difficile da ricreare.

3. Gli Utenti Aggiungono Valore
La chiave per un vantaggio competitivo nelle applicazioni internet è il grado in cui gli utenti sono in grado di aggiungere i propri dati a quelli che voi fornite. Perciò: Non limitate la vostra “architettura partecipativa” allo sviluppo del software. Coinvolgete i vostri utenti sia implicitamente, sia esplicitamente nell’aggiungere valore alla vostra applicazione.

4. Gli Effetti del Network di Default
Solo una piccola percentuale di utenti si prenderà la briga di aggiungere valore alla vostra applicazione. Perciò: Impostate di default un sistema per aggregare i dati degli utenti come effetto dell’utilizzo della vostra applicazione.

5. Some Rights Reserved. La protezione della proprietà intellettuale limita il riutilizzo e previene la sperimentazione. Perciò: Quando i benefici vengono dall’adozione collettiva e non dalla restrizione privata, assicuratevi che le barriere all’adozione siano basse. Seguite gli standard esistenti e utilizzate le licenze con il minimo di restrizioni possibili. Progettate per l’”hackability” e la “remixability.”

6. L’eterno Beta
Quando i dispositivi e i programmi sono collegati a internet, le applicazioni non sono più manufatti software, bensì servizi in continuo sviluppo. Perciò: Non inserite più nuove funzioni in versioni monolitiche ma, al contrario, aggiungetele regolarmente come parte della normale esperienza dell’utente. Impegnate i vostri utenti come collaudatori in tempo reale e dotate il servizio di strumenti di controllo così saprete come la gente usa le nuove funzioni.

7.Cooperazione, Non Controllo
Le applicazioni Web 2.0 consistono in una rete di data service che collaborano. Perciò: Offrite interfacce per i web service e syndication dei contenuti e riutilizzate i data service degli altri. Supportate modelli di programmazione leggeri che consentono sistemi di abbinamento non rigidi.

8. Il Software a Livello Superiore del Singolo Dispositivo
Il PC non è più l’unico dispositivo che consente l’accesso alle applicazioni internet e le applicazioni che sono limitate a un solo dispositivo hanno un valore inferiore rispetto a quelle che sono connesse. Perciò: Progettate dall’inizio la vostra applicazione perché sia in grado di integrare servizi su dispositivi portatili, PC e server internet.

La “Rich User Experience”

Fin dai tempi di Viola browser di Pei Wei, nel 1992, il web veniva usato per trasferire “applets” e altri tipi di contenuti attivi all’interno del browser web. L’introduzione del Java nel 1995 si è basata sul trasferimento di tali applets. Il JavaScript e poi DHTML furono introdotti come strumenti leggeri per fornire una programmabilità da parte del cliente e esperienze più significative per gli utenti. Alcuni anni fa, Macromedia coniò il termine “Rich Internet Applications” (che è stato adottato anche dal concorrente open source di Flash, Laszlo Systems) per evidenziare la capacità di Flash di fornire non solo contenuti multimediali, ma anche esperienze sulle applicazioni con interfaccia grafica (GUI, Graphical User Interface).

Comunque, il potenziale del web di fornire applicazioni su larga scala non ha colpito il mercato principale sino a quando Google non ha introdotto Gmail, presto seguito da Google Maps, applicazioni web con rich user interface e un’interattività equivalente a quella per PC. L’insieme di tecnologie utilizzate da Google fu battezzata AJAX in un saggio embrionale di Jesse James Garrett della società di web design Adaptive Path. Egli scrisse:

“Ajax non è una tecnologia. È in realtà l’insieme di diverse tecnologie, ognuna delle quali fiorente di per se stessa, unite in modi potenti e nuovi. Ajax incorpora:

•    presentazioni standard, utilizzando XHTML e CSS;
•    visualizzazione dinamica e interazione utilizzando il Document Object Model;
•    scambio e manipolazione di dati utilizzando XML e XSLT;
•    recupero di dati asincrono utilizzando XMLHttpRequest;
•    e JavaScript che mette insieme il tutto.”

AJAX è anche un componente chiave delle applicazioni Web 2.0 quali Flickr, ora parte di Yahoo!, delle applicazioni basecamp e backpack di 37signals, così come di altre applicazioni di Google, quali Gmail e Orkut. Stiamo entrando in un periodo di innovazione dell’interfaccia utente che non ha precedenti, in quanto i web developer sono finalmente in grado di costruire rich web application di valore equivalente alle applicazioni locali per PC.

Stranamente, molte delle capacità esplorate ora esistono da molti anni. Alla fine degli anni ‘90, sia Microsoft che Netscape ebbero una visione del tipo di capacità che ora sono finalmente state realizzate, ma la loro battaglia sugli standard da usare ha reso complicata la realizzazione di applicazioni idonee per più browser. Fu solo quando Microsoft vinse in modo definitivo la guerra dei browser, e quindi ci fu un unico effettivo browser da sviluppare, che questo tipo di applicazione divenne possibile. E sebbene Firefox abbia reintrodotto la concorrenza nel mercato dei browser, almeno per ora non abbiamo visto la concorrenza distruttiva sugli standard web che ha bloccato il progresso negli anni ‘90.

Ci aspettiamo di vedere molte nuove applicazioni web nei prossimi anni, sia applicazioni veramente nuove, sia nuove implementazioni web di applicazioni per PC. Ogni cambiamento di piattaforma fino a oggi ha anche creato opportunità per un cambio di leadership nelle applicazioni dominanti della piattaforma precedente.

Gmail ha già fornito alcune innovazioni interessanti nella posta elettronica, combinando i punti di forza del web (accessibile ovunque, grandi competenze nella gestione di database, ricercabilità) con interfacce utenti che somigliano alle interfacce PC in merito di usabilità. Nel frattempo, altri client di posta sulla piattaforma PC stanno eliminando il problema dall’altro lato, aggiungendo IM e capacità di rilevare la presenza degli utenti online. Quanto siamo lontani da una comunicazione integrata che unisca il meglio di email, IM, e telefono cellulare, utilizzando il VoIP per aggiungere anche la voce alle ricche possibilità delle applicazioni web? La corsa è cominciata.

È facile vedere come il Web 2.0 modificherà anche la rubrica. Una rubrica Web 2.0 considererà la rubrica locale su PC o su telefono semplicemente come una cache dei contatti che avete esplicitamente chiesto al sistema di ricordare. Nel frattempo, un agente di sincronizzazione web, tipo Gmail, ricorderà ogni messaggio inviato o ricevuto, ogni indirizzo email e ogni numero di telefono utilizzato, e costruirà una tecnica di ricerca all’interno della rete sociale per decidere quale alternativa offrire quando non viene trovata una risposta nella cache locale. In mancanza di una risposta, il sistema farà una ricerca nel network sociale più ampio.

Un elaboratore di testi Web 2.0 supporterà l’editing collaborativo, tipo Wiki, e non solo quello di documenti indipendenti. Ma supporterà anche i rich format che ci aspettiamo dagli elaboratori di testi su PC. Writely è un buon esempio di applicazioni di questo tipo, sebbene non abbia ancora ottenuto un ampio seguito.

E la rivoluzione del Web 2.0 non sarà limitata alle applicazioni per PC. Salesforce.com dimostra come il web possa essere utilizzato per fornire software come un servizio, in applicazioni adattate alle esigenze dell’impresa, come il CRM.

L’opportunità competitiva per i nuovi competitor è di abbracciare completamente il potenziale di Web 2.0. Le società che avranno successo creeranno applicazioni che imparano dagli utenti, utilizzando un’architettura partecipativa per costruire un vantaggio competitivo non solo nell’interfaccia software, ma anche nella ricchezza dei dati condivisi.

Competenze Centrali delle Società Web 2.0

Esplorando i sette principi suddetti, abbiamo evidenziato alcune delle principali caratteristiche del Web 2.0. Ciascuno degli esempi che abbiamo esplorato dimostra uno o più di questi principi chiave, ma è possibile che altri ci sfuggano. Chiudiamo, perciò, riassumendo quelle che crediamo essere le competenze chiave delle società Web 2.0:

•    Servizi, e non pacchetti di software, con una scalabilità efficace dal punto di vista dei costi
•    Controllo su fonti di dati uniche e difficilmente replicabili che si arricchiscono man a mano che vengono utilizzate
•    Dare fiducia agli utenti come co-sviluppatori
•    Sfruttare l’intelligenza collettiva
•    Influenzare “the long tail” attraverso il customer self-service
•    Il software a un livello superiore rispetto al singolo dispositivo
•    Interfacce utenti, modelli di sviluppo, E modelli di business leggeri

La prossima volta che una società dichiara di essere “Web 2.0,” verificate le sue caratteristiche a fronte di questa lista. Più punti otterranno, più si meriteranno questo nome. Ricordate, però, che l’eccellenza in una sola area può essere più efficace di alcuni piccoli passi compiuti in tutte e sette.

Articolo Originiale

http://oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.html

What Is Web 2.0 Design Patterns and Business Models for the Next Generation of Software
by Tim O’Reilly
09/30/2005

” Web 2.0 is a set of economic, social, and technology trends that collectively form the basis for the next generation of the Internet—a more mature, distinctive medium characterized by user participation, openness, and network effects.”

Tim ÒReilly1

  1. Nessun commento ancora...