Dal Web al Web 2.0 - Sintesi a cura di Daniele Righi

download Dal Web al Web 2.0 - Sintesi a cura di Daniele Righi

If you can't read please download the document

description

Sintesi, integrazione e rielaborazione di una lezione tenuta a La Sapienza dal Prof. Stefano Epifani.

Transcript of Dal Web al Web 2.0 - Sintesi a cura di Daniele Righi

  • 1. Dal Web al Web 2.0 sintesi a cura di Daniele Righi [Web 2.0] [] will not only change the world, but also change the way the world changes.1 Il discorso qui proposto ha lo scopo di descrivere analiticamente l'evoluzione da una visione tradizionale di Web ad un utilizzo dello stesso oggettivamente innovativo, supportato solo in parte dall'introduzione di nuove tecnologie. Verranno brevemente ripercorsi i momenti caratterizzanti la storia del Web, per poi finalmente osservare, una volta definito il contesto, le basi sulle quali poggia il suo sviluppo. Il World Wide Web viene definito da Richard Stallmann:2 una rete di risorse di informazioni, basata sull'infrastruttura di Internet. Il Web si basa su tre meccanismi per rendere queste risorse prontamente disponibili al pi vasto insieme possibile di utenti: Uno schema di denominazione uniforme per localizzare le risorse sul Web (URI). Protocolli, per accedere alle risorse denominate sul Web (es: HTTP). Ipertesto, per una facile navigazione tra le risorse (es: HTML). Sulla falsa riga dei punti elencati si prover di seguito a chiarirne meglio il significato: L'URI (Uniform Resource Identifier) uno standard generico per la localizzazione delle risorse sul Web. In tal senso l'URL (Uniform Resource Locator) si configura quale URI in grado di specificare la via attraverso cui raggiungere la risorsa, mentre l'URN (Uniform Resource Name), ugualmente URI, individua l'identit, il nome, della risorsa senza indicare come ottenerla. Un esempio pu essere il codice ISBN. Per protocollo si intende un insieme di regole e convenzioni per far si che due entit possano dialogare. Si hanno protocolli Web (HTTP), Ftp - File Transfer Protocol (FTP), per la ricezione delle mail (IMAP - Internet Message Access Protocol o Interactive Mail Access Protocol). L'HTML (HyperText Markup Language) , invece, il linguaggio utilizzato per la codifica di un documento che voglia essere parte di un ipertesto, trasmissibile via HTTP (protocollo di trasferimento degli ipertesti - HyperText Transfer Protocol). La riflessione su temi che ruotano attorno all'idea di Web, trova origine nel 1945, quando Vannevar Bush nell'articolo As we may think, comparso sulla rivista oggi conosciuta come The Atlantic, prefigura il Memex,3 uno strumento capace di acquisire contenuti per poi restituirli in maniera intuitiva. Tale visione pone le basi per un sistema capace di rendere immediatamente disponibile 1 Grossman Lev, Person of the Year. You., Time-Person of the Year, 25 dicembre 2006-1 gennaio 2007, pp. 26-29, p.28: non solo cambia il mondo, ma anche il modo in cui il mondo cambia. Traduzione mia. 2 Fondatore della Free Software Foudation, capostipite del Software Libero NON dell'Open Source: http://it.wikipedia.org/wiki/Free_Software_Foundation http://it.wikipedia.org/wiki/Open_source 3 Consider a future device for individual use, which is a sort of mechanized private file and library. It needs a name, and, to coin one at random, "memex" will do. A memex is a device in which an individual stores all his books, records, and communications, and which is mechanized so that it may be consulted with exceeding speed and flexibility. It is an enlarged intimate supplement to his memory. http://www.theatlantic.com/doc/194507/bush/4

2. una grande quantit di informazioni e/o dati. Nel 1965 Ted Nelson racconta la sua personalissima idea di ipertesto: il modello Xanadu. La ratio di questo risiede nella bidirezionalit dei link e in una maggiore funzionalit nella gestione degli stessi.4 Ben ventiquattro anni dopo verr proposto, da Tim Berners-Lee e Robert Calliau del CERN, lo sviluppo del sistema HTTP che poi andr a costituire insieme all'HTML le fondamenta del primo browser. Nel paper di presentazione del protocollo si rinvia al problema di perdita dell'informazione risolvibile adottando l'ipertesto. Al 1991 appartiene il precursore del Web: Gopher, sviluppato da Mark Mc Cahill, improntato su men ad albero (gerarchici) e non sull'ipertesto, legato a VERONICA (Very Easy Rodent Oriented Netwide Index to Computerized Archives), software di ricerca nel Gopher. Solo due anni pi tardi far la sua apparizione il primo browser per il Web, Mosaic, mentre nel 1994 nascono: il W3C (World Wide Web Consortium), una comunit internazionale rivolta allo sviluppo di standard sempre per il Web; Netscape;5 e si affacciano in Rete i primi siti commerciali. Con un anno di ritardo, nel 1995, viene presentata la prima versione di Microsoft Internet Explorer,6 e di Java: un linguaggio di programmazione nato da un progetto di Patrick Naughton, Mike Sheridan, and James Gosling della Sun, partito quattro anni prima e finalizzato ad anticipare il nuovo grande passo dell'informatica.7 A posteriori si pu convenire sulla lungimiranza di questi pionieri che, nel concepire un linguaggio multipiattaforma intuirono il processo di convergenza tecnologica. Alla fine degli anni 90 la Netscape Corporation rilascia lo standard di distribuzione RSS (Really Simple Syndication oppure Rich Site Summary), in grado di facilitare la classificazione e la gestione di flussi di contenuto provenienti da pi fonti, a patto che vengano utilizzati specifiche applicazioni.8 All'alba del nuovo millennio sono i Blog ad annunciare i tempi. Nel 2000 piattaforme sempre pi user friendly fanno si che la pratica di tenere traccia di s sul Web divenga generalizzata e non riservata ad una stretta cerchia di appassionati. Precisamente nel 2003, infine, Tim O'Reilly ci proietta nel tema di seguito presentato. Nel saggio What is Web 2.0. Design Patterns and Business Models for the Next Generation of Software,9 conia il termine Web 2.0. Il Web 2.0 Il precedente paragrafo si incardina sui presupposti tecnologici del Web, ai quali occorre aggiungere inediti modelli di servizio ed un del tutto nuovo ruolo dell'utente, per individuare le dimensioni caratterizzanti il Web 2.0. Tentando in questa prima fase di definirlo potremmo riferirci ad una consolidata prassi che trae vantaggio da ci che le dimensioni citate abilitano, ossia dinamiche di rete tra soggetti, che realizzano reti sociali, costituite da: nodi e connessioni. Rispettivamente si parla di soggetti e delle loro relazioni. Le dinamiche di siffatti rapporti favoriscono l'affermazione di nodi con numerose connessioni, detti Hub, dai quali dipende l'effettiva possibilit di discorrere circa i sei gradi di separazione. Considerato infatti l'ipotetico numero massimo di rapporti gestibili da ognuno, fissato 4 Si consiglia vivamente ai curiosi di leggere: http://ted.hyperland.com/notherview/ e http://www.xanadu.com/xuTheModel/ 5 Il primo browser commerciale 6 Un ritardo causato da un miope scetticismo dell'azienda, che riteneva possibile far migrare tutti gli utenti di internet verso il Microsoft Network, poi MSN. 7 http://java.sun.com/features/1998/05/birthday.html 8 Aggregatori o RSS Reader i quali appunto sono in grado di leggere, interpretare un flusso RSS (feed) 9 Lo si pu trovare, nella versione italiana, allindirizzo: http://www.xyz.reply.it/web20/index.php/PrintView/ 3. convenzionalmente a 150,10 tra i quali si trovano attivatori di processi e meri lurker11 virtualmente possibile per ogni soggetto entrare in comunicazione con qualsivoglia altro sfruttando non pi di 5 intermediari.12 Tutto ci inquadra uno scenario pluriconnesso e pluriconnettivo efficace soltanto se ispirato ad architetture reticolari non comunitarie. Queste ultime, contraddistinte da chiusura, inclusivit, obiettivi condivisi, aggregano membri a priori classificando come esterni coloro i quali non si riconoscono nei principi o nelle finalit della comunit stessa. Differente il caso della rete, aperta innanzitutto, individualista, pone l'enfasi sul singolo non sul gruppo, aggrega membri a posteriori, si rivela inoltre congruente con un effettivo agire al proprio interno di comunit, in tal caso si parla di rete di comunit. Fulcro di una qualsiasi rete il singolo, che trae e produce vantaggio al suo interno, e il nesso tra dare e avere il legame profondo instaurantesi tra individualismo e condivisione. Il duplice ritorno di cui la persona pu beneficiare coincide con una piena realizzazione di s stessa (individualismo), derivante dal condividere conoscenza. Tutto ci necessit di un presupposto non trascurabile: l'effettiva possibilit di condividere legata ad un'evidente convenienza, il che rende imprescindibile un riferimento alla settima tesi del Cluetrain Manifesto: gli iperlink sovvertono la gerarchia.13 La gerarchia in oggetto propriamente quella che vede al vertice i produttori di contenuti e alla base i fruitori. Nel corso della storia anche recente14 tali categorie sono andate progressivamente ratificando un forte squilibrio tra un'lite detentrice della facolt di produrre informazione, perci stesso, autorevole e una massa di ricevitori. Ad oggi la persona nella Rete pu interpretare sia l'uno che l'altro ruolo, non si pu quindi pi parlare di produzione ma di condivisione (la miniera dalla quale si estrae reputazione). Una logica, quella descritta, incomprensibile senza aver considerato prima quella che presiede alla circolazione dell'informazione. Pubblicare un contenuto non implica perderne il possesso, chi condivide qualcosa, infatti, da una parte crea valore per la rete, dall'altra ne crea per s stessa, ottenendo riconoscimenti e, come si diceva, reputazione, sulla base della pertinenza. Per meglio comprendere il ciclo di vita dell'informazione occorre riprendere il discorso sulla diffusione della stessa e sul fatto che, tra ci che interessante, spesso prioritario, e ci che invece utile, spesso secondario, si inserisce un terzo attore: la pertinenza appunto. Giuseppe Granieri la definisce come qualit[]A posteriori.15 Viene totalmente abbattuto il concetto di qualit ufficiale, prerogativa dei media mainstream,16 essa diviene un parametro passibile di interpretazione critica da parte di chiunque. In cosa consiste quindi la nuova qualit se non nella costruzione di una personale autorevolezza, provata sul campo. Riflessioni quindi, analisi, articoli, pensieri, generano un flusso continuo di apprendimento e reinterpretazione, reingegnerizzazione della conoscenza, che fa del Web (2.0)17 un enorme contenitore di informazioni sulle informazioni (metadati), aggregante le esigenze individualistiche con quelle sociali di rete: la Grande Conversazione. Nel tirare le fila della trattazione si ritiene ora opportuno disporre in uno schema concettuale ordinato le direttrici di quanto esposto. Si gi accennato, senza tuttavia articolarne il senso, alle tre dimensioni (o ambiti) entro cui, quasi spazialmente dato il numero, collocare il Web 2.0. Il concetto fondante, sul piano delle tecnologie, l'aver reso possibile un nuovo scenario, quale 10 Numero di Dunbar: http://en.wikipedia.org/wiki/Dunbar's_number 11 Lurker: http://it.wikipedia.org/wiki/Lurker 12 Le dinamiche emergenti dal fluido intercorrelarsi dei nodi vengono studiate dalla Social Network Analysis 13 Potete leggere tutte le 95 tesi a questo indirizzo: http://www.mestierediscrivere.com/testi/Tesi.htm 14 In ogni caso antecedente l'avvento del Web 2.0 15 Granieri Giuseppe, La societ digitale, Laterza, Bari, p. 8 16 Contestualizzando un po' il discorso evitando che risulti ancora pi astratto di quello che . 17 Lo si vedr meglio poco pi avanti. 4. quello del Web 2.0, senza aver bisogno di ulteriori soluzioni tecniche che non fossero quelle gi disponibili, utilizzate magari in maniera alternativa. Tra queste troviamo AJAX (Asynchronous Javascript and XML), una tecnica di sviluppo che rende sincrona la comunicazione tra client e server, restituendo in tempo reale, senza dover ricaricare la pagina, gli esiti dell'interazione. Una tecnica che permette a Google di fornire il proprio word processor (Google Docs) come servizio direttamente fruibile dal browser, ossia un SaaS (Software As A Service), pratica appartenente al secondo ambito, quello dei nuovi modelli di erogazione dei servizi, generanti di per s stessi ulteriori servizi, come si visto. Non soltanto il software si dereifica/demercifica divenedo servizio distribuito da un operatore, ma possibile per l'utente, combinando alcune funzionalit rilasciate dalle aziende erogatrici di servizi18 , produrre applicazioni terze, mashup, grazie alle quali soddisfare ancora nicchie19 di destinatari. Il numero del mashup cresce costantemente, e, integrandosi con le potenzialit connettive garantite dal Web 2.0, spesso offre soluzioni a problemi che man mano si presentano o ad esigenze che vanno manifestandosi. Inutile ribadire ancora il valore di un'architettuta reticolare. Un esempio valido pu essere Twittervision,20 un mashup che georeferenzia sulle mappe di Google il flusso RSS di Twitter. Il terzo ed ultimo punto riguarda il ruolo dell'utenza. Con uno sguardo al concetto di pertinenza precedentemente incontrato si riprende qui la distinzione tra produttori e fruitori di contenuti. Chiunque ha la facolt di produrre, rivisitare, criticare, avversare, sostenere, semplicemente osservare o riclassificare qualunque tipo di contenuto pubblicato in Rete. La valenza dell'enorme sovrastruttura21 poggiante su tecnologie e sapere mainstream proprio quella di raccogliere una serie infinita di metadati o metainformazioni fluidificando la conoscenza e sdoganandola dai centri del potere. Gli UGC (User Generated Contents), come Blog e Wiki sono l'anima e la preziosit di questo Web 2.0, forte perch interconnesso, altrimenti caratterizzato da una serie nodi autoreferenziali e sterili. Ma non sono gli unici, poich non ci si pu limitare ad una pura fruizione e produzione, la nostra mente ha bisogno di categorizzare. Dal momento che non esistono criteri oggettivi in tal senso ormai comune apporre la propria etichetta (Tag) su quanto si pubblica, si osserva o si ricostruisce su internet. Si parla in questo caso di Folksonomy.22 La serie di prassi descritte insegna, per cos dire, alla macchina a pensare secondo i nostri standard, riproducendo a livello planetario la struttura neurale del cervello (neuroni/nodi - sinapsi/connesioni) a noi familiare.23 La rivista Web Designer cita una meravigliosa frase di Tim OReilly: Avr successo chi sapr creare applicazioni che apprendono dai propri utenti,[].24 Il reale valore perci di un servizio (2.0) non risiede nella bont del servizio stesso, ma in quel surplus che l'utilizzo di questo da parte dell'utente produce. A conclusione di questa analisi necessario aprire ancora una parentesi sulla variazione profonda che ha interessato i mercati, un effetto dei cambiamenti relativi ai processi di identificazione, elaborazione, distribuzione e fruizione dell'informazione. Lo squarcio viene aperto dalla Coda Lunga25 che costituisce il superamento del Teorema di Pareto. Se banalmente come sostiene il principio dell'economista italiano, la maggior parte delle risorse, o semplificando, beni, viene movimentata da un ristretto numero di soggetti, Chris 18 Open API (Application programming interface) si vedano: http://en.wikipedia.org/wiki/API e http://en.wikipedia.org/wiki/Open_API 19 Questo termine torner tra breve quando si parler di coda lunga. 20 http://beta.twittervision.com/ 21 Lo stesso Web 2.0 22 Il termine una crasi tra Folk e Tassonomy. 23 E' uno tra i concetti emersi dalla visione di questo video: http://www.youtube.com/watch?v=6gmP4nk0EOE 24 Il futuro prossimo del web, Web Designer, n. 20, Agosto- Settembre 2006, pp. 16-21, p. 21 25 Espressione coniata da Chris Anderson in un articolo scritto per Wired nell'Ottobre del 2004: http://www.wired.com/wired/archive/12.10/tail.html 5. Anderson capovolge la prospettiva sostenendo che, evidente nel caso di Amazon.com, la movimentazione di un numero impressionante di beni di nicchia supera in quanto a volume quella per cos dire di massa. La si potrebbe chiamare rivoluzione delle nicchie, resa possibile dalla circolazione di notizie e dall'abbattimento, rimanendo ancorati al caso Amazon, dei vincoli derivanti dallo spazio fisico entro cui stoccare merci.