Storia Dei Nuovi Media - Dispense

48
- 1 - - Storia dei nuovi media - Nuova Accademia di Belle Arti Corso di Diploma in Media Design Anno Accademico 2008-2009 Dispense II semestre prof. Martino Giudici

description

dispense con un riassunto della storia dei nuovi media. (II parte)

Transcript of Storia Dei Nuovi Media - Dispense

Page 1: Storia Dei Nuovi Media - Dispense

- 1 -

- Storia dei nuovi media -

Nuova Accademia di Belle Arti Corso di Diploma in Media Design

Anno Accademico 2008-2009 Dispense II semestre

prof. Martino Giudici

Page 2: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia dei nuovi media –

a.a. 2008-2009

- 2 -

IL LIBRO. DALL’ANTICHITÀ AL MEDIOEVO

Il libro propriamente detto è, nell’antichità classica, un volumen (o rotulus), cioè un rotolo. L’utilizzo di tale forma materiale si rivela di capitale importanza.

Il Volumen

Il volumen è fabbricato con sottili strisce di papiro (papiro in greco antico si dice: kàrtes, da cui la parola carta), una pianta originaria della valle del Nilo. Il fusto del papiro viene tagliato a lamelle, che sono poi disposte in due strati perpendicolari, incollate e battute e, alla fine, levigate con pietra pomice per preparare la superficie del foglio alla scrittura. Il papiro è utilizzato in Egitto già all’inizio del III millennio a.C. a Roma nel III secolo a.C., e la sua importanza spiega perché nel 31 a.C., Ottaviano, vincitore di Antonio e Cleopatra, adotti delle misure per controllarne la produzione e assicurare il regolare approvvigionamento della capitale dell’Impero. Sappiamo che a Roma esisteranno ben 8 categorie di papiro, distinte in base alla qualità del supporto, che poteva andare dal papiro di varietà “augusta”, destinato ai manoscritti più lussuosi, a quello di varietà “emporetica” (degli empori), per gli imballaggi. A partire dall’antichità egizia, si scrive comunemente con calamo, ma il prezzo elevato del papiro fa sì che gli scritti più svariati siano tracciati su supporti eterogenei, come le tavolette di legno o di terracotta, di argilla o di cera, per le quali si usa uno stilo. Copiare

Nell’antichità greco-romana, di solito l’autore non scrive personalmente, ma detta a un segretario. Questi mette il testo in brutta copia, spesso su una tavoletta di cera, oppure su un foglietto di papiro o di pergamena con un calamo, per poi trascriverlo in bella copia su una schedula (foglio), la quale serve infine alla revisione. Una pratica che proseguirà fino al Medioevo, generando anche la tecnica della stenografia, con vere e proprio scuole per stenografi. Leggere

E’ chiaro che la forma del volumen obbliga a una pratica di lettura complessa: occorre srotolare (explicare) e arrotolare nello stesso tempo, cosa che impedisce, per esempio, di lavorare contemporaneamente su più rotoli, o di prendere appunti, e che obbliga inoltre a una lettura consecutiva, rendendo impossibile la semplice consultazione. La lettura del volumen può essere considerata, in via di principio, non troppo dissimile dalla lettura al computer, dove lo schermo corrisponde al passaggio del testo srotolato davanti agli occhi del lettore. La scrittura è fatta dapprima da linee lunghe nel senso della larghezza, da un margine all’altro del foglio, tenendo il rotolus (o volumen) verticalmente. I Volumnia sono in genere arrotolati all’interno di giare di ceramica, oppure in panieri, in scatole o bauli, oppure, se si tratta di biblioteche, vengono sistemati all’interno di casellari o armadi. Il titolo è riportato su un’etichetta applicata all’estremità del rotolus. Il termine biblioteca (bibliotèke) viene riferito inizialmente al mobile che contiene libri, poi, per estensione, al locale dove questi ultimi sono depositati. La mole del rotulus, che può superare i 10 metri, e pesare fino 20-25 Kg, può causare particolari difficoltà di maneggiamento. La produzione e la diffusione libraria nell’Impero romano Bisogna anzitutto sottolineare la grandissima importanza, per la storia intellettuale e artistica di Roma, dell’assimilazione della cultura greca, se non addirittura, per molti aspetti, di quella che è una vera e propria ellenizzazione dell’Impero romano. I greci dominavano il mar Egeo e la parte più importante del Mediterraneo orientale e centrale, e l’impero alessandrino conferisce alla cultura greca una dimensione di fatto universale. A partire dal III secolo a.C. l’espansione romana si scontra in modo crescente con le postazioni greche, prima in Italia meridionale, poi nella Grecia continentale, quindi nelle isole dell’Asia minore (vicine alle coste turche) e in fine di quasi tutto l’antico impero alessandrino. A Roma i ceti sociali superiori sono

Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Page 3: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia dei nuovi media –

a.a. 2008-2009

- 3 -

permeati sempre più dal pensiero e dai modi di vita ellenistici: nulla di strano, dunque, che il modello greco sia pervaso nei due ambiti della scrittura e del libro. Pubblicare A Roma la scrittura e la diffusione libraria sono legate alla “cosa pubblica”. Il testo una volta redatto, passa nel circuito pubblico, ma secondo protocolli differenti. La diffusione può avvenire innanzitutto attraverso la lettura orale, eseguita dall’autore o da un rappresentante al cospetto della cerchia di amici e conoscenti in una sala di lettura, se non addirittura in un teatro. […] La distribuzione dei testi, quella che noi oggi chiameremmo pubblicazione, a Roma avveniva in due modi diversi, il vocabolario distingue fra due azioni: edere significa far circolare un prodotto letterario senza cercare di diffonderlo ampiamente, al contrario invece di publicare, che descrive il processo attraverso il quale il testo viene espressamente reso pubblico. Vendere

Se lo scambio di servizi e il dono di libri rientrano in una forma di socialità gratuita fra cittadini molto agiati e colti, il commercio librario si colloca invece in un contesto completamente diverso e risponde a funzioni del tutto differenti. Nella Roma repubblicana, e in minor misura imperiale, i librai mirano di solito a diffondere il libro nei ceti sociali più poveri. La situazione si modifica a partire dal principato di Augusto, quando una nuova classe dirigente più attenta alle belle lettere sostituisce la vecchia classe senatoriale: il passaggio dalla Repubblica all’Impero marca il passaggio dalla città allo Stato, traducendosi in una trasformazione delle funzioni e degli atti pubblici. Assistiamo all’ascesa del mecenatismo e del patronato, che presuppongono logiche di diffusione del libro del tutto diverse da quelle dell’attività libraria commerciale. Ma nello stesso tempo botteghe librarie e laboratori di copisti vanno diffondendosi a Roma e nelle principali città di provincia. Qui troviamo dunque librai che diffondono la letteratura coeva greca e latina. E tanta è la curiosità del pubblico che Augusto proibisce la distribuzione nelle biblioteche romane di alcuni scritti falsamente attribuiti a Cesare. Possiamo affermare che la diffusione della cultura scritta sia favorita dal fatto che l’alfabetizzazione è verosimilmente piuttosto avanzata nelle grandi città, a cominciare da Roma: ciò è confermato delle numerose iscrizioni e dai graffiti sugli edifici antichi. I librarii sono specializzati nell’edizione e nel commercio dei libri: il termine librarius indica tanto il copista (che solitamente lavora su ordinazione o vende all’occorrenza il manoscritto copiato) quanto il libraio vero e proprio. A Roma, ma anche ad Atene e ad Alessandria, i librarii più importanti sono ormai degli imprenditori che impiegano dei copisti (remunerati o schiavi) organizzati in laboratori, sotto l’autorità di un responsabile che controlla il lavoro e verifica la qualità della copia. Le copie provenienti da questo tipo di officine sono spesso considerate particolarmente scadenti. L’intervento di uno o più intermediari fra l’autore e il pubblico introduce nuovi problemi rispetto all’identità e allo statuto dell’autore, all’esattezza del testo, quando non addirittura rispetto alla volontà di vedere quest’ultimo diffuso. Gli errori

Segretari e scribi fanno certo errori d’interpretazione e di copiatura, ma possono anche sopprimere quei passaggi giudicati meno interessanti, o al contrario, inserire aggiunte e correzioni e persino diffondere il testo senza l’autorizzazione dell’autore. La pratica del falso compare anch’essa molto presto, dal momento che testi apocrifi (cioè falsamente attribuiti a un autore) si trovano già nella tradizione ebraica. La identificazione del falso è sovente difficoltosa e il numero di documenti anonimi o di false attribuzioni è molto alto. Questi problemi sono tanto più gravi all’epoca del cristianesimo primitivo, quando la Chiesa cristiana ha come compito prioritario quello di fissare la sua dottrina, il suo corpus di testi canonici e la sua organizzazione. In via generale gli autori non sono quasi mai retribuiti (non esisteva alcuna forma di tutela dell’opera intellettuale, come il copyright, venuto soltanto circa 2 millenni dopo e con una tecnica completamente diversa: la stampa), tranne gli autori di opere teatrali, spesso acquistate direttamente dalle amministrazioni urbane. Siamo in un’epoca dove la scrittura ha scopi anzitutto politici e non commerciali.

Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Page 4: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia dei nuovi media –

a.a. 2008-2009

- 4 -

La biblioteca di Alessandria

L’uso dello scritto è relativamente diffuso nel mondo dell’antichità classica per la gestione e l’amministrazione, ma anche per la letteratura, la corrispondenza e così via. Conosciamo l’esistenza di biblioteche ad Atene e nella maggior parte delle città greche, soprattutto in epoca ellenistica. Ma la più importante, un vero e proprio archivio storico della cultura antica, è quella di Alessandria, risalente all’inizio dell’epoca ellenistica. Alessandro Magno, che era stato allievo di Aristotele, muore all’improvviso all’età di 33 anni, nel 323 a.C., a Babilonia; il suo impero, di tipo ellenistico, si estende dalla Macedonia e dalla Grecia, fino alle rive dell’Indo, all’Asia centrale (Samarcanda) e all’Egitto. In quest’epoca Atene resta preminente nel campo della filosofia, ma il peso politico e le istituzioni culturali di Alessandria le conferiscono la supremazia in tutti gli altri campi del sapere. Tolomeo I (323-280 a.C.) è l’ideatore del progetto, che comprende l’insegnamento, lo studio e la fondazione di una biblioteca che raccolga tutte le opere disponibili nel mondo antico; il suo successore, Tolomeo II Filadelfo (280-247) realizza metodicamente il programma. Demetrio Falareo, il tiranno di Atene cacciato nel 306, trova rifugio ad Alessandria: la sua presenza segna simbolicamente il trasferimento egiziano della capitale culturale greca. Egli partecipa attivamente alla costruzione del Museo (dimora delle Muse). Questo, ospitato nell’ala del palazzo reale, funziona grazie all’appoggio finanziario dei sovrani e fa ben presto di Alessandria la capitale universale del sapere. Si stima che già nell’epoca di Tolomeo II, la biblioteca conservasse 500.000 volumi. Il geografo Strabone visita la città nel 24 a.C. e ne descrive il Museo, costituito dal colonnato, dalla biblioteca propriamente detta e da un collegio che accoglie letterati, studiosi e scienziati. L’obiettivo della biblioteca è di assicurar la conservazione dei testi e favorire l’attività intellettuale, ma forse anche di promuovere la cultura greca in un mondo nel quale convivono fianco a fianco numerose civiltà, di raccogliere le tradizioni straniere e di contribuire insomma alla gloria del sovrano. L’immensa ricchezza dei fondi, comprendenti fra l’altro gli scritti di Aristotele, Eschilo, Sofocle, Euripide e molti altri ancora offriva uno straordinario ambiente di lavoro nel campo filologico, letterario e scientifico, cosicché un numero elevatissimo di testi dell’antichità ci è pervenuto nella forma loro conferita dai lavori di critica e di edizione del testo realizzati ad Alessandria. Sul piano scientifico ricordiamo solo che Euclide ha molto probabilmente insegnato qui, che Archimede ha visitato la città e che Eratostene vi ha calcolato la misura della circonferenza terrestre. Il Codex

E’ assai sorprendente osservare come gli anni oscuri della bassa antichità siano proprio gli stessi in cui appare, oltre alla minuscola (lettere minuscole), una forma materiale del tutto nuova, una forma destinata a grandissimi sviluppi: il codex, il libro piegato e rilegato, il cui supporto è oramai la pergamena (è difficile infatti creare un codex con il papiro). Il codex è originariamente una tavoletta di legno (dal latino caudex), e poi, per estensione, un gruppo di tavolette legate assieme, sulle quali sono riportati dei conti o altri documenti privi di valore intrinseco. Scoperto nella regione egiziana del Fayoum, il “quaderno di Teodoro” ne è un esempio davvero straordinario, sebbene relativamente tardo (circa VI sec. D.C.), è un insieme di 10 tavolette ricoperte di cera, tenute assieme con dei lacci di cuoio e protetta da 2 piatti di legatura. Il testo è verosimilmente il lavoro di uno scolaro del VI sec d.C. Il Codex non riesce affatto ad imporsi nella Roma imperiale, dove il libro resta sempre un volumen su papiro, mentre la pergamena e il codex sono utilizzati per lavori più veloci e più brevi, come appunti o minute. La diffusione generalizzata del codex è databile tra il III e il IV secolo d.C. E in realtà il codex è il supporto per eccellenza della cultura cristiana, mentre il volumen è legato alla cultura antica, cioè spiega anche il notevole ritardo con cui il codex verrà adottato dagli ebrei, appena nel VIII secolo. Per la sua realizzazione, la pelle (normalmente pelle di montone) viene preparata per servire da supporto scrittorio e poi, una volta trascritto il testo, essa viene piegata una o due volte, formando un fascicolo (l’insieme delle pagine formate da un unico foglio). I fascicoli, disposti l’uno dopo l’altro, sono poi cuciti assieme e raccolti in una rilegatura: questo è il libro, nella forma che ci è familiare ancora oggi. Fra i principali vantaggi della pergamena rispetto al papiro notiamo la possibilità di utilizzare

Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Page 5: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia dei nuovi media –

a.a. 2008-2009

- 5 -

entrambi i lati, mentre al contrario è più difficile arrotolarla. Con il codex anche la rilegatura si evolve, i primi esemplari noti sono egiziani: i fascicoli sono cuciti tra loro e fissati ai piatti della legatura, i quali sono costituiti da due tavolette di legno. La tecnica di cucitura in Occidente è molto variabile, ma essa si basa di solito sul tipo a due gigliate di filo. L’invenzione del codex è assolutamente fondamentale per il posteriore progresso della civiltà scritta, dal momento che essa apre la via a tutti gli sviluppi successivi del lavoro intellettuale su documenti scritti. Il codex è diviso in elementi uguali ed è adatto perciò alla consultazione parziale. Al codex è possibile aggiungere altresì un sistema di riferimento che renda più facile la consultazione: la cartulazione o foliazione, ossia la numerazione delle pagine. Dal punto di vista dell’utilizzo immediato, è possibile consultare il codex prendendo degli appunti, il che permette di abbandonare la pratica della lettura orale, per privilegiare invece il lavoro silenzioso e individuale. La lettura orale è un tipo di lettura molto frequente nell’epoca del volumen, ossia una lettura ad alta voce, mormorata o semplicemente accompagnata dal movimento delle labbra. Il codex è disposto orizzontalmente su tavolette,mentre il dorso o il taglio del libro riportano il titolo, facilitandone così il ritrovamento e l’identificazione. La combinazione del codex e della minuscola (lettere minuscole) dà dunque vita a uno strumento intellettuale di estrema potenza, mai conosciuto prima di allora. Ciò nonostante, queste modificazioni rimangono per lunghi secoli allo stato di mere potenzialità. Le straordinarie possibilità offerte dal codex saranno comprese e sfruttate appieno solo nel XVI secolo, due generazioni dopo l’invenzione della stampa a caratteri mobili di Gutemberg. La logica sottesa al codex include il duplice aspetto della produzione di massa dei documenti e dello sviluppo di sistemi di riferimento bibliografico, e avrà piena realizzazione solo con la moltiplicazione dei libri resa possibile dalla stampa. Il codex è il principale supporto della cultura scritta occidentale da quasi 2 millenni, ma la dissonanza fra la generale situazione catastrofica del IV secolo d.C. in Occidente (cioè la fine dell’epoca classica e l’inizio del Medio Evo) e quella formidabile invenzione che è stata il codex ha per noi qualcosa di sbalorditivo. Tale crisi assume innanzitutto l’aspetto di una crisi demografica, con effetti distruttivi su tutto l’insieme della società. La popolazione diminuisce in misura sensibilissima, come testimonia la contrazione delle superfici urbane racchiusa nelle nuove mura. Si pensi ad esempio che la Roma imperiale nel suo massimo splendore contava più di 1 milione di abitanti, mentre la Roma del basso Medio Evo non superava i cinquantamila abitanti. Può darsi che in un’epoca di crisi si sia quindi cercato un metodo di fabbricazione che permettesse di archiviare più informazioni (cioè più testo) a un costo inferiore, com’è appunto il caso del codex. Se è dunque certo che la diffusione generalizzata del codex deve essere direttamente collegata con la trionfale espansione del cristianesimo nel mondo latino, dobbiamo però ammettere che, in definitiva, non abbiamo una spiegazione pienamente soddisfacente che renda conto della nascita del codex. Una nuova pratica di lettura. E un nuovo modo di scrivere In via di principio, il passaggio dal volumen al codex piegato e rilegato apre profonde possibilità di cambiamento nel campo della lettura. I manoscritti dell’antichità e dell’alto Medioevo si presentano sottoforma di scriptio continua, ossia una scrittura che non stacca le parole fra di loro e non ricorre mai alla punteggiatura né alla suddivisione in paragrafi. La scriptio continua impone di fatto la lettura orale: e ciò sia a livello individuale, sia per un gruppo di uditori sia, infine, attraverso la lettura di uno schiavo segretario. Possiamo legittimamente pensare che la disposizione del testo sia andata migliorando, dopo l’VIII secolo, grazie agli apporti dei popoli barbari. Nel caso dei Carolingi si tratta di far propria una cultura latina diventata ormai irrimediabilmente estranea, tracciando un legame diretto con quella tradizione imperiale che essi erano intenzionati a far rivivere. La lingua degli scambi orali è, sino al VII secolo, il basso latino ma, a partire dall’VIII secolo, la tendenza verso le lingue romanze o germaniche diviene tanto più sensibile quanto più ci si sposta verso nord. Nasce così gradatamente una lingua che non è più il latino, bensì la lingua volgare progenitrice del francese o del tedesco. Dunque si è in pratica costretti a esaminare quest’ultime per tradurle in latino: da qui la riforma della scrittura (che sfocerà nella minuscola carolingia) nonché una disposizione del testo molto chiara e semplificata. I copisti adottano allora tutta una serie di nuove tecniche, che permettono la messa a fuoco del testo attraverso dispositivi formali che ne

Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Page 6: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia dei nuovi media –

a.a. 2008-2009

- 6 -

facilitano la lettura e la comprensione: le parole vengono separate le une dalle altre,l’uso delle maiuscole è relativamente normalizzato e, soprattutto, l’analisi logica rivelatasi ormai necessaria è facilitata dall’uso di specifici segni di punteggiatura. L’unica divisione interna al testo stesso resta quella, eventuale, dei “libri” (es.Libro I, Libro II, ecc.), non ci sono più i capitoli. Inoltre la sempre maggiore precisione della disposizione del testo facilita in via di principio la lettura silenziosa che si è potuta sviluppare negli ambienti più aperti al libro La carta Inventata in Cina nel I secolo d.C. (le più antiche ritrovate risalgono al III secolo d.C.) e trasmessa grazie alle civiltà dell’Asia centrale (Samarcanda V sec.), dell’India (VI sec.) e del mondo Arabo (Baghdad 793 d.C.), la carta giunge finalmente in Sicilia attorno alla fine dell’XI secolo e nel XII secolo a Genova. La materia prima, la cellulosa, è ricavata dagli stracci e, nel XIII secolo, da tela di lino e canapa, non più dalla lana. Si procede in primo luogo alla macerazione, poi una ruota idraulica che aziona dei magli riduce il tutto allo stato filamentoso: si ottiene così la pasta di carta. Quest’ultima viene versata in un tino d’acqua calda, dove l’operaio immerge la “forma”, ossia un telaio di legno munito di un setaccio che filtra l’acqua. Il foglio viene quindi deposto sullo stenditoio e asciugato in varie operazioni successive, incollato, satinato e lisciato. La carte è quindi pronta per essere utilizzata. Essa viene contata in pachi (25 fogli) e risme (500 fogli, ossia 20 pacchi). Il foglio di carta si presenta come un rettangolo dalle dimensioni variabili, nel Medioevo la misura medio del foglio è di 30x42 cm. Il primo mulino europeo per la fabbricazione della carta è quello costruito dagli arabi in Spagna, presso Valencia, nel 1150. Nel XIII secolo nelle cartiere di Fabriano, in Italia, compaiono alcune innovazioni fondamentali, quali l’utilizzo di magli idraulici, dei telai di ottone, della collatura con gelatina animale nonché l’uso generalizzato della filigrana nel reticolo del telaio. La carta è un supporto scrittorio più economico (anche 10 volte meno caro) può venire prodotta più velocemente nonché in quantità molto maggiore rispetto alla pergamena, e si rivelerà ben più adatta di quest’ultima alle applicazioni della tecnica tipografica. Essa trionfa in Occidente nel corso del XIV secolo per tutti i lavori correnti di scrittura e, in parte, per la produzione di libri manoscritti.

Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Page 7: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 7 -

MEDIOEVO E RINASCIMENTO

La situazione culturale prima dell'invenzione: tardo Medioevo e Rinascimento

"Le condizioni dominanti presso le librerie dell'antica Roma, nella biblioteca di Alessandria, o in alcuni monasteri e città universitarie medievali, resero possibile alle élite colte sviluppare una cultura libresca relativamente sofisticata. Tuttavia tutte le collezioni di libri erano soggette a contrazione e tutti i testi manoscritti erano destinati, dopo essere stati copiati, a deteriorarsi nel corso del tempo. Inoltre, al di fuori di alcuni particolari centri transitori, il tessuto della cultura degli amanuensi ere tanto sottile che anche le élite colte facevano affidamento sulla trasmissione orale. Nella misura in cui era la dettatura a dirigere la copiatura negli scriptoria e le composizioni erano pubblicate leggendole ad alta voce, anche la cultura dei libri era governata dalla parola parlata, producendo un'ibrida cultura mezzo orale e mezzo scritta, che oggi non trova un parallelo preciso. Cosa significasse esattamente la pubblicazione prima della stampa o quali messaggi venissero trasmessi nell'età degli amanuensi sono domande cui non si può dare una risposta sempre valida."……"Non esistono un libraio, un amanuense e neppure un manoscritto tipo". (Elisabeth Eisestein, Le rivoluzioni del libro, op.cit. pag. 21,22) Con queste parole, Elisabeth Eisestein, nelle prime pagine del saggio Le rivoluzioni del libro, descrive le differenze peculiari tra la cultura tipografica e la cultura chirografica o amanuense. Differenze molto importanti e, a suo dire, troppo poco sottolineate dagli studi storici. Difatti, uno degli argomenti centrali del libro, è l'accusa agli storici di aver trascurato una questione fondamentale, e cioè tutta quella gran massa di implicazioni sui cambiamenti cognitivi e di stile, o sui modi di comunicare la conoscenza, proprie del passaggio dalla cultura chirografica alla cultura tipografica. Il primo capitolo dell'opera della Eisestein s'intitola appunto La rivoluzione inavvertita. Pochi, a suo giudizio, hanno sottolineato e posto delle relazioni di causa tra l'avvento della stampa e le grandi scoperte e rivoluzioni scientifiche prodottesi a partire da tale avvento. Così come l'invenzione dell'alfabeto vocalico, e l'abbandono della cultura orale, sono stati fattori per lungo tempo omessi, tra le cause della nascita della filosofia, ugualmente ci troviamo di fronte a una mancanza di studi sulle connessioni tra l'invenzione della stampa e la nascita dell'era moderna. Pare quindi che la nostra storia occidentale, prodottasi a partire dalle trasformazioni sui modi e mezzi della trasmissione della conoscenza, abbia da sempre tralasciato uno degli aspetti principali: la tecnologia del linguaggio come strumento d'analisi e veicolo della conoscenza tra gli uomini. La situazione del libro nel tardo Medioevo e nel Rinascimento era di isolamento. Ci sono due linee da seguire per comprendere tale situazione: i processi adibiti alla Produzione del manoscritto e i mezzi e i modi della sua Distribuzione e reperibilità.

I processi di Produzione e Distribuzione del manoscritto nel Medioevo

(Elisabeth Eisestein, Le rivoluzioni del libro, op.cit. pag 92) Il francescano del Duecento San Bonaventura diceva che esistono quattro modi di fare i libri:

1. scrivendo opere altrui, senza cambiare nulla. Lo Scriptor (amanuense) 2. scrivendo opere altrui con aggiunte non sue. Il Compilator 3. scrivendo opere altrui e commentandole. Il Commentator 4. scrivendo opere proprie e aggiungendo opere altrui. L'Auctor

Questo elenco incompleto, dove viene omessa la composizione pienamente originale, ci mostra come la produzione libraria nel tardo Medioevo era fortemente sbilanciata verso la tradizione e la sua continua copiatura, e molto poco rivolta verso la creazione originale. Anche se è del tutto falsa la visione della cultura medievale intesa come continua replica del passato e della tradizione, e anche se sono attestati importanti contributi dati dagli studiosi medievali a diversi delle Arti Liberali (nella logica, nella geometria, nella musica), va comunque tenuto in considerazione che per tutto il Medioevo la trasmissione della conoscenza era nelle mani della

Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Page 8: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 8 -

Le 7 arti liberali medievali:

Quadrivio: aritmetica, geometria, musica, astronomia Trivio: grammatica , retorica e dialettica

Chiesa. Il modello del monastero chiuso al mondo esterno, garantì da un lato la protezione del manoscritto nei confronti dei grandi sconvolgimenti politici e sociali tipici di quest'epoca, dall'altro lato tuttavia produsse una vita culturale pressoché statica e rivolta sulla continua riproduzione del passato. Preoccupata di più a custodire la conoscenza che non a innovarla. Un tale atteggiamento, non scordiamocelo, fu naturalmente causato da implicazioni contingenti, quali guerre, invasioni, carestie, povertà, epidemie, organizzazione politica degli Stati, frammentazioni sociali. E soprattutto il grande e contraddittorio conflitto con l'Islam. Tutte caratteristiche tipiche del Medioevo. Tali condizioni storiche crearono un analfabetismo pressoché totale, che durò per molti secoli. Gli alfabetizzati erano una percentuale

inconsistente, vivevano nei monasteri e più che altro la loro opera s'incentrava sulla copiatura della tradizione, negli scriptoria, il luogo adibito al lavoro degli amanuensi.

In una situazione del genere è facile comprendere come la distribuzione del libro e della conoscenza si fosse atrofizzata entro strutture chiuse e controllate direttamente dalla Chiesa. L'unidirezionalità impartita alla conoscenza ebbe un effetto censoreo che variava a seconda del periodo e della geografia politica del potere temporale. Ma nel complesso, nel Medioevo, la trasmissione della conoscenza umana si mosse all'interno di un'unica grande visione del mondo: quella cristiana dei Padri e dei Dottori della Chiesa. Nel Rinascimento la situazione mutò in favore di una maggiore apertura del sapere. Lentamente e secondo il particolare contesto politico, sorsero centri laici di Produzione libraria: in Italia ad esempio nacquero i cosiddetti cartolai laici, centri di produzione gestiti da personale non clericale. Centri universitari come Oxford, Parigi, Padova e Bologna aprirono le porte a studiosi laici, vi fu un rifiorire di studi, grazie anche alle preziose opere antiche provenienti dalle biblioteche del vicino Oriente. Un esempio tipico fu la riscoperta dell'opera di Platone, pressoché sconosciuta a tuta la cultura medievale. L'opera di traduzione dal greco (lingua divenuta quasi sconosciuta) al latino fu commissionata da Cosimo de' Medici a Marsilio Ficino, tra il 1450 e il 1500. Per tutto il Rinascimento la produzione libraria aumentò quantitativamente, specialmente per quanto riguarda le opere originali. Tuttavia non bisogna fare l'errore di sovradimensionare i fatti rinascimentali, se è vero e accertato che la produzione libraria manoscritta aumentò, essa rimase comunque sempre all'interno della cultura amanuense, il cui più grosso limite era costituito da questi fattori: la difficile reperibilità dei testi la non controllabilità dei contenuti l'alto grado di deterioramento dei materiali

Immaginatevi un uomo rinascimentale, un uomo dotto che ha studiato all'università. Che cosa potrebbe conoscere quest'uomo? Qual è il tipo di sapere che possiede ? In altre parole: dove ha potuto reperire le informazioni scritte del proprio bagaglio culturale ? La risposta è unica: nella biblioteca della propria università e da nessuna altra parte. La cultura chirografica fonda la propria tipicità su di un bene raro e accessibile a pochi: il manoscritto. Un bene raro di cui non è possibile controllarne l'esattezza, gli errori, le omissioni, le idiosincrasie a cui, per forza di cose, è soggetto. Come fa a sapere quest'uomo che il libro letto nella biblioteca dell'università di Bologna riporti le medesime informazioni, dell'apparente simile libro in giacenza nella biblioteca di Parigi o in quella di Oxford o in altri luoghi ? Non lo può sapere, perché in una cultura chirografica non esiste un controllo centrale delle informazioni e contemporaneamente si affida ad una tecnica di produzione, la copiatura, soggetta per definizione a innumerevoli problemi di esattezza e precisione. L'avvento della stampa cambiò radicalmente le condizioni della produzione e della distribuzione del libro, ovvero della trasmissione delle informazioni e dei modi dell'apprendimento.

Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Antonio Chirivì
Page 9: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 9 -

L'AVVENTO DELLA STAMPA A CARATTERI MOBILI

Intorno al 1450, a Magonza, nelle officine Gutemberg, avvenne per la prima volta nella storia dell'Occidente quel cambiamento che, secondo l'ipotesi che stiamo seguendo, contribuì a condurre l'Europa verso l'epoca Moderna. Stiamo parlando di una delle principali tecnologie della storia occidentale: la stampa a caratteri mobili, denominata all’epoca della sua invenzione: ars artificialiter scribendi, l’arte di scrivere artificialmente. Vediamo innanzitutto cos’era e in cosa consisteva, da un punto di vista pratico, quest’arte. Gli elementi della produzione dei libri sono: 1) il carattere, 2) la carta, 3) l’inchiostro, 4) il torchio, utilizzati nel seguente ordine: si fondeva del piombo dentro le cosiddette matrici, previamente preparate da esperti incisori di caratteri. Dalle matrici si ricavavano le lettere dell'alfabeto fatte appunto di caratteri di piombo a sé stanti (mobili) e combinabili all'infinito. Quindi si combinavano tali caratteri seguendo una per una le lettere del manoscritto, fino a riempire lo spazio della pagina (paginazione), si fissava successivamente dell'inchiostro sulla superficie dei caratteri e li si imprimeva con forza, tramite il torchio, sopra la superficie di un foglio di carta. Questa invenzione diede il vantaggio di poter creare innumerevoli copie identiche a partire da un'unica matrice. Un vantaggio incommensurabilmente maggiore rispetto alla copiatura. E gli effetti dell'invenzione si fecero sentire immediatamente, almeno per quel che riguarda la mera produzione di testi. Il primo libro della storia ad essere stampato con caratteri mobili fu la Bibbia, la celebre B42, dove 42 sta per il numero di righe stampate per ciascuna pagina. Vedremo brevemente l'interessante storia della nascita e della crescita delle stamperie in Europa, dalle tecniche di produzione, alla nascita dei principali caratteri tipografici, dai problemi degli stili, alle dinamiche di vendita e commercializzazione dei libri. E poi ci concentreremo sulle implicazioni che l'invenzione ebbe sul piano della crescita conoscitiva e delle trasformazioni che questa ebbe sull'evoluzione culturale.

Ars Artificialiter Scribendi

(Braida, 2000) Dal suo esordio, nelle officine Gutemberg, la stampa si diffuse in breve tempo in tutta Europa, non senza causare diffidenza e innescare pregiudizi, scribi, miniaturisti e cartolai videro nel nuovo modo di produzione del libro una minaccia per il loro futuro. Mentre i copisti che si

Lo studio delle lettere è debitore di una energica fonte di luce a quella nuova specie di librai, spuntati fuori dalla Germania come da un cavallo di Troia per poi diffondersi in ogni angolo del mondo civilizzato. Si racconta un po’ ovunque che proprio nei dintorni di Magonza viveva quel Johann detto Gutemberg, il quale inventò per primo l’arte della stampa, grazie alla quale, senza uso né di calamo, né di penna, ma per mezzo di semplici caratteri metallici, i libri sono fabbricati in modo rapido, corretto ed elegante. L’invenzione di Gutemberg ci ha dato dei caratteri per mezzo dei quali tutto ciò che pensiamo o diciamo può essere immediatamente scritto, riscritto e tramandato alla posterità.

Guillaume Fichet, 1471

Page 10: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 10 -

adeguarono alla nuova tecnologia, in effetti furono relativamente pochi. Tuttavia nonostante le comprensibili diffidenze, nel corso di un decennio la stampa guadagnò terreno e, dalla città renana che l’aveva vista nascere, si estese con uno sviluppo senza sosta. Fino ai primi anni del ‘500, cioè nell’età degli incunaboli (si chiama così il periodo che va dal 1450 al 1500), la stampa si diffuse molto rapidamente soprattutto in Germania e in Italia. Le stime più recenti hanno calcolato che nel 1450 esistevano in Europa tra i 200 e i 300 mila codici manoscritti trasmessi da un secolo all’altro, e che nel 1500, a soli cinquant’anni dall’invenzione di Gutemberg erano già stati messi in circolazione tra i dieci e i venti milioni di esemplari di libri stampati. Il primato della produzione degli incunaboli, complessivamente stimata tra le 27.000 e le 35.000 edizioni con una tiratura media variante tra le 250 e le 500 copie, secondo dati recenti spetterebbe all’Italia, da cui proverrebbe circa il 40% della produzione totale. Seguono la Germania con il 31%, la Francia con il 16% e poi via via tutti gli altri maggiori paesi europei. Se la diffusione delle tipografie si estese a macchia d’olio nel corso di pochi decenni, ciò non portò con sé la fine della produzione dei libri manoscritti. Almeno non da subito. I due sistemi produttivi convissero per qualche decennio, sia perché alcune professioni legate al mondo del manoscritto, in modo particolare quella dei miniaturisti, rubricatori e cartolai, furono coinvolte nel processo produttivo e di distribuzione del libro a stampa, sia perché la produzione libraria a mano continuò per tutto il ‘400 e per buona parte del ‘500 sotto varie forme. Il codice di lusso di tipo letterario ad esempio, commissionato il più delle volte dall’autore stesso a grandi maestri di scrittura, rappresentava un esemplare unico dedicato e offerto in dono a un importante signore (che spesso ne finanziava e sponsorizzava il lavoro), il quale sovente anticipava di poco la prima edizione a stampa dell’opera. Il periodo degli incunabili – 1450-1500 La progressiva sostituzione del rotolo (volumen) con il codex, avvenuto tra il II e il IV secolo d.C., aveva trasformato notevolmente la struttura del libro, non così avvenne invece con l’avvento della tecnologia gutemberghiana, la stampa infatti non creò un prodotto dalla forma nuova: il libro continuava ad avere la struttura del codex, anche se era il frutto di una tecnica completamente diversa da quella utilizzata dai copisti. Dai codici manoscritti la stampa riprendeva sia le caratteristiche di organizzazione del testo e delle immagini sia le caratteristiche materiali. Nel 1457 venne introdotto il primo colophon in un libro a stampa: l’indicazione cioè, posta alla fine del testo, della data di pubblicazione, del luogo e del nome dello stampatore. Ma naturalmente ciò non significa che dal quel momento in poi tutti gli stampatori seguissero questa pratica, anzi molti di loro per alcuni anni continuarono a omettere il luogo e l’anno di stampa, un’assenza che rende difficile l’identificazione di molte edizioni. Il primo frontespizio apparve a Venezia nel 1476, ma anche in questo caso non bisogna pensare che il frontespizio fosse definito una volta per tutte. Per alcuni anni la tendenza fu quella di formulare titoli brevi e senza indicare il nome dell’autore, ma successivamente il titolo si allungò fino a divenire una sorta di riassunto dell’opera. Anche i caratteri rivelano la continuità con le scritture fino ad allora usate dai copisti, non a caso per i primi tipografi così come per i primi lettori, la bellezza dei caratteri tipografici risiedeva in primo luogo nella leggibilità, nel fatto che “sembrassero scritti con la penna” e nella corrispondenza tra il carattere usato e il tipo di testo. E se per la pubblicazione delle opere dei classici e degli umanisti i prototipografi utilizzavano il carattere romano riproducendo la littera antiqua, per le opere di argomento religioso, teologico e giuridico imitavano la scrittura gotica facendo uso di un carattere che ne riprendeva le peculiarità. Anche per quanto riguarda la scelta del formato, gli stampatori fecero riferimento ai modelli di libri manoscritti che circolavano nel XV secolo. Si trattava di una tipologia piuttosto ricca, che variava a seconda dell’ambiente culturale da cui era prodotta non solo per la scrittura, ma anche per il formato, l’impaginazione, la marginatura e l’ornamentazione. Tra i libri manoscritti tre erano i principali modelli: 1) il libro scolastico o da banco, nato in ambiente universitario tra il XII e il XIII secolo e sopravvissuto nel secolo successivo, redatto in scrittura gotica e caratterizzato dal grande formato. 2) Il libro umanistico, di formato medio, di scrittura e ornamentazione ispirate ai modelli tardo-carolini (IX sec. D.C.), nato in e per ambienti umanistici, e infine 3) il libro popolare prodotto in ambiente privato da scribi non professionisti, ma occasionali o in centri scrittori religiosi culturalmente arretrati, e contenente opere volgari

Page 11: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 11 -

di diletto, di edificazione, di carattere tecnico-professionale, per lo più su carta e di formato piccolo e piuttosto rozzo nell’ornamentazione. Si può dire che generalmente gli stampatori, almeno agli inizi, si rifecero a questi modelli facendo in modo che a ogni tipologia di testo corrispondessero precise caratteristiche materiali, in modo da non disorientare i lettori. Nel complesso anche l’impaginazione degli incunaboli è detentrice nei confronti dei manoscritti: basti pensare alla tendenza, nei grandi formati, a disporre il testo su due colonne o a inserirlo nel centro della pagina, attorniato dal commento (glossa) con un carattere più piccolo. Inoltre, come nei manoscritti, anche nei primi libri a stampa le pagine non erano numerate. In un primo tempo si diffuse l’abitudine a indicare il numero (solitamente in cifre romane) solo sul recto di ogni carta. La paginazione, cioè la numerazione di ogni lato della carta (recto e verso) si affermò lentamente, il primo libro di questo tipo fu probabilmente prodotto a Venezia, dal famoso stampatore Aldo Manuzio, solo nel 1499. I nuovi generi Se molte sono le caratteristiche comuni, è indubbio però che il nuovo sistema di produzione consentiva ciò che il mondo che ruotava attorno al manoscritto non poteva permettere, e cioè la produzione, in tempo incomparabilmente più breve rispetto alla produzione manoscritta, di copie identiche di uno stesso testo, a un prezzo di gran lunga più basso. [inserire citazione] E proprio questi due elementi, la riproduzione simultanea di un gran numero di copie e la diminuzione del prezzo del libro, sono quelli su cui anche i contemporanei insistevano maggiormente, sottolineando che “adesso i libri dei classici, in altri tempi acquistabili a stento con cento monete d’oro, oggi si ottengono con venti e anche meno, per di più ben confezionati e non ricolmi di errori”. Ma quali furono i libri che i primi tipografi pubblicarono nei primi cinquant’anni di stampa? Nel complesso si distinguono tre tipi di opere, che corrispondono in larga misura, almeno nei primi decenni, alla tipologia del libro manoscritto di cui si è parlato. Il primo è caratterizzato dalla pubblicazione di Bibbie, di libri teologici, filosofici e giuridici della tradizione medievale; il secondo gruppo riguarda l’editoria umanistica, intesa sia come opere di umanisti contemporanei, sia come opere di autori classici risuscitati dagli umanisti stessi. Il terzo è rappresentato da libri di larga circolazione, di contenuto letterario, religioso e scolastico. Il primo tipo rappresenta di gran lunga la porzione maggiore dell’intera produzione libraria, con il 77% del totale delle edizioni prodotte tra il 1450 e il 1500. Economia e mercato del libro stampato. Nascita delle prime forme di diritto d’autore Intorno al 1470 ci fu la prima importante crisi del settore librario, una vera e propria sovrapproduzione, soprattutto di edizioni di classici latini, che il mercato non era più in grado di assorbire. Si assistette al fallimento di numerosi editori e molte difficoltà incontrarono anche gli stampatori di Venezia (il centro di produzione libraria più importante in Italia e tra i maggiori d’Europa), che nel 1473 registrarono una diminuzione della produzione del 65%. Gli stampatori si resero conto che il mercato non era più in grado di assorbire l’immensa quantità di testi classici che ogni anno uscivano dai loro torchi: occorreva indirizzarsi su altri generi, e se alcuni puntarono sulla specializzazione in libri giuridici, liturgici e teologici, altri si rivolsero alla pubblicazione di opere in volgare per un pubblico socialmente elevato, con una certa dimestichezza con la cultura scritta, ma non così familiarizzato con il latino: come ad esempio la piccola nobiltà di campagna, il basso clero, gli artigiani, i mercanti e i negozianti. Gli stampatori tedeschi seppero sfruttare per primi le potenzialità di questo tipo di libro, puntando anche sulle illustrazioni, che potevano più ancora del testo, contribuire al successo delle edizioni. Tra la fine del ‘400 e l’inizio del ‘500 il mercato del libro a stampa si era ormai consolidato, con un’organizzazione che prevedeva spesso la collaborazione tra stampatori di città diverse per vincere la concorrenza dei colleghi della propria città, o come nel caso della Spagna, per Fronteggiare i grandi mercanti stranieri operanti nel paese. Anche le competenze e i mestieri legati al mondo della stampa progredirono, e i libro cominciò ad assumere un aspetto materiale e un’organizzazione delle informazioni bibliografiche più stabili, consolidando anche alcune caratteristiche di disposizione del testo e delle illustrazioni che gli davano una

Page 12: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 12 -

fisionomia propria, che poco aveva ormai a che fare con i modelli manoscritti. Le informazioni del frontespizio individuavano tre ruoli quasi sempre distinti: quello dell’autore, quello del dedicatario de libro e quello del libraio o dello stampatore, conferendo loro un’evidenza grafica e pubblicitaria quasi sconosciute nel mondo di produzione del manoscritto. In effetti in molte edizioni tra la fine del ‘400 e l’inizio del ‘500 si può cogliere, attraverso la la stabilizzazione del frontespizio, una crescente evidenza del nome dell’autore, non più relegato nel colophon o nascosto tra le righe della lettera dedicatoria, ma messo in risalto sin dalla prima pagina del libro. E a contendersi lo spazio del frontespizio non c’è solo l’autore e il mecenate, ma anche il libraio e lo stampatore che gradualmente si fanno riconoscere attraverso il loro nome e la loro marca. Anzi il sempre più importante ruolo dello stampatore e del libraio-editore e la tendenza a ripubblicare opere di successo senza chiedere il permesso agli autori, provocarono, fin dall’inizio del ‘500, la reazione di alcuni di loro, rivelando una tensione ricorrente nel mondo dell’editoria, almeno fino al riconoscimento del diritto d’autore a partire dal XVIII secolo. A Parigi nel 1504 un autore (Andrè de la Vigne) intentò una causa contro un libraio per aver pubblicato, senza il suo consenso. Il tribunale di Parigi gli diede ragione conferendo all’autore il controllo sulla stampa e la distribuzione della sua opera per un anno. Il rischio di vedere circolare una contraffazione a poco tempo dalla princeps (la prima edizione) era piuttosto elevato se autori e stampatori cercarono con differenti mezzi di proteggere le loro pubblicazioni. Non a caso sin dal XV secolo essi ricorsero un po’ ovunque in Europa alla patente di privilegio, altrimenti detta privativa, ovvero a una sorta di monopolio commerciale che consentiva all’autore o allo stampatore il diritto esclusivo di stampa e di vendita di un nuovo libro per un periodo di tempo determinato dalla patente stessa. Anche gli stampatori veneziani facevano ampiamente ricorso alle privative. In molti casi si trattava di libri destinati all’uso scolastico e universitario, per molti dei quali si rilasciavano privative per lunghi periodi di tempo, anche fimo a dieci anni. Solitamente colui che aveva il diritto di rilasciare patenti di privilegio o privative era il sovrano in persona. Sin dalla fine del ‘400 il Papa aveva rilasciato, oltre ai normali privilegi di stampa validi solo nell’ambito territoriale del suo Stato, anche privilegi “universali”, usando la doppia chiave temporale e spirituale (il simbolo del Vaticano) dal momento che questi, almeno teoricamente, avrebbero dovuto valere non solo sul territorio del suo Stato ecclesiastico, ma ovunque sulla base della giurisdizione spirituale. Un altro caso celebre fu quello di Ludovico Ariosto, che per proteggere il suo Orlando Furioso (1516) da qualunque edizione pirata si assicurò un privilegio dal Papa Leone X, uno dal re di Francia e uno dalla Repubblica di Venezia. Se si fosse limitato ad uno solo di questi Stati, sarebbe stato poco garantito dall’ampio numero di concorrenti dei paesi limitrofi. Se nei primi anni decenni di stampa, fino alla fine del ‘400, il ricorso alla privativa appare relativamente scarso, nel corso del ‘500. di fronte alla sempre maggiore competitività tra uno stampatore e l’altro, essa diventerà una pratica di ampio utilizzo, non soltanto da parte di autori famosi e grandi stampatori, ma anche da parte di autori alle prime armi e di piccoli librai-editori.

Trasformazioni culturali a partire dall'epoca della stampa

La Eisestein nel suo libro pone in diretta conseguenza l'invenzione di Gutemberg con la nascita della scienza moderna (nel suo testo analizza anche gli effetti sulla religione cristiana, come la rapidissima espansione del protestantesimo). L'autrice nordamericana è impegnata in realtà su due fronti, da un lato evidenzia i punti di causa-effetto tra stampa e scienza moderna, che suffraghino le proprie tesi, dall'altro pone l'accento sull'inspiegabile, a suo dire, cecità degli studiosi e degli storici, che non si sono accorti di tale relazione. E' vero che la nascita dell'epoca moderna non può spiegarsi solo con la semplice invenzione della stampa, ma è pur vero che questa ha avuto in qualche modo delle influenze su quest'epoca. Nostro compito è quello di seguire queste influenze e cercare di comprenderne la portata storica. L'epoca della stampa nasce in un momento di grandi cambiamenti sociali e politici. Il tessuto socio-politico medievale stava tramontando in tutta Europa. Le nuove scoperte geografiche diedero impulso al commercio, allo scambio di merci, nacquero le grandi compagnie di navigazione, la nuova visione rinascimentale dell'uomo, svincolato in parte dal peso della

Page 13: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 13 -

tradizione, s'impose come nuovo modello. Fiorirono nuovi stili di vita, in parte promossi dalla rinascita della arti come la poesia, la pittura, la scultura e l'architettura. Fu tutto un mondo di cose che cambiò e la stampa fu uno dei centri di questo cambiamento. Vi riporto qui sotto le parole della Eisestein su di un fatto abbastanza emblematico di questa trasformazione: (Elisabeth Eisestein, Le rivoluzioni del libro, op.cit. pag. 141) "Dopo aver analizzato la controversia sulla collocazione del Paradiso, che i contemporanei situavano in luoghi tanto diversi come la Siria o il Polo Artico, lo stampatore cinquecentesco di carte geografiche Ortelio stabilì che non poteva essere un problema dei geografi: <Per Paradiso, credo, si debba intendere la vita beata>". Questo passo di per sé poco importante, se paragonato ai grandi cambiamenti di questo periodo, diventa però emblematico alla luce della direzione presa dal cambiamento. Con la nascita vera e propria della distribuzione controllata delle informazioni e dalle conoscenze, si viene a formare una classe di "uomini di lettere" trasversale rispetto ai vecchi campi del sapere (trivio e quadrivio) e rispetto alla religione. Nasce lentamente la cultura laica, che nei secoli successivi portò dapprima alla Riforma protestante (1500) e alla nascita della scienza moderna (1600) e alla definitiva separazione tra mondo religioso e mondo laico (1700-1900). Naturalmente tutto ciò non avvenne solo grazie alla stampa, ma tutto ciò avvenne attraverso la stampa. Questo è innegabile. La stampa in quanto mezzo di trasmissione delle informazioni ebbe un ruolo importante. Quando avviene un cambiamento del tipo descritto più volte (Nodo) occorre sempre valutare bene e comprendere a fondo le condizioni precedenti, su cui il cambiamento si innesta.

Il "grande libro della natura"

Per comprendere l'enorme apporto della scienza moderna, concentreremo la nostra attenzione sull'asse principale del cambiamento, quel campo di studi cioè che, da Aristotele in poi fu chiamato Fisica. In particolare, ci concentreremo sul ramo della fisica denominato cosmologia o astronomia. Questo asse nasce con gli studi di Aristotele, passa per Tolomeo, approdando agli albori della scienza moderna agli studi di Copernico, per poi definitivamente consolidarsi con Keplero, Galilei e Newton. Su quest'asse, o percorso, la visione del rapporto tra l'uomo il proprio universo è molto mutata: dalla concezione aristotelico-tolemaica, che poneva la Terra al centro del cosmo [geocentrismo], si è passati alla concezione copernicana dell'universo, con il sole al centro e la Terra come satellite [eliocentrismo]. Ovvero dall'uomo come centro dell'universo all'uomo come puntino infinitesimale nell'infinito spazio siderale. Un cambiamento molto radicale. La Scienza moderna si differenzia, rispetto alla scienza rinascimentale, secondo 2 tipicità principali: la migliore fruizione di dati e la verifica empirica per la determinazione della verità. Con migliore fruizione di dati si intende sostanzialmente la disponibilità di maggiori quantità di informazioni e di una migliore qualità. Aspetti questi, conseguenti alla nascita della cultura tipografica. Ciò che la Eisestein ha messo in chiara evidenza nei suoi studi è la diretta connessione tra la tipicità della cultura tipografica (migliore fruizione di dati) e la nascita della scienza moderna: (Elisabeth Eisestein, Le rivoluzioni del libro, op.cit. pag. 201) "[…] ritengo che l'avvento della stampa dovrebbe essere messo in maggiore evidenza dagli storici della scienza quando preparano la scena del crollo dell'astronomia tolemaica, dell'anatomia galenica o della fisica aristotelica."

Stampa, scienza e network

La conoscenza è qualcosa che per progredire ha bisogno di un network. Ovvero deve essere condivisa tra gli uomini, altrimenti non produce alcun effetto duraturo. Come poteva avvenire la riproduzione di quelle grandi quantità di informazioni qualitativamente rilevanti (cioè prive di una gestione degli errori) nella cultura chirografica? Semplicemente non poteva avvenire. Le scienze di osservazione, che hanno come particolarità la registrazione su supporti fissi di grandi masse di informazioni, furono in tutte le età degli amanuensi continuamente danneggiate dalle bassissime capacità di riproduzione delle informazioni.

Page 14: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 14 -

Se una scoperta di qualsivoglia natura non è condivisa con un numero rilevante di uomini, tale scoperta resterà in latenza senza possibilità di apportare alcun contributo. Se la particolare natura della scoperta si deve avvalere del supporto della scrittura per la registrazione dei dati, finché tale supporto sarà di tipo chirografico, la scoperta non potrà contare né su una quantità sufficiente di dati, né su di una qualità sufficiente. L'elevato numero di copie di informazioni, relative a una medesima scoperta, e la distribuzione di queste copie ad un pubblico numeroso ha creato il network di conoscenze condivise, necessario alla formazione della scienza moderna. Il fatto che scienziati di diversi paesi, assolutamente sconosciuti gli uni agli altri, potessero fruire con maggiore facilità le reciproche ricerche controllate all'origine, fu un fattore decisivo per l'avvento delle moderne scienze. Oggi così si presenta la scienza, o meglio l’immenso apparato burocratico-scientifico che in parte “governa” la nostra vita. Oggi la forza scientifica espressa da Università, centri di ricerca, e industria, con il continuo scambio di dati e informazioni, rappresenta un Network perfettamente funzionante e integrato nel tessuto sociale e politico di ogni paese Occidentale. Oggi la scienza progredisce perché c’è un continuo e instancabile scambio, ogni lavoro viene messo a disposizione della comunità scientifica internazionale (sempre più tuttavia per soli scopi di lucro), di modo che la scoperta della singola cellula sia messa in condivisione con tutto il tessuto, e così via, in ogni campo o settore. Ciò è potuto accadere soprattutto grazie alla stampa, che, meglio di tutti gli altri mezzi di produzione e divulgazione, ha saputo essere uno strumento aggregante, un mezzo che avvicinava le menti aiutandole così nel difficile compito dell’indagare i fenomeni naturali.

Page 15: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 15 -

NASCITA E AFFERMAZIONE DELLE SCIENZE MODERNE

"Il XXVII secolo è il periodo in cui sorge e si afferma quel complesso di conoscenze scientifiche che si è soliti designare con il termine scienza moderna. Tale espressione pone già di per sé nella massima evidenza il fatto che in questo periodo la scienza ha acquistato una dimensione nuova, qualitativamente differente, cioè quella dimensione di scienza dimostrativa, che non si era riscontrata in forma esauriente prima, nell’era antica e medievale, e che poi non è stata più abbandonata. Non c'è una vera e propria frattura tra le indagini razionali sulla realtà che si erano svolte fin dall'età greca classica in cui era acquistata tale prospettiva, e quelle che si svolgeranno dal '600 in poi. E' però vero anche che le ricerche scientifiche effettuate nel corso del XVII secolo esercitarono un'azione di rottura profonda: in tutte le discipline di fondo (dalla astronomia alla matematica, dalla meccanica alla biologia) si ebbero svolte radicali che costituiscono gli elementi di un generale e sostanziale processo di rinnovamento". [L. Geymonat; Storia del pensiero filosofico e scientifico, Vol II, pag 409]

La scienza dalla Grecia classica al Rinascimento

Quando si parla di scienza greca, come abbiamo fatto più volte nel nostro percorso, occorre fare molti distinguo, in quanto appare chiaro oggi che la scienza rappresenti qualcosa di differente in termini di complessità, importanza, valore sociale e applicazioni concrete (tecnologia) rispetto a ciò che era nell’antichità. Tuttavia, al di là delle notevoli differenze e di tutte le distinzioni qualitative e quantitative, vi è qualcosa che indubbiamente collega le fondamenta della scienza attuale alla filosofia greca. Quando si parla di nascita della scienza, soprattutto riferendosi alle opere di alcuni filosofi (Pitagora, Parmenide, Platone, Aristotele), si intende definire l’atto di nascita di quella particolare attitudine intellettuale che ha portato la cultura greca a interrogarsi circa la natura degli aspetti fondamentali dell’esistenza umana e dei fenomeni naturali, e a fornire dei principi per ottenere delle risposte. Questa attitudine si radicò nello spirito del popolo greco innescando un lungo e proficuo dibattito filosofico durato 400 anni e poi spostatosi ad Alessandria e successivamente a Roma, durante i quali si gettarono le basi teoriche dell’indagine scientifica. La scienza greca fu essenzialmente speculativa, teorica e tassonomica, e questo significa che i greci si preoccupavano di più a interpretare i fenomeni sulla base di Principi posti a priori, piuttosto che, come invece avviene oggi, interpretare i fenomeni sulla base dei dati ricavati dall’esperienza. Dice Ludovico Geymonat, filosofo della scienza : “Era una concezione generale in cui la realtà viene indagata e studiata a livello della percezione, viene cioè sistemata e inquadrata entro schemi che tendono a tradurla, così com'è, nella forma astratta della concettualizzazione. Il processo di traduzione coincide con quello dell'astrazione, per il quale, dal flusso continuo delle percezioni sensoriali, si derivano quelle caratteristiche essenziali o forme concettuali che determinano le qualità sensibili: queste forme vengono sistemate in un complesso gerarchico e costituiscono la base per un'organizzazione scientifica della realtà, di carattere definitorio e classificatorio.” La scienza greca fu quindi di un tipo particolare, molto più teorica che pratica, più vicina all’ideale di perfezione della matematica che non alla parzialità e imperfezione della ricerca empirica. Aristotele stesso, considerato il padre fondatore del metodo scientifico antico, mai assunse come rilevante ai fini della scienza la prova empirica, per lui tutto doveva essere spiegato partendo dai principi primi capaci di comprendere e determinare i fenomeni terreni. Fu quindi grazie all’introduzione della prova sperimentale, della verifica empirica a segnare il solco tra le due scienze. Nel Rinascimento gli scienziati cominciarono ad avvicinarsi ai fenomeni della natura con uno spirito critico diverso, medici, ingegneri e naturalisti non si accontentavano più di basare la propria conoscenza su principi a priori e su teorie più preoccupate a conformarsi ai dettami religiosi, che non a spiegare i fenomeni per come si verificavano. Per tutto il medioevo fu la religione di ispirazione aristotelica a imporre dall’alto le regole della scienza, regole che dovevano, in modo imprescindibile dai fenomeni, accordarsi con i precetti della Chiesa e mai contraddire le Sacre Scritture. In questo stato di cose, se la Luna veniva considerata imago verginae, immagine della Vergine, perché così veniva descritta nelle Sacre Scritture, a nessuno scienziato poteva essere concesso di mettere in dubbio tale

Page 16: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 16 -

asserzione. E se il corpo umano era considerato dalla Chiesa qualcosa di sacro e inviolabile, perché fatto a immagine e somiglianza di dio, a nessun medico era permesso di intraprendere studi di anatomia interna per studiare la struttura fisiologica umana. Molti dottori vennero processati e accusati di pratiche proibite, solo perché osavano introdursi all’interno del corpo umano, analizzandone la conformazione. La lotta della scienza moderna fu la lotta per strappare dall’egemonia religiosa quei campi dell’esperienza umana che non potevano essere spiegati se non con un’accurata indagine fisica e sperimentale. In questo senso grandi personalità quali Francis Bacon in Inghilterra e Giordano Bruno e Galileo Galilei in Italia, avviarono la lotta per la fondazione della nuova scienza che spianò il campo alle future generazioni di scienziati e filosofi. Ma se oltre Manica il clima religioso e politico era più accondiscendente e meno intrusivo, in Italia il radicalismo religioso (accentuato anche dalle tensioni provocate dalla Riforma Protestante) portò alla condanna a morte di Giordano Bruno e alla costrizione al silenzio scientifico di Galileo Galilei, che per primo si rapportò alla Natura per interrogarla direttamente con il procedimento matematico, creando un solco con il metodo precedente che al contrario interpretava la Natura secondo i principi del verbo religioso. Tuttavia furono i grandi risultati pratici e teorici, la scoperta di teorie capaci di spiegare i fenomeni su basi più convincenti, e soprattutto l’impiego di un potente apparato tecnologico (tra cui la stampa) a far vincere la guerra della scienza moderna contro la tradizione religiosa cristiana. Ma ci volle molto tempo, ancora nella seconda metà dell’800 papa Pio IX mise all’indice un libro per tanti aspetti rivoluzionario quale L’evoluzione delle specie di C. Darwin, e soltanto qualche anno fa papa Giovanni Paolo II ha chiesto ufficialmente scusa a nome della Chiesa Romana per la condanna a Galileo Galilei. Un ritardo di circa 380 anni ! Segni questi di una lotta che fu molto dura e non ancora completamente risolta.

Francesco Bacone e il nuovo ideale di scienza

Francesco Bacone (Francis Bacon, 1561-1626) raggiunse la fama come filosofo, politico e saggista inglese. Formatosi con studi di legge e giurisprudenza, divenne un sostenitore e strenuo difensore della rivoluzione scientifica senza essere uno scienziato. Nei suoi scritti filosofici si dipana una complessa metodologia scientifica, spesso indicata con il suo nome (metodo baconiano). Sir Francis Bacon ha incentrato la sua riflessione nella ricerca di un metodo di conoscenza della natura che possiamo definire scientifico, nel senso che vuole essere ripetibile, parte dall'osservazione della natura e come la scienza è volto al suo dominio per ricavarne applicazioni utili per il genere umano come erano quelle dell'età industriale. Riprendendo le idee dei pensatori del '400 italiano (fra i quali Leonardo da Vinci), Francis Bacon teorizza che l'osservazione della natura deve essere praticata compilando una "tabula presentiae" e una "tabula absentiae" in cui si mettono per iscritto i dati di temperatura, oggetti anche nel dettaglio di sostanze chimiche e altri fattori ambientali presenti e assenti in un dato momento in cui si è ottenuto un fenomeno di cui si cerca di scoprire i fattori favorevoli e poi la causa determinante. Se il fenomeno si manifesta sia in presenza che in assenza di un dato fattore presunto, allora il fattore che è rilevato nel contesto è ininfluente. Se il fenomeno muta d'intensità, in presenza del fattore, ma si manifesta anche in sua assenza, ciò significa che il fattore condiziona il fenomeno ma non ne è ancora la causa. L'obiettivo dell'analisi è trovare quel fattore la cui presenza è condizione necessaria (anche se non sufficiente) del fenomeno stesso, almeno questo è quanto si direbbe oggi. Senza conoscere una causa sufficiente non si potrà riprodurre il fenomeno e nemmeno conoscerlo: un attributo se sarà presente in un oggetto, non necessariamente diventerà visibile e conoscibile, stimolato l'oggetto con la causa necessaria di quell'attributo; altrimenti se non si manifesta, ciò non vorrà dire che l'oggetto non possiede tale attributo. Con una causa sufficiente (anche se non necessaria) si può replicare il fenomeno e se non si manifesta nell'oggetto stimolato da quella causa escluderne la possibilità in quel caso. Bacone passò la vita a cercare un esperimento che chiamò istanza cruciale, tale da interrogare la natura in modo da costringerla a risponderci sì o no, come dicevano i naturalisti italiani. Il suo metodo anticipa quello galileiano che dimostrerà come occorra un approccio quantitativo con equazioni e misure per trovare delle condizioni necessarie e/o sufficienti per conoscere i fenomeni e replicare quelli a noi più utili (e non soltanto qualitativo con tabule presentiae ed

Page 17: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 17 -

absentiae, ancora oggi utilizzate negli esperimenti dove è importante indicare le condizioni ambientali in cui avviene la misura). Il Nuovo Organo: la pars destruens Bacone è stato il profeta della scienza moderna, ma non uno scienziato vero e proprio. Nei riguardi della moderna scienza della natura, che allora stava nascendo, Bacone è stato paragonato a un trombettiere, il quale dà il segnale d’attacco nella battaglia, però egli stesso non vi partecipa. Anche Bacone volle proporre un nuovo metodo per effettuare scoperte scientifiche, che però non è stato adottato dai fisici. Egli offrì ai cultori della scienza un nuovo "strumento" di lavoro che doveva sostituire l’Organon di Aristotele (si ricordi che in greco "òrganon" significa appunto "strumento"). A tal fine, Bacone compose la sua opera principale, il cui titolo è già, di per se stesso, molto significativo: Novum Organum (1620). Quest’opera, dunque, voleva essere il nuovo strumento di una radicale riforma del sapere umano (instauratio magna scientiarum). Il nuovo metodo proposto da Bacone non doveva essere né esclusivamente osservativo, né esclusivamente ragionativo. Doveva fondere, invece, osservazione e ragionamento. Per Bacone, lo scienziato non deve affidarsi solo all’esperienza, limitandosi a registrare dati e fatti come le formiche, che non fanno altro che accumulare provviste nei loro nidi (con questa similitudine, Bacone si riferisce ai tecnici, ai maghi e agli alchimisti del Rinascimento). Ma lo scienziato non deve nemmeno affidarsi solo alla ragione, derivando le proprie dottrine solamente da elucubrazioni del proprio intelletto, cioè derivandole solo da princìpi astratti, senza tener conto dell’esperienza, nel modo in cui i ragni traggono tutto il materiale delle loro tele dal proprio corpo (con questa similitudine, Bacone si riferisce agli scolastici medievali e agli aristotelici). Il nuovo scienziato, invece, deve trarre dati e fatti dall’esperienza, ma, nello stesso tempo, deve procedere a una loro rielaborazione concettuale, frutto della sua intelligenza. Lo scienziato deve comportarsi, quindi, come le api, le quali traggono il polline da tutti i fiori che incontrano, ma poi procedono a rielaborarlo nel loro corpo, per produrre qualcosa di nuovo, e cioè la cera e il miele. (Questa similitudine si trova già in Seneca nelle Lettere a Lucilio, LXXXIV). Il Novum Organum, cioè il nuovo metodo della scienza, consta di due momenti: uno negativo, critico e distruttivo (pars destruens), e uno positivo e costruttivo, volto a indicare la via da percorrere (pars construens o pars aedificans). Il primo momento (la pars destruens) è volto a eliminare i pregiudizi che opprimono la mente degli uomini ed impediscono loro di far progredire la scienza. Bacone chiama questi pregiudizi "idoli" (idòla), cioè "false immagini" della realtà, e li distingue in quattro classi. Abbiamo innanzi tutto gli idoli della tribù (idòla tribus), o della razza umana. Sono pregiudizi che appartengono all’uomo in generale, cioè pregiudizi a cui sottostanno tutti gli uomini. Per es., sono idoli della tribù la tendenza a considerare l’universo a nostra immagine e somiglianza, accettando il pampsichismo (cioè la tesi di una natura animata, antropomorfica), oppure la tendenza a ritenere il mondo più semplice di quanto in effetti non sia, immaginando che la grandezza reale degli astri sia uguale a quella che si manifesta ai sensi. Si hanno poi gli idoli della spelonca (o idòla specus), con un chiaro riferimento al mito platonico della caverna. Sono i pregiudizi di carattere individuale, quelli, cioè, che appartengono a Tizio, Caio e Sempronio. Ciascuno di noi è chiuso nella spelonca della propria individualità, ossia delle proprie inclinazioni naturali, della propria educazione, della propria mentalità, della propria cultura e preparazione scientifica. Questa "spelonca" della nostra individualità ci porta spesso a deformare e a falsare la verità delle cose. Ogni uomo ha le sue propensioni per gli antichi o per i moderni, per il vecchio o per il nuovo, per ciò che è semplice o per ciò che è complesso, ecc., e tutte queste propensioni sono fonti di idoli della spelonca. Vengono poi gli idoli della piazza (idòla fori), che sono i pregiudizi che derivano alla nostra mente dal contatto coi nostri simili e particolarmente dagli equivoci del linguaggio degli uomini (derivano dalle conversazioni che si svolgono, appunto, sulla piazza). In virtù di questi equivoci, si danno nomi a cose che non esistono (di questa specie sono i nomi di fortuna, caso, primo mobile, ecc.), oppure si intendono cose diverse per gli stessi termini (di questa specie sono i nomi di libertà, schiavitù, ecc.). Ci sono infine gli idoli del teatro (idòla theatri), che sono i pregiudizi che derivano all’uomo dal credere in tutto e per tutto alle teorie dei pensatori precedenti, così come al teatro gli spettatori sono soliti credere alle favole che vi si rappresentano. Fra le cause che impediscono agli uomini di liberarsi dagli idoli e di procedere nell’effettiva conoscenza della natura, Bacone pone in primo luogo il rispetto per la sapienza antica. Radicale e aspra è la

Page 18: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 18 -

polemica di Bacone col passato e l’antichità. Egli critica i "lodatori del bel tempo antico", quelli che vivevano abbarbicati al passato e accettavano per vera una tesi soltanto perché "antica", ossia perché già sostenuta dagli antichi. Bacone afferma che, in realtà, "i veri antichi siamo noi", cioè che noi moderni siamo più anziani e quindi più maturi, più sapienti degli uomini che ci hanno preceduto nel tempo, perché abbiamo sulle nostre spalle non soltanto la nostra esperienza, ma anche la loro. Egli afferma quindi che "la verità è figlia del tempo, non dell’autorità". Sempre in sede di critica distruttiva, Bacone svaluta il "sillogismo" o ragionamento deduttivo, teorizzato per la prima volta da Aristotele. Il sillogismo o ragionamento deduttivo passa da leggi universali a tesi particolari (per es., passa dalla premessa universale che "tutti gli uomini sono mortali", tramite l’altra premessa che "Socrate è un uomo", alla conclusione particolare che "Socrate è mortale"). Secondo Bacone, la deduzione sillogistica è sterile, perché nella premessa universale ("tutti gli uomini sono mortali") è già contenuta la conclusione ("Socrate è mortale"). Il sillogismo, dunque, si limita a chiarire ciò che già si conosce, senza farci sapere nulla di nuovo. Al posto del sillogismo o ragionamento deduttivo, Bacone si fa sostenitore dell’induzione o ragionamento induttivo, che, al contrario della deduzione, parte da fatti particolari per arrivare a tesi o leggi universali. Il Nuovo Organo: la pars construens Nella pars construens del Novum Organum, Bacone cerca di dare una teorizzazione del ragionamento induttivo, più esatta di quella già accennata da Aristotele. Infatti, l’induzione aristotelica, o induzione per enumerazione semplice, passa troppo presto dai casi particolari ai princìpi generali. Conclude, cioè, troppo precipitosamente, procedendo per semplice enumerazione. Ad es., dalle osservazioni particolari che questo cigno è bianco, che quest’altro è bianco, e che quest’altro ancora è sempre bianco, passa subito alla conclusione generale che tutti i cigni sono bianchi. Ma i dati raccolti per enumerazione semplice possono essere sempre smentiti da esempi successivi (per es., nel nostro caso, dalla constatazione futura dell’esistenza di un cigno nero). La pars construens del metodo baconiano è invece l’induzione vera, cioè non l’induzione per enumerazione semplice, ma quella per esclusione degli elementi inessenziali a un fenomeno, e per scelta di quelli essenziali. Quello che Bacone vuole scoprire con l’induzione vera è la legge dei fenomeni. Senonché questa legge è ancora concepita da Bacone aristotelicamente come "forma" (o "essenza", o "causa", o "natura") del fenomeno studiato, e non, come farà Galileo, come relazione quantitativa, di tipo matematico. In altre parole, la forma di un fenomeno (per es., del calore) è intesa, più o meno alla maniera di Aristotele, come il complesso delle qualità essenziali del fenomeno stesso, ossia come ciò che lo fa essere quello che è. Più precisamente, Bacone intende per forma il principio interno che spiega la costituzione, la struttura del fenomeno, ma che spiega anche il suo sviluppo, cioè la sua generazione e produzione. Il grave limite di Bacone consiste dunque nel fissare la sua attenzione sugli aspetti qualitativi del fenomeno studiato, mentre la scienza moderna si interessa solo dei suoi aspetti quantitativi, di quelli, cioè che, appunto perché quantitativi, possono essere espressi in una formula matematica. L’induzione vera proposta da Bacone può anche definirsi la dottrina delle tavole. Secondo Bacone, infatti, quando vogliamo studiare la natura di un certo fenomeno fisico, dobbiamo far uso di tre tavole: la tavola della presenza (tabula praesentiae), la tavola dell’assenza (tabula absentiae) e la tavola dei gradi (tabula graduum). Nella tavola della presenza sono raccolti tutti i casi positivi, cioè tutti i casi in cui il fenomeno si verifica (per es., tutti i casi in cui appare il calore, comunque prodotto, dal sole, dal fuoco, dai fulmini, per strofinamento, ecc). Nella tavola dell’assenza sono raccolti tutti i casi in cui il fenomeno non ha luogo, mentre si sarebbe creduto di trovarlo (per es. nel caso dei raggi della luna, della luce delle stelle, dei fuochi fatui, dei fuochi di Sant’Elmo, che sono fenomeni di fosforescenza marina, ecc.). Nella tavola dei gradi, infine, sono presenti i gradi in cui il fenomeno aumenta e diminuisce (ad es., si dovrà porre attenzione al variare del calore nello stesso corpo in ambienti diversi o in particolari condizioni). Dopo aver effettuato l’analisi e la comparazione dei risultati segnati nelle tre tavole, possiamo senz’altro tentare una interpretazione iniziale o "prima vendemmia"; in altre parole, le tavole consentono una prima ipotesi sulla forma cercata. Questa prima ipotesi procede per esclusione e per scelta. Lo scienziato esclude (cioè scarta) come forma del fenomeno le caratteristiche mancanti nella prima tavola, presenti nei corpi nella seconda, e che non risultano decrescenti col decrescere dell’intensità del fenomeno, o viceversa. Lo scienziato, invece, sceglie come causa del

Page 19: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 19 -

fenomeno una natura sempre presente nella prima tavola, sempre mancante nella seconda, e con variazioni correlate a quelle del fenomeno nella terza. Nel caso del calore, si può ipotizzare che la causa del fenomeno sia il movimento, non di tutto il corpo, ma delle sue parti, e piuttosto rapido. Il movimento, infatti, si trova quando il caldo è presente, manca quando il caldo è assente, aumenta o diminuisce a seconda della maggiore o minore intensità del calore. La causa del calore non può essere, invece, la luce, perché la luce è presente nella tavola dell’assenza. L’ipotesi va poi verificata con gli esperimenti. Bacone propone ben 27 tipi diversi di esperimenti e pone al culmine l’esperimento cruciale (experimentum crucis), il cui nome deriva dalle croci erette nei bivi. Quando, dopo aver vagliato le tavole, ci troviamo di fronte a due ipotesi ugualmente fondate, l’esperimento cruciale ci toglie dall’incertezza, perché dimostra vera una delle due ipotesi, e falsa l’altra. Esempi di problemi che richiedono l’esperimento cruciale sono la teoria della rotazione o meno della Terra intorno al Sole, le teorie sul peso dei corpi, ecc. Consideriamo, per es., quest’ultimo problema. Ecco il bivio: o i corpi pesanti tendono al centro della Terra per la loro stessa natura, cioè per una qualità intrinseca, come voleva Aristotele, o sono attratti dalla forza della massa terrestre. Se fosse vera la prima ipotesi, un corpo dovrebbe avere sempre lo stesso peso; invece, se fosse vera la seconda ipotesi, un corpo dovrebbe pesare di più avvicinandosi al centro della Terra, e di meno allontanandosene. Ed ecco l’esperimento cruciale: si prendano due orologi, uno con contrappesi di piombo e l’altro a molla. Si accerti che le loro lancette si muovano alla stessa velocità. Si ponga il primo in cima a un luogo altissimo, e l’altro a terra. Se è vera l’ipotesi che il peso dipende dalla forza di gravità, l’orologio piazzato in alto si muoverà più lentamente, a causa della diminuita forza di attrazione terrestre. tratto da Wikipedia, l'enciclopedia libera: http://it.wikipedia.org/wiki/Francesco_Bacone

Il meccanicismo come nuovo modello scientifico

La discussione sulla nascita della scienza moderna verte principalmente su ciò che si ritiene l'elemento dominante o la prospettiva essenziale che ha causato appunto quel profondo rivolgimento che si manifestò nel corso del XVII secolo: la risposta che si dà a tale quesito si ricollega ad una interpretazione generale delle linee di fondo dell'evoluzione del pensiero moderno. Una svolta così radicale nella storia dell'umanità non può aver luogo se non in virtù di un mutamento di ciò che di più generale v'è nell'attività della ragione umana, cioè delle prospettive filosofiche di fondo alla cui elaborazione hanno contribuito il sorgere di nuove condizioni intellettuali, sociali, economiche e civili. Il punto di riferimento più sicuro, da questo punto di vista è costituito dal meccanicismo, che può essere assunto come elemento catalizzatore di tutto il periodo, in quanto è il risultato teorico in cui sfociano tutti i fattori di rinnovamento che si sono segnalati ed è ad un tempo una concezione così generale da investire non solo tutte le discipline, scientifiche e non, ma da condizionare anche il modo stesso di pensare e di vivere di tutto un secolo. Il meccanicismo è infatti l'idea che rivendica e riafferma in modo netto e incontrovertibile, nell'indagine sulla realtà, l'autorità della ragione sull'autorità storica e pone le basi sulla moderna nozione di progresso….è la nozione teorica che permette di accogliere il tema della matematizzazione della natura (ricordatevi di Platone, Galilei e Matrix: la natura è scritta in caratteri matematici). Nel meccanicismo trova la sua più compiuta realizzazione una nuova formulazione dell'espressione scientifica, che rifiuta l'approccio alla realtà basato sulla traduzione mediante concettualizzazione, tipico dell'aristotelismo. Gli eventi e i fenomeni mondani, non vengono più quindi concettualizzati e spiegati aprioristicamente secondo una traduzione del tutto teorica dai fatti alle spiegazioni. Ma vengono spiegati ricorrendo alla simulazione, cioè alla loro scomposizione e analisi degli elementi e alla ricomposizione degli elementi. La replicabilità in laboratorio, del fenomeno analizzato, diventa così la conditio sine qua non della verità scientifica. E laddove non è possibile la replica in laboratorio (come nelle scienze astronomiche) si costruisce un modello. Da ciò ne deriva una generale messa in discussione di tutti i saperi che non trovavano un riscontro nel laboratorio dello scienziato. Le pratiche occulte, iniziatiche, magiche o alchemiche, vennero piano piano messe da parte e in fine bollate come non scientifiche. Miracoli inclusi. Simbolo della nuova scienza diventa quindi la Fisica, il campo del sapere umano che indaga i fenomeni del mondo sensibile. A mano a mano che questa scienza avanzerà, i suoi settori di indagine si ramificheranno sempre più, dando origine a quella

Page 20: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 20 -

costellazione di scienze empiriche che ordinano oggi la conoscenza ufficiale. Le verità scientifiche si sostituirono lentamente alle verità religiose: la verità intesa come rivelazione, come verità divina tramandata dai padri e dai Dottori della Chiesa venne sostituita dalla verità scientifica, fondata cioè sulla cosiddetta prova sperimentale: nihil est sine causa, nulla avviene senza una causa verificabile dagli strumenti scientifici, con il linguaggio della matematica (lingua con cui è scritta la Natura, come Galilei sosteneva). Si può affermare che la scienza moderna si formò mediante la simulazione dei fenomeni attraverso l’analisi di un modello meccanico. Il metodo scientifico della simulazione fu il modello meccanicistico, teorizzato dai grandi scienziati e filosofi del periodo, come Cartesio e Leibniz. Il principio di ragione, formulato da Leibniz, secondo cui nihil est sine causa, cioè nulla accade senza una causa, può essere preso come principio fondante della visione meccanicistica dell'universo. Isaac Newton, che trovò il modo di calcolare esattamente le orbite dei Pianeti, dimostrando definitivamente le teorie di Copernico, Keplero e Galilei erano esatte, chiamò la rivoluzione degli astri intorno al Sole Meccanica Celeste. Se l’universo non era altro che una macchina perfetta, che funzionava secondo regole precise e prevedibili, allora tutto diventava potenzialmente calcolabile e determinato. Famosa in questo senso fu la frase di Laplace, illustre fisico francese del settecento, che alla domanda di qualcuno circa l’importanza di dio nell’andamento dei fenomeni celesti, questi rispose: “dio non è un’ipotesi necessaria”, intendendo che oramai tutto il creato sarebbe stato spiegato dai calcoli della fisica. Era solo questione di tempo e di tecnologia. Con la Meccanica Celeste Newton consegnò nelle mani della cultura europea il modello più perfetto di visione del mondo che sia mai stata data da una dottrina non religiosa. Una visione del mondo e dell’uomo basata totalmente sulle leggi della fisica. [L. Geymonat; Storia del pensiero filosofico e scientifico, Vol II, 410-411 e pag 417-418]

Le basi seicentesche della scienza nova

Se il meccanicismo può essere considerato come la nuova visione dell’universo e dei fenomeni che vi accadono, le macchine costituiscono il prodotto materiale di questa visione, il suo lato produttivo. La macchina rappresenta un’estensione del potere umano sulla natura, suo compito è quello di sostituirsi al lavoro degli organi per operare più in fretta. Tutte le macchine sono essenzialmente delle protesi di qualche particolare organo umano, e ne amplificano la potenza, aumentandone la velocità e la precisione. Dal ‘600 fino ai giorni nostri la macchina si è imposta sempre più come sostituto del lavoro umano, da un lato aumentando esponenzialmente la produzione di merci e la ricchezza media degli Stati, dall’altro lato però si è posta di fatto in competizione con il lavoro “umano” esercitato da milioni di operai e contadini. ed è da questo lato negativo della medaglia che va vista l’evoluzione della macchine, se si vuol cogliere le cause di quell’atteggiamento tipico di una certa parte della società che ne ha osteggiato lo sviluppo. Manifestazioni varie che vanno dal Luddismo ottocentesco ai timori di una sopraffazione delle macchine sugli uomini tipica della letteratura e cinematografia fantascientifica del novecento, nel film Matrix gli esseri umani vengono addirittura coltivati da un software malvagio che sfrutta l’energia prodotta dal corpo per alimentarsi. Le macchine hanno prodotto la Rivoluzione Industriale, creando l’idea di progresso e quella generale accelerazione sociale e dei mezzi di comunicazione che ha portato l’Europa settecentesca e ottocentesca a estendere il proprio dominio politico e culturale su grande parte del globo. Analizzare anche brevemente la storia dell’evoluzione delle scienze moderne dal ‘600 in avanti è impresa troppo ardua, dovremo quindi scegliere un unico sentiero per seguire la storia che conduce all’avvento della cultura digitale: quello della macchina per il calcolo automatico, che già nel ‘600 trovava i suoi primi geniali precursori.

Page 21: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 21 -

LE MACCHINE DA CALCOLO

Dal ‘600 al ‘900. Gli strumenti meccanici La storia delle macchine per il calcolo automatico è la storia di un felice connubio tra teoria e prassi, ovvero tra concetti filosofico-matematici e costruzione di strumenti meccanici. Fu l’applicazione delle regole aritmetiche dello spazio geometrico ai macchinari già esistenti, a fornire la possibilità di costruire dispositivi meccanici adatti per il calcolo. Questa storia non nasce ex novo nel ‘600 europeo, è doveroso sottolinearlo, ma trova illustri prodromi in Cina ad esempio ben sei secoli prima, con l’invenzione dell’orologio ad acqua (Castells, 2002) e nell’Europa del ‘400, con l’introduzione dei primi orologi meccanici. In effetti la prima macchina da calcolo inventata fu l’orologio, cioè la macchina per il computo del tempo. La storia delle vere e proprie macchine da calcolo comincia con il filosofo, scienziato e matematico francese Blaise Pascal (1623-1662), il primo a ideare un macchinario a ingranaggi per il computo aritmetico. Lo scopo per cui progettò questa calcolatrice fu quello di aiutare il padre nel calcolo della riscossione delle tasse. Pensò che la macchina potesse essere

utile anche ad altri, la fece brevettare e ne costruì anche un certo numero di esemplari. La macchina di Pascal, presto denominata Pascalina era in grado di eseguire le quattro operazioni attraverso la rotazione di ingranaggi e, cosa innovativa, di tenere conto dei riporti e dei prestiti. Come sopra già accennato, Pascal non inventò la sua macchina dal nulla, da circa 100 anni infatti fioriva in Europa la produzione di orologi meccanici. Già nel 1600 si era creata una vera e propria arte nella costruzione di meccanismi alquanto complessi, in grado di calcolare le ore e contemporaneamente effettuare

diverse azioni preimpostate, creando al passaggio dell’ora una vera e propria rappresentazione teatrale interamente meccanizzata, con tanto di musiche e personaggi mossi da svariati ingranaggi a carica. Famose in questo periodo sono le botteghe artigiane di Praga, dove fiorì un vero e proprio settore specialistico nella ideazione e produzione di complessi orologi altamente scenografici. La storia del calcolo automatico è un percorso che abbraccia 2 strade distinte ma egualmente importanti; potremmo definire la prima strada teorica, fatta di scoperte logiche e matematiche, e un’altra strada pratica, cioè legata alla costruzione e commercializzazione dei macchinari. Noi seguiremo entrambe queste importanti strade concentrandoci sulle principali tappe di questa evoluzione.

Il sogno di Leibniz

Gottfried Wilhelm Leibniz (1646-1716), filosofo e matematico tedesco, anticipò, e forse ne determinò in parte, la nascita dell’odierna scienza informatica. Nell’opera di questo grande pensatore della modernità, si ravvisano le due principali linee evolutive che hanno poi portato alla realizzazione dei computer; Leibniz infatti lavorò sia all’impianto teorico, sia a quello pratico delle macchine da calcolo. Essendo uomo del suo tempo, Leibniz diede ai suoi studi l’ampio respiro del dibattito filosofico dell’epoca, che comprendeva la teoria della conoscenza (gnoseologia), la razionalità umana (logica), lo statuto dell’ultrasensibile (metafisica) e il rapporto con il divino (teologia). L'alfabeto dei pensieri umani Ad appena quattordici anni, Leibniz ebbe l'intuizione di poter ricercare la classificazione dei termini complessi, cioè le proposizioni, nel momento in cui essi danno luogo a un sillogismo, allo stesso modo con cui si classificano i termini semplici nei predicati che garantiscono le

La Pascalina

Page 22: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 22 -

proposizioni (2). Vale a dire che Leibniz aveva intuito che come i predicati erano necessari per esprimere le proposizioni, così vi doveva essere una forma, ancora più astratta dei predicati, che permettesse di fare i sillogismi, cioè che fosse necessaria per le deduzioni in genere (3). E meditando sulla classificazione delle proposizioni, ritenne di dover credere che tutte le proposizioni possano ridursi, per scomposizione, a un piccolo numero di proposizioni primitive e indefinibili. Così, facendo una enumerazione completa di tali proposizioni primitive (verità elementari di tutti i pensieri) che costituiscono l'ALFABETO DEI PENSIERI UMANI, e combinandole poi insieme con un procedimento combinatorio, sarebbe possibile ottenere tutte le proposizioni complesse dei pensieri, esattamente come le parole e le frasi del discorso sono le combinazioni di un piccolo numero di lettere dell'alfabeto Il modello leibniziano della logica Però, se da una parte l'ambizioso progetto di Leibniz sembra non poter essere realizzato (nonostante la fondazione di una Enciclopedia per ricercare gli elementi ultimi), dall'altra esso offre un modello valido d'intendere la logica, cioè il vero ragionamento (come diceva Leibniz), come un calcolo di tipo matematico. Infatti, in logica (cioè nel calcolo) non è importante la ricerca degli elementi ultimi, quanto invece la scelta dei segni che servono a rappresentarli. Andrà trovata in questa interpretazione il successo che Leibniz ottenne agli inizi del nostro Secolo con la nascita della moderna logica simbolica (che è anche logica matematica), successo che lo pose come padre spirituale della logica moderna La Lingua Universale e la Scienza Generale In questo senso va intesa la ricerca di una LINGUA CHARACTERISTICA UNIVERSALIS, un sistema di segni, cioè, ognuno dei quali corrisponda a ognuna delle idee primitive che formano l'alfabeto dei pensieri umani, e che sia adatto a costruire, con delle semplici regole di calcolo, tutte le idee complesse (o pensieri) della nostra mente, in modo tale che a ogni pensiero falso corrisponda un errore di calcolo e a ogni pensiero vero una corretta applicazione delle regole del calcolo; così come è possibile, attraverso il calcolo, determinare la verità o la falsità delle proposizioni dell'aritmetica e dell'algebra. Leibniz riteneva, infatti, che il sistema di segni dell'aritmetica e dell'algebra, rispettivamente le cifre arabe e le lettere introdotte da Vieta, rappresentassero lo strumento più adatto ad assicurare in queste scienze il ragionamento attraverso il calcolo; e che ciò costituisse un esempio della possibilità di attuare, mediante "caratteri", il calcolo anche nel ragionamento in generale. Ed è questa concezione dell'arte caratteristica che costituisce il vero modo d'intendere la logica, in modo che essa sia universale e applicabile a ogni scibile umano: «Quest'arte caratteristica, della quale ho concepito l'idea nella mia mente, contiene il Vero Organo della Scienza Generale di tutto ciò che cade sotto l'umano ragionamento» (40). L'Alfabeto Caratteristico Da principio, per Leibniz, l'arte delle combinazioni era associata al progetto di istituire una lingua universale (cioè un sistema di segni universale), progetto molto comune e alla moda ai suoi tempi. Caspar Schottus, Kenelm Digby, J. Becher, A.Kircher e, soprattutto, Wilkins e Dolgarno erano tutti esperti in questo progetto. Kircher aveva già avuto l'idea d'impiegare l'arte combinatoria per costruire la sua lingua universale (23). Ma mentre tutti questi studiosi non riuscivano a trovare niente di meglio che attribuire un medesimo segno per le varie espressioni sinonime delle diverse lingue, come una specie di scrittura convenzionale e arbitraria (tali progetti miravano ad abbattere le barriere linguistiche che separano i popoli di diversa cultura, e quindi sfatare la maledizione biblica della torre di Babele), Leibniz voleva arrivare a una scrittura universale, semplice da apprendere e da ricordare, basata su un fondamento logico, cioè su un'analisi completa dei concetti e sulla loro riduzione a dei termini primitivi, i quali dovevano essere rappresentati con segni naturali e appropriati, da una specie cioè di alfabeto del tutto caratteristico.

Page 23: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 23 -

Il modello matematico Leibniz aveva in mente di trovare un sistema di segni che, sul modello di quello aritmetico e algebrico, assicurasse lo svolgimento corretto del ragionamento. «Le lingue ordinarie, sebbene siano assai utili al ragionamento, sono tuttavia soggette a innumerevoli equivoci e non possono sostituire il calcolo, in modo cioè che gli errori di ragionamento possano essere scoperti dalla stessa formazione e costruzione delle parole, come se si trattasse di solecismi e barbarismi. Ma questo mirabile vantaggio finora lo offrono i soli segni degli aritmetici e degli algebristi per i quali ogni ragionamento consiste nell'uso di caratteri e ogni errore mentale è lo stesso che un errore di calcolo» La ruota di Leibniz Più tardi, appreso dalla lettura dell'opera "Pensieri" dell'esistenza della pascaline, Leibniz concentrò il suo sforzo nella realizzazione di un congegno che potesse eseguire velocemente moltiplicazioni e divisioni, cosa che la macchina di Pascal non era in grado di eseguire. Per raggiungere il suo scopo Leibniz inventò uno speciale tipo di meccanismo, detto tamburo differenziato (oggi più semplicemente chiamato Ruota di Leibniz); combinando insieme alcuni di questi tamburi era possibile moltiplicare e dividere sfruttando la ripetizione automatica di somme e sottrazioni.

Il 1700

Il sogno di una mente meccanica risale a un passato molto lontano. Qualche accenno si può trovare già negli scritti di René Descartes (Cartesio 1596-1650), che era interessato ad automi capaci di simulare il corpo umano (egli era invece scettico sulla possibilità di simulare la mente). Fossero stati o no stimolati da Descartes, alcuni pensatori di tradizione francese, pare siano stati i primi a perseguire l'idea di una macchina capace di ragionare. A Parigi nel 1747, un medico francese, Julien Offroy de Lamettrie, pubblicò il libro L'homme machine, in cui sosteneva che "l'uomo non è che un animale, ossia un insieme di molle che si caricano le una con le altre" (Lamettrie, 1955, p.69) e che il cervello, in quanto organo del pensiero, poteva essere studiato e duplicato. Com'egli si espresse, "il pensiero è così poco incompatibile con la materia organizzata da sembrarne anzi una proprietà, come l'elettricità, la facoltà di movimento, l'impenetrabilità e l'estensione." Questa linea di pensiero fu proseguita a un livello più pratico dall'artigiano Jacques de Vaucanson, un costruttore di automi che nella prima metà del Settecento entusiasmò l'Europa con una varietà incredibile di creature meccaniche: suonatori di flauto, anatre e suonatori di tamburo. In un lungo documento accompagnatorio, Vaucanson indicò come ciascuna parte dell'androide suonatore di flauto, in realtà fosse costruita sulla base di componenti paragonabili del modello umano. Altro personaggio di rilievo nell’evoluzione del calcolo meccanico fu il brillante e presciente matematico di Cambridge Charles Babbage (1791-1871), il quale spese molti anni nella

progettazione di una macchina calcolatrice automatica in grado di eseguire i complessi calcoli necessari alla navigazione e alla balistica. Purtroppo la macchina da lui progettata richiedeva la produzione di migliaia di pezzi di precisione; e benché gli scienziati di oggi pensino che la macchina avrebbe potuto funzionare, il governo britannico gli ritirò il suo assegno dopo aver investito la somma allora grande di 17.000 sterline. Ma Babbage concepì idee ancora più grandiose, escogitando una macchina in grado di tabulare qualsiasi funzione e capace, in linea di principio, anche di giocare a scacchi. Questa macchina, detta "Difference Machine", usava schede perforate come quelle dei telai Jacquard: c'erano schede operative, che dirigevano le operazioni che dovevano essere eseguite, e schede variabili, che determinavano le particolari variabili sulla cui base dovevano essere eseguite le operazioni.

La difference machine di Babbage

Page 24: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 24 -

Si poteva impostare qualsiasi problema aritmetico e, purché si facessero girare le manovelle giuste, sarebbe venuta subito fuori la risposta giusta. (tratto da Gardner, H. La nuova scienza della mente, Feltrinelli, Milano 1988; pag 164-167) Nel suo lavoro Babbage fu aiutato da Ada Augusta Byron (1815-1852), contessa di Lovelace, figlia del poeta George Byron. Lady Lovelace collaborò con Babbage seguendo i progetti della Macchina Analitica e arricchendo con numerosi ed importanti contributi il concetto di programmazione. Tra l’altro ella si spingerà ad immaginare per questa macchina non solo compiti di tipo numerico ma anche attività come il calcolo simbolico o la composizione automatica di musica.

Il 1800

Se il XVII secolo è stato salutato come il secolo della nascita della scienza moderna, l’800 è sicuramente il secolo in cui la “modernità” si estende a tutto l’apparato sociale e culturale dell’occidente. Nell’800 prendono forma quelle basi scientifiche, filosofiche, artistiche e sociali che poi caratterizzeranno tutto il ‘900 fino ai giorni nostri. Eventi quali la rivoluzione industriale, la nascita dei trasporti ferroviari, l’avvio dei programmi statali di alfabetizzazione della popolazione, l’urbanizzazione, l’invenzione della fotografia, la grande diffusione di giornali e libri, insieme alla nascita delle importanti ideologie filosofiche, politiche ed economiche, quali il socialismo, il marxismo, il liberismo e il nazionalismo, scoperte e teorie scientifiche quali l’invenzione della pila voltaica, che aprirà il campo allo sfruttamento dell’elettricità, le leggi sull’elettromagnetismo e l’evoluzionismo di Darwin, scoperte e invenzioni tecnologiche come il telegrafo, il telefono e il radio-telegrafo di Marconi, movimenti artistici quali l’impressionismo e la poesia francese da Baudelaire a Mallarmè, sono solo alcuni dei semi ottocenteschi che hanno influenzato in modo indelebile lo sviluppo occidentale nel secolo successivo.

George Boole e la logica matematica

George Boole (1815-1864) del Qeens College di Cork, era impegnato in un'impresa diversa ma non meno importante: ossia la determinazione delle leggi basilari del pensiero e la loro derivazione da principi di logica. Per eliminare le ambiguità del linguaggio naturale (che aveva dominato la logica dal tempo in cui Aristotele aveva studiato il sillogismo), Boole usò per rappresentare diversi comportamenti del pensiero un insieme di simboli arbitrari (a,b,x,y,p,q). Nelle sue parole "un tentativo riuscito di esprimere proposizioni logiche per mezzo di simboli, le leggi delle cui combinazioni fossero fondate sulle leggi dei processi mentali che rappresentano, sarebbe un passo avanti in linguaggio filosofico". Questi elementi simbolici potevano essere combinati o dissociati attraverso operazioni come somma, sottrazione o moltiplicazione, in modo da formare nuove espressioni, o nuove concezioni, implicanti gli stessi elementi. Questi procedimenti equivalevano a una sorte di "algebra della mente", in cui il ragionamento poteva essere condotto in termini astratti positivi o negativi, senza essere inquinato dalle particolari associazioni connesse a contenuti specifici. E queste operazioni furono chiamate da Boole le "leggi del pensiero". Fatto più importante per il futuro, Boole osservò che la sua logica era un sistema a due valori, ovverosia una logica Vero-Falso. Qualsiasi espressione logica, per quanto complessa, poteva essere espressa o come 1 (che stava per il Tutto o Vero) oppure come 0 (che stava per il Nulla o Falso). L'idea che l'intera ragione umana potesse essere ridotta a una serie di domande con risposta sì-no si sarebbe rivelata centrale per la filosofia e la scienza del Novecento.

Il programma logicista e i linguaggi formali

Il logicismo è il tentativo di ridurre la matematica ai concetti ed alle regole della logica. Per lo sviluppo della matematica non sarebbero necessari altri concetti che quelli della logica, essendo la matematica fondamentalmente un'applicazione specifica delle leggi universali della

Page 25: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 25 -

logica. Ogni concetto, teorema e legge della matematica può essere quindi dedotto e dimostrato partendo dagli assiomi fondamentali della logica. Questo pensiero si trova già in Gottfried Leibniz che cercava una "mathesis universalis", una scienza universale, da cui potessero essere dedotte tutte le altre scienze come istanze specifiche. Comunemente il logicismo viene associato soprattutto con Frege, Russell e Whitehead. Il Contesto storico del programma logicista Agli inizi del 20mo secolo molti logici e matematici erano interessati a dare un nuovo fondamento alle discipline matematiche. A parte Frege, anche Richard Dedekind e Giuseppe Peano volevano ricondurre i concetti fondamentali della matematica, specialmente il concetto di numero, ai concetti della logica. Molti matematici famosi, quali Karl Weierstrass, Richard Kronecker, Hermann von Helmholtz etc., si erano pronunciati sul concetto di numero alla fine del 19mo secolo, spesso in senso più filosofico o perfino psicologico, tentando di ricondurre il concetto di numero a concetti di altri campi, come il tempo, lo spazio, etc. o cercando le sue origini nel processo di enumerazione. I due grandi schieramenti sono quello dello psicologismo e quello del formalismo. Il primo tenta di ridurre le leggi della matematica e della logica ai processi mentali, cercando di definire il concetto di numero in base a come sorge naturalmente nel pensiero. Il secondo pone assiomi che definiscono gli elementi base di un sistema e deducono i teoremi da essi secondo le leggi della logica, ottenendo però un sistema "nominalista", la cui applicazione alle scienze può essere messa in dubbio. Il logicismo, il quale sostiene che la matematica non ha un proprio dominio, ma tratta puramente di relazioni di idee e che queste relazioni siano analitiche, rientra in questa seconda categoria. Il tentativo di Frege Nella formulazione del logico e matematico Gottlob Frege (1848-1925) il programma logicista si prefiggeva due obiettivi: risolvere i concetti matematici, anche quelli considerati non ulteriormente definibili e perciò primitivi, in termini puramente logici; dimostrare i teoremi della matematica mediante l'applicazione dei principi e delle regole di inferenza del ragionamento logico. Mentre stava scrivendo il secondo volume dei "Principi dell'aritmetica", Frege ricevette una lettera in cui Bertrand Russell, uno dei pochi a dimostrare interesse per il programma dell'oscuro pensatore tedesco all'inizio del Novecento, gli comunicava un'antinomia fondamentale che vanificava la sua intera opera. L'antinomia è oggi nota con il nome di paradosso di Russell. Frege non si sarebbe più ripreso dal colpo infertogli da Russell e per il resto della sua vita si sarebbe tenuto lontano dal problema dei fondamenti della matematica. Infatti la teoria degli insiemi sviluppata da Georg Cantor e utilizzata da Frege può essere dimostrata internamente contradittoria tramite la definizione di un insieme molto particolare: l'insieme che contiene tutti gli insiemi che non contengono se stessi come membri ("The set of all sets that do not contain themselves as members"). La definizione di questo insieme porta al paradosso che questo insieme contiene e non contiene se stesso, dimostrando che la definizione di insieme di Frege non poteva essere usata come fondamento certo della definizione del concetto di numero e quindi della matematica. Il tentativo di Russell Al contrario di Frege, Russell si sarebbe cimentato, assieme al collega Alfred North Whitehead, nel tentativo di superare la sua stessa antinomia, dando alla luce i tre ponderosi volumi dei Principia Mathematica, pubblicati tra il 1910 e il 1913. Quest'opera rappresentò il più grandioso tentativo di realizzare il sogno fregeano di una fondazione logica della matematica, anzi lo spirito russelliano si dimostrò ancora più radicale di quello del suo predecessore nella misura in cui arrivò a coinvolgere la geometria, precedentemente esclusa da Frege.

Page 26: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 26 -

La riduzione logicista fu raggiunta da Russell a costo di alcune ambiguità, che negli anni a seguire provocarono il progressivo disfacimento del sistema eretto nei Principia. Punti deboli della sistemazione russelliana si rivelarono: il predicativismo della logica declinata da Russell nella teoria dei tipi a fronte del non predicativismo della matematica: - L'assioma dell'infinito, per cui esistono infiniti individui distinti; - L'assioma della scelta o moltiplicativo. Il fallimento del progetto logicista Nonostante gli sforzi di Frank Plumpton Ramsey (1903-1930), il programma logicista si inaridì e venne soppiantato da altri approcci al problema dei fondamenti della matematica, quali il formalismo di Hilbert o l'intuizionismo di Poincaré e Brouwer. Il neo-logicismo, proposto tra l'altro da Crispin Wright, tenta di rianimare il programma logicista. Ci sono vari argomenti contro il progetto logicista: - Il tentativo di ridurre la matematica alla logica fallisce perchè la logica da sola non è sufficiente. Il logicismo adopera anche concetti dalla teoria degli insiemi che è ontologicamente più ricca della mera logica. Non esiste comunque una necessità a priori che garantisca l'esistenza dei vari strati di insiemi e insiemi di insiemi presupposti da Cantor, Frege e Russell. - Il tentativo di derivare la matematica dalla logica fallisce perchè, come Kurt Gödel ha dimostrato con i suoi teoremi di incompletezza, ogni sistema sufficientemente complesso da fondare l'aritmetica, è ipso facto o inco

Page 27: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 27 -

NASCITA DELLA SCIENZA INFORMATICA

Apriremo questo capitolo con alcune notazioni di tipo linguistico. Il termine “informatica”, coniato propriamente alla fine degli anni ’60 del secolo scorso, deriva dalla crasi, o fusione, di due termini distinti: “INFOR-mazione auto-MATICA”. L’informatica quindi è quella scienza che si occupa dell’elaborazione automatica delle informazioni (Boni, 2005). E’ chiaro dunque il riferimento a quanto visto sul concetto di automa e sulle sue implicazioni con il meccanicismo e la meccanica dei secoli precedenti. Gli ingredienti che furono essenziali per sviluppare tale scienza furono da una parte l’energia elettrica e dall’altra la logica di Boole, i cuochi invece furono moltissimi, ciascuno dei quali diede il proprio contributo, la propria particolare ricetta, per restare in questa metafora culinaria, allo sviluppo della scienza. In questa sede noi vedremo solo alcuni dei principali protagonisti che hanno dato un contributo determinante alla creazione degli attuali computer. Analogico e digitale, voce e alfabeto. Analogico e digitale sono due termini che a partire dalla rivoluzione informatica hanno preso sempre più piede, per indicare una coppia di differenti metodologie tecnologiche attraverso le quali si cercano di rappresentare determinati rapporti tra grandezze variabili. Un dispositivo analogico è ad esempio l’orologio a lancette. Le lancette infatti segnano lo scorrere del tempo ruotando attorno al perimetro di un cerchio su cui sono rappresentate le grandezze variabili delle ore del giorno. Un dispositivo digitale presenta la stessa funzione, cioè indicare le variazioni tra le grandezze, tuttavia la svolge in modalità affatto differente, cioè utilizzando soltanto cifre numeriche. Digitale infatti è uno di quei termini (come “media”) di origine latina, ma di formazione anglosassone, e deriva dal termine “digit”, che in inglese significa proprio cifra, numero. Mentre invece il termine analogico rimanda alla nota figura semantica dell’analogia, utilizzata per significare una relazione di somiglianza tra due entità. Fin dai suoi esordi la tecnologia ha dovuto adottare dei sistemi di misurazione per assegnare alle variazioni fisiche che essa determinava, delle scale di valori. Pensiamo ad esempio al motore a scoppio e alle quantità di forza che questo poteva sprigionare, come calcolarle e definirle entro una scala di valori? Cioè come rappresentare le variazioni di potenza che il motore generava? Adottando un sistema grafico che potesse rappresentare le differenti variazioni dell’energia prodotta, come ad esempio il contatore dei giri del motore. Andando a fondo nell’analisi di questi due diversi sistemi, si scorge un antico problema, affrontato per la prima dagli antichi filosofi greci, ossia la questione tra continuo e discreto (“discreto” è un termine che indica discontinuità). Noi non affronteremo tale questione, anche se è un bene averla comunque citata, tuttavia ci soffermeremo invece su qualcosa che ci interessa più da vicino: il rapporto linguaggio orale – linguaggio scritto. Non è infatti il mondo dell’oralità inserito entro un sistema continuo, dove lo scorrere dei suoni linguistici vive in una continuità inscindibile nei prorpi elementi? Ricordiamoci le parole di Ong a proposito della comunicazione orale: questa vive entro una realtà di suoni inarrestabili, un continuum vocale fatto di evenienze sonore che compaiono e scompaiono nel giro di pochi secondi e nulla esiste per fermare questo flusso, per fissarlo temporalmente, se non la memoria e tutti gli accorgimenti mnemo-linguistici che abbiamo visto all’opera nella poesia greca. L’alfabeto fonetico al contrario, è in grado di fissare i suoni nello spazio, così che il continuum temporale della voce orale viene definitivamente fissato dalle 24 lettere dell’alfabeto, e attraverso lo spazio discreto dei segni è possibile fermare definitivamente l’evanescenza temporale del linguaggio e del pensiero. Il vantaggio di poter fissare lo scorrere inarrestabile degli eventi linguistici della voce orale, con una strumentazione capace di ridurre l’evento linguistico in elementi discreti, è dato dalla possibilità di eseguire operazioni cognitive durature e consistenti sull’evento stesso. La voce del poeta è rimasta lì, fissata nello spazio, per essere riletta in cento, mille altre occasioni, ma anche per essere analizzata, rielaborata, valutata, in una parola: giudicata. Fissare l’evento linguistico, il suono della voce, transcodificandolo con segni capaci di riportarlo alla memoria di generazioni future, ha creato un distacco tra il detto e il pensato, tra l’organo della voce e l’organo del pensiero, un distacco che per la prima volta ha prodotto quella capacità critica di indagare i fenomeni che poi ha ingenerato l’attitudine all’indagine filosofica dei greci. Il continuum cognitivo del pensiero ha potuto riflettere su se

Page 28: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 28 -

stesso, grazie alla transcodifica discreta delle lettere che lo rappresentavano in unità fonetiche. Ecco allora che, epurata dalla specificità dell’intonazione vocale, che caratterizza ogni detto, ogni discorso umano, come un particolare tipo di discorso detto qui e ora, le parole dell’oracolo di Delfi “conosci te stesso”, incise sulla pietra, non assumono più un valore momentaneo, non sono state pronunciate da qualcuno in un dato momento, ma stanno lì per esortare, sempre e chiunque, a conoscere sé stesso. Queste parole hanno un valore universale, che ancor oggi ci invitano alla riflessione. Tutto ciò per ribadire la caratteristica essenziale di ogni strumentazione discreta: essa conferisce all’informazione potenzialità analitico-riflessive uniche. Platone vs Democrito continuo vs discreto, filosofia orale vs filosofia scritta? Logica ed energia elettrica Si sente sempre dire che i computer comprendono un solo tipo di linguaggio, il cosiddetto linguaggio macchina, composto da lunghissime stringhe di 0 e di 1. E di fatti l’abbiamo visto anche noi, attraverso la logica di Boole gli ingegneri hanno saputo creare una macchina in grado di svolgere elaborati calcoli a partire dai due stati di 0 e 1. Ora vediamoquindi come nella pratica dei fatti ciò si è potuto verificare. Faremo degli esempi pratici che, ci auguriamo, possano illuminare megliola questione. Nostra guida teorica in questo percorso sarà il sito http://www.tecnoteca.it, che consigliamo altresì di visitare per la ricchezza e seietà degli argomenti sientifici trattati. http://www.tecnoteca.it/museo/11/document_view Circuito elementare per la rappresentazione di un bit. Il bit è la più piccola unità di informazione e designa uno dei due stati che codificano le informazioni all'interno dei computer: la presenza oppure l’assenza di un segnale elettrico. Il passaggio della corrente elettrica con l'interruttore chiuso e la lampadina accesa rappresenta il simbolo 1, mentre il non passaggio di corrente elettrica con l'interruttore aperto e la lampadina spenta rappresenta il simbolo 0. Il funzionamento dei circuiti elettrici di tutti i calcolatori moderni è basato su questi due stati elementari. Ovviamente, la rappresentazione di informazioni più complesse richiede l'uso di un insieme di bit.

Page 29: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 29 -

Le porte logiche possono essere realizzate mediante circuiti elettrici molto semplici combinando in modo opportuno diversi interruttori. Nella figura sono illustrate le porte logiche AND e OR realizzate con semplici interruttori e lampadine. Ogni porta logica elabora uno o più bit secondo una determinata operazione logica. Circuito dimostrativo: addizionatore binario (half-adder) realizzato con un relè. Un aspetto implementativo importante che è emerso fin dalla costruzione dei primi calcolatori è il fatto che tutti i diversi componenti della CPU possono essere realizzati mediante lo stesso tipo di circuiti: le reti logiche. Questi reti sono formate da più porte logiche connesse tra loro e permettono di elaborare informazioni anche molto complesse. Claude Shannon. Alla fine degli anni ‘30, il fisico e matematico americano Claude Shannon (1916-) del MIT, studiando i circuiti elettrici a relè comunemente utilizzati nelle telecomunicazioni, si rese conto che il loro funzionamento può essere descritto in termini logici utilizzando il calcolo proposizionale. In tale lavoro Shannon trasferì le idee di Boole al mondo dei circuiti digitali facendo comprendere la superiorità dell'approccio digitale rispetto a quello analogico.

Page 30: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 30 -

L’architettura del computer Non dedicheremo molto tempo alla struttura dei computer, se non quello necessario per afferrarne i principi chiave, che ci permettano poi di capire meglio l’evoluzione della Rivoluzione digitale. Il computer come lo conosciamo noi oggi è frutto di un’architettura concepita per la prima volta da Von Neumann negli ’40 del XX secolo, che ne ha delineato le varie funzioni (vedi figura in basso). Per funzionare un elaboratore deve avere una Unità Centrale di Processazione, cioè di calcolo, detta CPU (Central Unit Processing), una memoria volatile, detta RAM (Random Access Memory) che serve al Processore per andare a prendere i dati, dopodiché esistono le cosiddette periferiche, ovvero la strumentazione necessaria alla immissione dei dati (INPUT) e alla emissione dei risultati (OUTPUT), che inizialmente erano poche, la tastiera, la memoria fissa, o disco rigido, e una stampante, mentre il monitor ha fatto la sua comparsa solo successivamente. Oggi invece le periferiche sono moltissime, e in continuo aumento. La parte senza dubbio più interessante e importante è la CPU, il vero e proprio cervello del computer. La CPU è suddivisa in Unità di controllo, Unità aritmetico-logica, memoria RAM e ROM, la ROM nell’originale architettura di Von Neumann non esisteva, poiché non essenziale per i primi elaboratori. La memoria ROM (Read Only Memory) è una memoria di “sola lettura”, cioè dalla quale si possono prendere dati, ma sulla quale non è possibile scriverne, e serve ad esempio al computer per accendersi e lanciare il BIOS (Basic Input Output System), il programma che fa partire il Sistema Operativo. Vediamo più da vicino come è strutturata la CPU e i due componenti principali. L’Unità di controllo serve a interpretare correttamente i comandi provenienti dalle periferiche, dalla tastiera, dalle memorie o dalle porte del computer, ciò significa che questa Unità ha il compito di leggere le stringhe di informazioni binarie e determinare se sono ben strutturate secondo la corretta sintassi. Se ciò avviene, cioè se le informazioni sono consistenti, allora vengono passate al vero e proprio motore di tutto il computer, l’Unità aritmetico-logica, che ha il compito di elaborarle, cioè di calcolarle e di ripassarle all’Unità di controllo che provvederà a rinviarle verso le periferiche, sottoforma di output. Ad esempio se io digito le lettere “CPU”, l’Unità di controllo verifica se il dato inviatole è corretto, lo passa all’Unità aritmetico-logica che lo elabora e lo rispedisce all’Unità di controllo che a sua volta lo invia alla periferica del monitor, il quale lo rappresenta sottoforma di lettere scritte. La CPU è progettata per riconoscere (Unità di controllo) e interpretare (Unità aritmetico-logica)

un numero fisso di istruzioni, detto insieme delle istruzioni, come ad esempio ADD (=SOMMA), DIV (=DIVIDI), AND (=And logico), ecc., che di norma, all’interno della CPU, sono qualche centinaio. Ciascun tipo di processore possiede un proprio sistema di istruzioni, ed è seguendo questo schema che si scrivono i vari programmi. I due più diffusi processori, RISC e CISC, rispettivamente quello della IBM e quello del Power PC della Apple, hanno istruzioni differenti,

Page 31: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 31 -

ed è per questo motivo che programmi scritti per computer IBM compatibili, come tutta la filiera di programmi della Microsoft, non girano su computer Macintosh, e viceversa. La CPU dunque al suo interno possiede le regole sintattiche e i comandi (le istruzioni) per ricevere, elaborare e restituire le informazioni. Linguaggi che parlano alle macchine Per noi umani, dialogare nel complicato idioma delle macchine è piuttosto difficile e complicato, se non altro per la quantità di errori che potenzialmente si possono commettere. La scienza informatica ha così sviluppato nel tempo una serie di linguaggi più vicini a quello naturale. Tutti i linguaggi di programmazione sono comunque linguaggi formalizzati, nel senso che abbiamo visto in precedenza, sono quindi lingue regolate da una specifica sintassi e da una semantica (significati) oggettiva e priva di ambiguità, altrimenti la CPU non saprebbe come leggere le informazioni ed elaborarle. I linguaggi di programmazione servono per scrivere i programmi, cioè il software, quell’insieme chiuso e definito di comandi che serve per risolvere determinati problemi. Tali problemi possono essere di qualsiasi ordine, per esempio gestire la contabilità di una azienda, oppure eseguire calcoli per scopi scientifici, come inviare un satellite in orbita, o interpretare i geni umani, o ancora possono servire per disegnare la struttura di un ponte, scrivere del testo o inviare una e-mail dall’Italia all’Australia. I linguaggi quindi vengono concepiti per soddisfare un determinato problema, e soprattutto all’inizio, questi erano strutturati per eseguire benissimo e velocemente specifici problemi. Col passare degli anni poi sono stati creati linguaggi più generalisti, che permettono di eseguire i compiti più disparati. La storia dei Linguaggi di programmazione è una storia lunga e molto interessante, noi la affronteremo nella sua sintesi, che prevede due ordini di strutture: i Livelli e le Generazioni. I Livelli rappresentano la vicinanza o lontananza dal Linguaggio macchina. Più un linguaggio è vicino al processore, più è profondo, meno ne è vicino, più si dice di superficie. Questa suddivisione rispecchia anche la struttura delle Generazioni dei linguaggi (Generazioni intese propriamente in senso cronologico, come fossero le Generazioni di una famiglia), nel senso che la prima Generazione era scritta direttamente in Linguaggio macchina, mentre le ultime, come

vedremo, sono scritte con linguaggi più vicini a quello naturale (vedi schema sottostante). Inizialmente i programmatori scrivevano i programmi in linguaggio macchina, immettendo direttamente le istruzioni in

stringhe di 0 e 1. Come detto ciò era scomodo, laborioso e dava adito a frequenti errori. Vennero inventati quindi dei linguaggi che al posto delle stringhe binarie, possedevano stringhe di testo, riportanti i comandi da eseguire in un linguaggio più vicino a quello naturale, linguaggi che tuttavia restavano ovviamente formalizzati. Il primo linguaggio di questo tipo fu il linguaggio Assembly. A partire da questa Generazione, entrano in gioco nella storia dell’informatica i cosiddetti Traduttori. Poiché le istruzioni scritte secondo linguaggi non macchina, utilizzano stringhe testuali e non binarie, allora diventa necessario che un Traduttore traduca queste istruzioni in linguaggio macchina, comprensibile alla CPU. Esistono due tipologie di traduttori, i compilatori e gli interpreti. La differenza sta nel modo con cui questi traduttori traducono le istruzioni, i compilatori “preferiscono” prima tradurre tutto il codice e poi inviarlo alla CPU, mentre gli interpreti invece traducono il codice “in tempo reale” come fossero in diretta. Quando quindi in informatica si parla di codice compilato, ciò significa che esiste un traduttore che prima lo traduce e poi lo invia all’esecuzione, in questo modo il computer subisce in primis uno sforzo di elaborazione iniziale, ma poi esegue il programma in modo più rapido. Il codice interpretato invece prevede uno sforzo iniziale meno grosso, ma tempi di esecuzione del programma certamente più lunghi. Per farvi un esempio: quando utilizzate MS Word, dovete aver installato preventivamente il software sul vostro computer, cioè state utilizzando un programma scritto in un linguaggio che deve essere compilato. Infatti voi impiegate un po’ di tempo per installarlo, ma poi l’esecuzione è abbastanza veloce. Quando

LE GENERAZIONI DEI LINGUAGGI DI PROGRAMMAZIONE 1° Generazione Linguaggio macchina Basso Livello 2° Generazione Linguaggi Assembly Basso Livello 3° Generazione Linguaggi Procedurali Alto Livello 4° e 5° Generazione Linguaggi Descrittivi / A Oggetti Alto Livello Pseudo-Linguaggi

Page 32: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 32 -

invece navigate su Internet e il vostro browser sta sfogliando pagine web, lo può fare perché interpreta al volo le informazioni che scarica dal server e le presenta sullo schermo seguendo le regole di impaginazione del linguaggio Html. La riscrittura del cosmo Quando all’inizio del Corso parlammo di scrittura del cosmo, abbiamo steso un elenco di pratiche grafiche per sottolineare in modo incisivo come tramite la scrittura e, più in generale, la grafia, l’uomo sia stato capace di dotare di senso il cosmo da lui abitato. Tali pratiche poi, sono state analizzate nel dettaglio lungo il corso delle lezioni: la nascita della scrittura, la nascita degli alfabeti e dell’alfabeto vocalico greco e le pratiche che da esso sono sorte, abbiamo visto la storia e l’evoluzione dei medium scrittorii, il volumen, il codex, il libro moderno, prodottosi a partire dalla rivoluzione tipografica e da questo le nuove pratiche scientifiche che ne sono in un certo modo derivate. E da quel punto abbiamo deciso di seguire la strada che ci ha condotti fino alla nascita dei computer, dalle prime rudimentali macchine da calcolo alla storia delle idee che ne hanno permesso lo sviluppo. E ora stiamo analizzando come l’impiego del calcolatore stia nel mezzo di una profonda, e non priva di eventi imprevedibili, riscrittura del cosmo. Tale riscrittura si avvale, come detto, della strumentazione digitale, un complesso apparato tecnico-scientifico che ha permesso di ricodificare ogni sistema graficamente rappresentabile con strumentazione analogica, in un nuovo sistema rappresentabile secondo modalità affatto diverse, quali quelle digitali. Queste modalità sono quelle che abbiamo visto trattando delle differenze tra analogico e digitale: una incommensurabile superiorità analitica dell’una rispetto all’altra. Ma non solo, ciò che ha reso una tale riscrittura tanto potente e densa di implicazioni, è il fatto che la tecnologia digitale abbia saputo costruirsi un Network capace di trasportare e distribuire informazioni rapidamente e potenzialmente in ogni parte del globo e anche oltre. Cinque tra i principali vantaggi dell’era informatica:

1. la transcodifica dell’informazione, dal continuum analogico al discreto digitale, e la sua

rappresentazione percettiva (visiva, sonora) 2. L’utilizzo di un significante unico per elaborare e rappresentare l’informazione, l’impulso

elettrico 3. la capacità di processazioni (calcolo) veloci e automatiche dell’informazione, attraverso

la simulazione di alcune operazioni cognitive umane basiche 4. la diminuzione fisica dello spazio analogico entro lo spazio digitale 5. l’opportunità di spostare l’informazione digitale velocemente in ogni parte del globo

La strumentazione digitale La SD per operare nei modi e nelle forme cui siamo ormai abituati, necessita di una strumentazione hardware, cioè fisica. Si tratta dei cosiddetti terminali; la macchina digitale, evolutasi negli ultimi decenni, presenta un monitor, una tastiera e spesso anche un mouse e una stampante. A parte il mouse e la stampante, che non sono strettamente necessari, le restanti due parti costituiscono gli elementi fisici attraverso i quali noi simuliamo l’atto dello scrivere e del leggere, metaforicamente identificati con la diade carta-penna. La stampante rappresenta invece, e abbastanza bene, quella che è la nostra epoca, definita da alcuni studiosi tarda epoca della stampa (Bolter 1993), che vede ancora nel foglio stampato la realizzazione ultima dell’atto dello scrivere. Non solo la stampante, ma anche la maggior parte dei programmi di video scrittura denunciano inequivocabilmente il cordone ombelicale che ancora ci lega al foglio cartaceo; oggi, con buona pace di quanti preconizzavano la fine del libro e della carta, le statistiche riportano un aumento, e non una diminuzione di carta stampata. Portando la stampa all’interno degli uffici e delle abitazioni, la rivoluzione digitale ci ha tutti trasformati in una grande tribù di stampatori. Oltre a ciò, il computer odierno possiede alcuni device per la distribuzione e l’archiviazione della scrittura e delle informazioni in generale. Se inizialmente era il floppy-disc (inventato dalla IMB nei primi anni ’70), l’unico strumento attraverso cui si poteva trasferire le informazioni scritte da un computer all’altro, con gli anni abbiamo assistito

Page 33: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 33 -

a un’impressionante evoluzione delle capacità di archiviazione di queste memorie portatili. Dal floppy al DVD c’è stato un incremento di circa 3000 volte. A partire dalla fine degli anni ’70 compare sulla scena informatica uno strumento che avrebbe cambiato la storia del computer: il modem (modulator-demodulator), un device capace di convertire l’informazione digitale in analogica, trasmetterla attraverso un normale cavo in rame (come ad esempio quello delle linee telefoniche) e riconvertirla in digitale dall’altra parte. Non che prima del modem i computer non fossero in grado di connettersi, Arpanet e Internet erano già nati da tempo, ma avevano bisogno di linee di collegamento dirette, e quindi estremamente costose e rare. Col modem invece bastava un semplice allacciamento telefonico e due o più computer potevano parlare la stesa lingua e trasmettersi informazioni. Con il modem nasce l’era dell’accesso come la definisce lo studioso nord americano Jeremy Rifkin (Rifkin, 2000), l’epoca in cui diventa di primaria importanza accedere alle informazioni delocalizzate, attraverso device tecnologici quali computer e reti. Grazie a questa importante invenzione, la distribuzione delle informazioni avviene direttamente tra macchine comunicanti, senza il bisogno di uno spostamento fisico tra un computer e un altro. Non va dimenticato anche un device che potrebbe essere visto come una stampante al contrario, mi riferisco allo scanner. Se la stampante serve a trasferire l’informazione elettronica dall’ambiente digitale verso quello tradizionale della stampa, lo scanner al contrario è in grado di percorrere il processo opposto, trasferire l’informazione analogica della stampa in informazione digitalizzata. Con lo scanner, lanciato dalla Microtek nel 1985 (300 dpi in bianco e nero) si apre l’epoca della conversione dell’analogico nel digitale. Per quanto riguarda invece la digitalizzazione di testi stampati, già nel 1974 venne lanciato dal geniale Ray Kurzweil (http://www.kurzweiltech.com/kcp.html) il primo sistema per il riconoscimento delle lettere, chiamato OCR (Optical Character Recognition) capace di riconoscere qualsiasi tipo di carattere stampato e riprodurlo nella sua variante digitale.

Page 34: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 34 -

APPENDICE - Breve storia dei linguaggi di programmazione [per gentile concessione di Ricky Spelta: http://www.windoweb.it ???] 1946 Konrad Zuse, ingegnere tedesco, sviluppa il primo linguaggio di programmazione in assoluto: il Plankalkül, mentre se ne stava nascosto sulle Alpi della Baviera in attesa della fine della Seconda Guerra Mondiale.Usò il suo linguaggio come opponente nel gioco degli scacchi sul suo computer Z3. Il linguaggio era già in grado di gestire sia tabelle che strutture di dati.Il Plankalkül rimase seppellito in qualche archivio in Germania per molto tempo. 1949 Viene sviluppato un primo linguaggio di uso comune, lo Short Code. Deve essere compilato in codice macchina manualmente. A dispetto del nome, le notti tenderebbero ad allungarsi parecchio, usando questo linguaggio! 1951 Grace Hopper (la famosa "nonnina del COBOL"), inizia lo sviluppo del compilatore A-O, noto anche come AT-3. 1952 Alick Glennie, sviluppa, parallelamente ai suoi studi, il compilatore AutoCode, che serve a compilare un linguaggio simbolico assembler per il computer Manchester Mark I. 1954 IBM inizia lo sviluppo del FORTRAN, basandosi sul linguaggio A-O. 1957 A-O viene pubblicato col nome Math-Matic, e inizia così l'utilizzo di un primo linguaggio di programmazione comunemente conosciuto. Anche FORTRAN (FORmula TRANslator) è pubblicato. L'uso primario del linguaggio è per calcolare espressioni matematiche.Tra le sue doti la grande semplicità nelle funzioni di input/output e la sua succinta ed elegante codifica.FORTRAN diventa così il primo linguaggio commerciale di alto livello. Il leader del gruppo di sviluppo, John Backus passa quindi allo sviluppo di ALGOL e BNF. 1958 Viene presentata una nuova versione di linguaggio, il FORTRAN II. Tra le sue nuove caratteristiche offre la gestione di sottoprogrammi e link a funzioni di codice macchina. John McCarthy inizia lo sviluppo di LISP (LISt Processing, oppure, per gli amici "Lots of Irritating Superfluous Parentheses" :-) ). Il linguaggio, grazie alle sue funzioni, è alla base di applicazioni per Intelligenza Artificiale.Insieme ad altri viene usato nel gioco Abuse, i cui livelli e funzioni sono determinati dal codice LISP, compilato quando inizia il gioco. Viene anche pubblicata la definizione di base di ALGOL 58, noto anche come IAL (International Algebraic Language). 1959 Nasce il COBOL (COmmon Business Oriented Language), alla conferenza del Data Systems and Languages (CODASYL). COBOL è un linguaggio commerciale istituzionale, ancora utilizzato al giorno d'oggi in moltissime aziende.E' pensato per gestire una grande quantità di dati, ma può essere valido anche per tanti altri scopi.Anche se viene apprezzato dai tecnici, lo è senz'altro meno del BASIC, a causa della sua eccessiva verbosità. LISP 1.5 è pubblicato. 1960 ALGOL 60, il primo linguaggio costruito a segmenti, è disponibile. Diverse versioni di Pascal e di C saranno successivamente sviluppate traendo ispirazione proprio da ALGOL 60, che diventa il più noto linguaggio di programmazione in Europa, verso la fine degli anni '60. 1961 Keneth Iversson sviluppa APL (A Programming Language), che usa anche caratteri speciali e richiede periferiche compatibili per funzionare correttamente.Il linguaggio comprende molte soluzioni speciali e interazioni, ma molte altre funzioni sono assenti. E' pensato quasi esclusivamente per applicazioni matematiche. 1962 Esordio del FORTRAN IV.SNOBOL, (StriNg Oriented symBOlic Language), uno strano linguaggio con particolari trovate, è sviluppato presso i Bells Laboratories.Nel 1971, i compilatori FASBOL e SPITBOL (SPeedy ImplementTation of snoBOL) verranno poi sviluppati proprio sulla base di SNOBOL. Il linguaggio è usato per gestire testi e formule. 1963 Viene rilasciata una nuova versione di ALGOL 60.In IBM inizia lo sviluppo di PL/I, che dovrebbe includere le migliori funzionalità di ALGOL 60, FORTRAN e COBOL. 1964 APL/360, è la prima reale applicazione per APL messa in funzione.John Kemeny and Thomas Kurtz inventano il BASIC (Beginners All-purpose Symbolic Instruction Code) e il suo compilatore. Il primo programma BASIC gira alle 4 del mattino del primo maggio 1964.PL/I è pubblicato. Questo linguaggio è ancora molto usato in ambienti IBM. Sempre la IBM distribuisce anche il linguaggio RPG (Report Program Generator), specializzato nella creazione di report commerciali. Una precedente versione era stata comunque già annunciata nel 1960 per il sistema IBM 1401.Le versioni RPG II e RPG III saranno poi pubblicate negli anni '70. 1965 SNOBOL3 è pubblicato ed entro l'anno successivo saranno sviluppati anche i compilatori per computer DEC -- per il PDP-6 e PDP-10.

Page 35: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 35 -

1966 FORTRAN 66 è pubblicato. Sarà poco utilizzato perché nuovi standard lo rimpiazzeranno molto presto. Anche LISP2 viene rilasciato. Inizia anche lo sviluppo di LOGO, che può essere paragonato a LISP, ma più orientato ai bambini e ai principianti. 1967 SNOBOL prosegue nello sviluppo ed esce una versione SNOBOL4. Il linguaggio è usato, per esempio, nelle analisi e per le compilazioni di linguaggio di alto livello. In Norvegia, a Oslo, viene annunciato Simula.Si basa su ALGOL60, ma comprende anche la gestione delle classi. Simula, originariamente pensato per simulazioni, diverrà più tardi un linguaggio completo centrato sulla programmazione a oggetti. 1968 Niklaus Wirth inizia lo sviluppo del Pascal, ancora usato a scopi educativi. ALGOL 68 è pubblicato. Alcuni membri del comitato di standardizzazione sono restii ad approvarlo perché lo giudicano pesante, con problemi pratici di utilizzo ed estremamente complesso. COBOL diventa una versione certificata ANSI.I laboratori Bells annunciano ALTRAN, un clone del FORTRAN. 1969 500 partecipano alla conferenza su APL nel quartier generale di IBM in New York. La domanda di APL iè molto lontana dalle aspettative. BCPL (Basic CPL) viene sviluppato in Inghilterra.Il linguaggio si basa su CPL (Combined Programming Language) e getterà le basi dei successivi sviluppi dei linguaggi B e poi C.BCPL è un linguaggio di basso livello, che comprende solo semplici tipi di dati. 1970 Charles Moore crea il Forth. Il telescopio di Kitt Peaks è, per esempio, controllato da un programma FORTH. Secondo Moore il Forth doveva essere un linguaggio di quarta generazione (fourth generation), ma siccome il suo sistema operativo prevedeva nomi di file di soli 5 caratteri, fu battezzato Forth. In Francia parte lo sviluppo di PROLOG (PROgramming LOGic), che diventa il primo programma di intelligenza artificiale e di logica.Si basa sul teorema SLD è comprende molti diversi linguaggi per scopi diversi.Alla Xerox PARC inizia lo sviluppo di Smalltalk. Smalltalk è un linguaggio object-oriented molto pulito.Negli anni successivi saranno sviluppate le versioni Smalltalk-72, Smalltalk-74 and Smalltalk-76. Quest'ultimo ispirandosi anche a Simula. Il programma Pascal fa la sua comparsa sui computer CDC-6000. Icon è pubblicato. E il linguaggio B viene sviluppato per il sistema Unix PDP-11. Il linguaggio B si ispira al BCPL. 1972 Dennis Ritchie crea il linguaggio "C", derivandolo dal "B". Il compilatore C è incluso nel sistema operativo di Unix e il suo utilizzo crescerà in modo esplosivo anche al di fuori dei laboratori Bell. Il C appare semplice, efficiente e flessibile. Portare programmi scritti in C su altri sistemi operativi è più facile che con altri linguaggi.Il C sembra sposare l'eleganza ed efficienza dei linguaggi macchina con la chiarezza e manutenibilità dei linguaggi di alto livello. Entra in funzione la prima applicazione scritta in PROLOG. Dopo appena 26 anni ricompare la documentazione di Plankalkül, il famoso primo linguaggio assoluto scritto da Zuse. 1974 COBOL acquisisce la sua seconda definizione ANSI.Compare la documentazione del linguaggio C. 1975 Il dottor Wong sviluppa Tiny BASIC, che occupa solo 2K di memoria ed è caricabile da nastro perforato.Può funzionare praticamente su qualsiasi macchina con processore 8080 o Zilog Z80.In un tipico pc ci sono 4K di memoria, così con questo linguaggio 2K resterebbero disponibili. Tiny BASIC è anche il primo programma freeware (cioè gratuito).Nel suo interno furono trovate queste due buffe frasi: "All wrongs reserved" e "Copyleft". Bill Gates e Paul Allen scrivono una loro versione di BASIC che vendono al MITS. MITS produce microcomputer basati su Altair 8080. Scheme, un derivato di LISP, è pubblicato. Brian Kernigan descrive RATFOR (RATional FORtran), usabile come pre-compilatore del FORTRAN. 1976 Design System Language, predecessore del PostScript fa la sua comparsa. E' un linguaggio interpretato, come il Forth, usato per gestire gli alberi dei database tridimensionali. 1977 MUMPS (Massachusetts general hospital Utility Multi-Programming System) ottiene il suo riconoscimento ANSI-standard. MUMPS era usato originariamente per salvare le cartelle dei pazienti per cui il linguaggio comprende solo caratteri di testo. Verrà poi rinominato con la lettera M ed è ancora usato da molte compagnie dove molti utenti devono accedere alle stesse informazioni, come nelle banche, nei magazzini e agenzie viaggi.La Honeywell partecipa alla gara per progettare il nuovo linguaggio battezzato ADA e il team di Jean Ichbiahn vincerà con la sua soluzione. Kim Harris e i suoi partner creano il FIG, (FORTRAN Interest Group). Svilupperanno il FIG-FORTRAN vendendolo per $20. Kenneth Bowles pubblica USCD Pascal, che lavora su macchine PDP-11 e Z80. Niklaus Wirth inizia a sviluppare il successore del

Page 36: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 36 -

Pascal, Modula (MODUlar LAnguage). Modula è un linguaggio fortemente segmentato, che si adatta bene alle esigenze di elaborazioni parallele. 1978 Esce il linguaggio CSP. 1980 Nasce il dBASE II. 1983 Distribuzione da Xerox di SmallTalk-80, ispirato a Lisp e Simula 67. Linguaggio object-oriented. 1983 Prima uscita del linguaggio ADA, derivato da Algol 68. 1986 E' disponibile una nuova versione del linguaggio C, il C ++. 1986 Annuncio di Eiffel, ispirato a SmallTalk- 80.Eiffel è un linguaggio object-oriented che enfatizza il disegno e la costruzione di software di elevata qualità e riusabilità. 1987 Esce il Perl (Practical Extraction and Report Language), creato da Larry Wall.Un linguaggio di script ottimizzato per fare la scansione arbitraria di file di testo, per estrarne informazioni e stampare report basati sui dati estratti. 1988 Nuovo linguaggio: Mathematica 1988 Fa la sua comparsa OBERON, successore di Modula-2 e Pascal.Forse il migliore programma mai disegnato, che scaturisce dalla genialità di Niklaus Wirth. 1988 Esce il Quick Basic. 1989 Con l'avvento del Web viene reso disponibile un meta-linguaggio che ne rappresenterà la base di sviluppo dei siti: l'HTML. 1991 E' disponibile il linguaggio Python, un moderno interprete di script.Il linguaggio è

object-oriented in modo nativo, e non ha subìto l'aggiunta di qualche istruzione in più per diventarlo, come è successo ad altri linguaggi più antichi.Il suo più diretto concorrente è il linguaggio Perl, ma dal quale si distingue egregiamente per maggiore facilità nello sviluppo di programmi di una certa dimensione e di frequente manutenzione. Da Python deriverà Ruby nel 1993. Di Python usciranno successive versioni, anno dopo anno. 1992 Microsoft annuncia il Visual BASIC.Si tratta di un derivato del BASIC, con l'aggiunta della gestione object-oriented e event driven, ideale per l'ambiente Windows. 1995 Fa la sua comparsa Java 1, figlio di C++ e SmallTalk Il Turbo Pascal risorge a nuova vita in Delphi. 1998 Esce la versione Java 2 del famoso programma. 2000 Da Java 2 deriva il linguaggio "C#".

Page 37: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 37 -

I PROTAGONISTI DELLA RIVOLUZIONE DIGITALE

A proposito dell’’utilizzo del concetto di rivoluzione, applicato all’attuale immensa propagazione della macchina informatica, riprendo ciò che scrive Manuel Castells (2002): “ - Il gradualismo, - ha scritto il paleontologo Stephen J. Gould, - cioè l’idea che tutti i cambiamenti devono essere uniformi, lenti e costanti, non è mai stato un comandamento immutabile. Rappresentò piuttosto un pregiudizio culturale comune, in parte una risposta al liberismo ottocentesco a un mondo in rivoluzione. Ma continua a influenzare la nostra interpretazione presumibilmente oggettiva della storia della vita […] La storia della vita, per come la vedo io (è Gould che parla, ndr), è costituita da una serie di stati stabili, punteggiata a intervalli da eventi maggiori che si verificano con grande rapidità e che servono a determinare l’epoca stabile successiva - . Io (è ora Castells che parla, ndr) parto dal presupposto che alla fine del XX secolo abbiamo vissuto uno di questi eccezionali intervalli della storia, un intervallo caratterizzato dalla trasformazione della nostra cultura materiale, grazie all’agire di un nuovo paradigma tecnologico incentrato sulle tecnologie dell’informazione.” E poi Castell prosegue esortandoci a non cadere nella trappola delle facili profezie tecnologiche: “La propaganda profetica e la manipolazione ideologica che contraddistinguono gran parte dei discorsi sulla rivoluzione della tecnologia dell’informazione, non devono indurci a sottovalutarne la fondamentale importanza”. E poi continua sul concetto di rivoluzione: “ A differenza di qualsiasi altra rivoluzione, però, il nucleo della trasformazione che la società sta vivendo con la rivoluzione attuale riguarda le tecnologie di elaborazione e comunicazione delle informazioni. La tecnologia dell’informazione sta a questa rivoluzione, come le nuove fonti di energia stavano alle rivoluzioni industriali che si sono susseguite”. Noi assumeremo quindi che in atto vi è una vera e propria rivoluzione, e parleremo senza timidezza di rivoluzione informatica. John von Neumann (1903-1957) L'apprendista nacque ebreo ed ungherese a Budapest il 28 dicembre 1903 come Janos Neumann, e lo stregone morì cattolico e statunitense a Washington l'8 febbraio 1957 come John von Neumann (l'ereditario `von´ venne assegnato nel 1913 a suo padre per meriti economici dall'imperatore Francesco Giuseppe). Von Neumann fu un bambino prodigio: a sei anni conversava con il padre in greco antico; a otto conosceva l'analisi; a dieci aveva letto un'intera enciclopedia storica; quando vedeva la madre assorta le chiedeva che cosa stesse calcolando; in bagno si portava due libri, per paura di finire di leggerne uno prima di aver terminato. Da studente, frequentò contemporaneamente le università di Budapest e Berlino, e l'ETH di Zurigo: a ventitré anni era laureato in ingegneria chimica, ed aveva un dottorato in matematica.La sua velocità di pensiero e la sua memoria divennero in seguito tanto leggendarie che Hans Bethe (premio Nobel per la fisica nel 1967) si chiese se esse non fossero la prova di appartenenza ad una specie superiore, che sapeva però imitare bene gli umani. In realtà, il sospetto di un'origine marziana era esteso non solo a von Neumann, ma a tutto il resto della banda dei figli della mezzanotte, i coetanei scienziati ebrei ungheresi emigrati che contribuirono a costruire la bomba atomica. La complessità dei calcoli balistici richiesti per le tavole di tiro di armamenti sempre più sofisticati aveva portato, nel 1943, al progetto del calcolatore elettronico ENIAC di Filadelfia. Non appena ne venne a conoscenza, nell'agosto 1944, von Neumann vi si buttò a capofitto: nel giro di quindici giorni dalla sua entrata in scena, il progetto del calcolatore veniva modificato in modo da permettere la memorizzazione interna del programma. La programmazione, che fino ad allora richiedeva una manipolazione diretta ed esterna dei collegamenti, era così ridotta ad un'operazione dello stesso tipo dell'inserimento dei dati, e l'ENIAC diveniva la prima realizzazione della macchina universale inventata da Alan Turing nel 1936: in altre parole, un computer programmabile nel senso moderno del termine. All'Istituto di Princeton si dedicò alla progettazione di un nuovo calcolatore, producendo una serie di lavori che portarono alla definizione di quella che oggi è nota come architettura von Neumann: in particolare, la distinzione tra memoria primaria (ROM) e secondaria (RAM), e lo stile di programmazione mediante diagrammi di flusso. Anche questa macchina non fu fortunata: essa fu inaugurata solo nel 1952, con una serie di calcoli per la bomba all'idrogeno, e fu smantellata nel 1957 a causa dell'opposizione dei membri dell'Istituto, che decisero da allora di bandire ogni laboratorio sperimentale. John von

Page 38: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 38 -

Neumann definì per la prima volta in modo rigoroso e completo il concetto di elaboratore elettronico a programma memorizzato - la cosiddetta 'macchina di von Neumann'. Anche se altri - come ad esempio Eckert e Mauchly - avevano avuto idee simili, fu Neumann a inquadrarle in una teoria matematica coerente e a svilupparle in una teoria generale delle 'macchine intelligenti e degli automi. Oltre che per varie applicazioni tecnologiche (dalla matematica alla metereologia), il computer servì a von Neumann anche come spunto per lo studio di una serie di problemi ispirati dall'analogia fra macchina e uomo: la logica del cervello, il rapporto fra l'inaffidabilità dei collegamenti e la loro ridondanza, e il meccanismo della riproduzione. Egli inventò in particolare un modello di macchina (automa cellulare) in grado di autoriprodursi, secondo un meccanismo che risultò poi essere lo stesso di quello biologico in seguito scoperto da James Watson e Francis Crick (premi Nobel per la medicina nel 1962). Il suo risultato più famoso nel campo degli armamenti, invece, fu la scoperta che le bombe di grandi dimensioni sono più devastanti se scoppiano prima di toccare il suolo, a causa dell'effetto addizionale delle onde di detonazione (i media sostennero più semplicemente che von Neumann aveva scoperto che è meglio mancare il bersaglio che colpirlo). L'applicazione più infame del risultato si ebbe il 6 e 9 agosto del 1945, quando le più potenti bombe della storia detonarono sopra il suolo di Hiroshima e Nagasaki, all'altezza calcolata da von Neumann affinché esse producessero il maggior danno aggiuntivo. Alan M. Turing (1912-1954) Alan Turing è nato il 23 giugno 1912 a Londra ed è morto il 7 giugno 1954 a Manchester. E' stato uno dei pionieri dello studio della logica dei computer così come la conosciamo oggi ed il primo ad interessarsi all'argomento dell'intelligenza artificiale.Una delle sue caratteristiche fu di non usare il lavoro di scienziati precedenti, bensì di ricreare le scoperte precedenti. Trasferitosi alla Princeton University iniziò ad esplorare quella che poi verrà definita come la Macchina di Turing.La macchina di Turing non è altro che l'odierno computer. Turing descrisse una macchina che sarebbe stata capace di leggere una serie su una banda composta dalle cifre uno e zero. Questi uni e questi zeri descrivevano i passaggi che erano necessari per risolvere un particolare problema o per svolgere un certo compito. La macchina di Turing avrebbe letto ogni passaggio e l'avrebbe svolto in sequenza dando la risposta giusta. Questo concetto era rivoluzionario per quel tempo in quanto molti computer negli anni '50 erano progettati per un scopo preciso o per uno spettro limitato di scopi. Ciò che Turing intravedeva era una macchina che riusciva a fare tutto, una cosa che oggigiorno diamo per scontata.Nel 1936 formulò il modello teorico del calcolatore a istruzioni memorizzate, la cosiddetta 'macchina di Turing'. Un risultato analogo veniva fornito nello stesso anno, ma indipendentemente da lui, dal logico polacco Emil L. Post (1897-1954).Il metodo di istruzione del computer era molto importante nel concetto di Turing. Far eseguire ad un computer un compito particolare era soltanto una questione di suddivisione dell'istruzione in una serie di istruzioni più semplici, lo stesso processo che viene affrontato anche dai programmatori odierni. Turing era convinto che si potesse sviluppare un algoritmo per ogni problema. La parte più difficile stava nel determinare quali fossero i livelli semplici e come spezzettare i grossi problemi.Durante la seconda guerra mondiale Turing mise le sue capacità matematiche al servizio del Department of Communications inglese per decifrare i codici usati nelle comunicazioni tedesche, in quanto i tedeschi avevano sviluppato un tipo di computer denominato Enigma che era capace di generare un codice che mutava costantemente. Turing ed i suoi compagni lavorarono con uno strumento chiamato Colossus che decifrava in modo veloce ed efficiente i codici tedeschi creato con Enigma. Si trattava, essenzialmente di un insieme di servomotori, ma era il primo passo verso il computer digitale. un rotore di Enigma ricostruzione della "Bombe room" Bletchley Park Trust, Hut 6(dove si studiava la decodifica di Enigma) Turing era dell'idea che si potesse creare una macchina intelligente seguendo gli schemi del cervello umano. Scrisse un articolo nel 1950 in cui descriveva quello che attualmente è conosciuto come il Test di Turing. Il test consisteva in una persona che poneva delle domande tramite una tastiera, rivolgendosi sia ad una persona che ad una macchina intelligente. Era convinto che se, dopo un ragionevole periodo di tempo, la persona che poneva le domande non fosse stata capace di distinguere le risposte della macchina da quelle dell'altra persona, la macchina in qualche modo si poteva

Page 39: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 39 -

considerare "intelligente". Ipersensibile, incompreso, circondato dallo scetticismo e dall'ostilità dell'ambiente scientifico, il matematico inglese si suicidò il 7 giugno 1954, mangiando una mela al cianuro, per motivi mai chiariti. Due anni prima era stato coinvolto in uno scandalo per una relazione omosessuale (all'epoca considerata un reato in Gran Bretagna) e condannato a seguire una terapia ormonale che lo aveva reso impotente. Claude Elwood Shannon (1916-2001) Alla fine degli anni ‘30, il fisico e matematico americano Claude Shannon del MIT, studiando i circuiti elettrici a relè comunemente utilizzati nelle telecomunicazioni, si rese conto che il loro funzionamento può essere descritto in termini logici utilizzando il calcolo proposizionale. In tale lavoro Shannon trasferì le idee di Boole al mondo dei circuiti digitali facendo comprendere la superiorità dell'approccio digitale rispetto a quello analogico. Nel 1937 dimostrò che l'algebra di Boole forniva uno dei mezzi più adatti per trattare i problemi dei circuiti. Dopo gli studi all'università, nel 1936 cominciò a preparare la tesi di dottorato al Mit sotto la guida di Vannevar Bush. In particolare Shannon era interessato alla teoria e alla progettazione dei complessi circuiti di relay che controllavano le operazioni dell'analizzatore differenziale", la macchina inventata da Bush per risolvere equazioni differenziali. Fu in quel periodo che Shannon cominciò a pensare che con la logica a due valori di Boole si poteva fare di un computer «molto di più che una macchina per addizioni». Dopo il dottorato, Shannon iniziò a collaborare coi Laboratori Bell della At&T, e durante la guerra si dedicò allo studio dei sistemi di controllo delle batterie contraeree. Nel 1948 pubblicò il suo lavoro più importante, la Teoria matematica della comunicazione, uno dei pilastri della moderna teoria dell'informazione e in parte, quindi, dell'informatica. Il problema era ancora una volta di natura pratica. Come trasmettere messaggi impedendo che "rumori" di disturbo ne alterassero il contenuto? Per cominciare, il problema era di definire in maniera precisa cos'era il contenuto di informazione di un messaggio. L'idea geniale di Shannon fu che il contenuto di informazione non ha nulla a che vedere col contenuto del messaggio, ma col numero di 0 e 1, necessari per trasmetterlo. La natura del messaggio, numeri, musica, immagini, era irrilevante. In ogni caso si trattava di sequenze di 0 e 1. In quell'articolo compariva per la prima volta il termine bit. Le cifre binarie diventavano l'elemento fondamentale in ogni comunicazione. Con i suoi lavori dedicati alla teoria dell'informazione, all'affidabilità dei circuiti, al problema della sicurezza della comunicazione e alla crittografia, Shannon ha profondamente cambiato la teoria e la pratica della comunicazione. Dal 1958 Shannon era tornato a insegnare al Mit. Appassionato giocatore di scacchi, in un suo pionieristico articolo del 1950 parlava della programmazione dei computer per giocare a scacchi. Nel 1965 ne aveva discusso a Mosca con Mikhail Botvinnik, ingegnere elettrico e a lungo campione mondiale di scacchi. Stavano prendendo forma le prime idee di Profondo Blu, il programma che trent'anni dopo avrebbe sconfitto Kasparov. Il topo elettromeccanico di Shannon (Theseus) è stato uno dei primi tentativi di "insegnare" ad una macchina ad imparare e uno dei primi esperimenti pratici di Intelligenza Artificiale.

Norbert Wiener (1894-1964)

Norbert Wiener è considerato il creatore del termine cibernetica (dal Greco Kyber: timone, pilota) Lo stretto legame fra cibernetica e informatica si fa sentire soprattutto nel settore delle intelligenze artificiali e degli automi.

Page 40: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 40 -

Bambino prodigio, Wiener a tre anni era già in grado di leggere correttamente e a nove anni faceva il suo ingresso nella scuola superiore, dove completò il programma quadriennale in soli due anni. Poi studiò presso la Cornell University, la Columbia University, Harvard e Cambridge (con Bertrand Russel) e Gottinga, laureandosi in matematica, fisica e biologia. Quindi rientrò negli Stati Uniti, dove insegnò sia all'università di Columbia che di Harvard e del Maine, prima di finire al MIT come professore di matematica (1932-1960). Durante la seconda guerra mondiale fu coinvolto in importanti progetti militari, in particolare per la realizzazione di computer da utilizzare in calcoli balistici. Le sue intuizioni su come avrebbe dovuto essere progettato un computer, unite agli studi di Turing e altri, consentirà a von Neumann di definire l'architettura necessaria per ottenere un

computer d'utilizzo generico (general purpose), cioè nel quale l'hardware fosse indipendente dal programma in uso. L'atto di nascita vero e proprio della cibernetica risale al 1945, anno in cui Wiener, assieme a von Neumann, organizzò un convegno a Princeton al quale parteciparono molti matematici, logici, fisici e ingegneri. Dal convegno derivò anche una terminologia comune per definire concetti come "analogico", "digitale", "bit" e "feedback". Negli ultimi anni di vita Wiener si dedicò in particolare alla matematica, neurofisiologia e

ingegneria, con un certo riguardo verso possibili riflessi di queste materie in campo medico. In matematica diede un notevole contributo alla definizione della "teoria delle probabilità" e della "analisi delle funzioni". Nei primi anni '40 mise a fuoco, nell'ambito della Cibernetica, due importanti concetti: il feedback e la trasmissione dell'informazione. Il feedback (retroazione) è un principio attraverso il quale un fenomeno è in grado di autoregolare il suo output controllandone il risultato. Un esempio applicativo assai semplice e curioso riguarda lo sciacquone del bagno. Il dispositivo immette acqua nella vaschetta, ma tramite un galleggiante, viene "informato" quando la vaschetta è piena e provvede così ad arrestarne l'erogazione. Se il feedback non funzionasse...si allagherebbe la casa! Il feedback, dunque, aggiunge "intelligenza" cognitiva, quella che manca in gran parte dei programmi, che sono realizzati per eseguire determinate funzioni, ma non hanno l'abilità d'imparare nulla di nuovo, né tantomeno di correggere i propri errori. A dire il vero Wiener non si occupava di sciacquoni, ma di applicazioni ben più serie. Il suo impegno, infatti, fu orientato verso il miglioramento del puntamento delle bocche da fuoco in artiglieria contraerei, in base al ritorno di informazioni sul risultato del tiro precedente, fornito da un radar. Questo processo di calcolo richiedeva molte operazioni in tempo reale e così Wiener si rese conto che i sistemi analogici non potevano reggere la richiesta. Occorreva utilizzare qualcosa di molto più veloce e si iniziò così a sviluppare una tecnologia digitale che sfruttava le condizioni on/off, in perfetta base binaria, impiegando valvole elettroniche. Il meccanismo di riportare all'ingresso alcune informazioni, in modo da modificare l'azione tenendo conto dei risultati ottenuti, era un concetto completamente nuovo e venne esteso a vari campi applicativi o di studio, come i meccanismi neurofisiologici, ad esempio. Sulle trasmissioni delle informazioni, Wiener riprese alcune idee di Claude Shannon, circa il concetto di quantità dell'informazione in presenza di rumore di fondo. Vannevar Bush e il Memex Il concetto di ipertesto può essere fatto risalire all’esperienza pionieristica del “Memex”, una macchina peraltro mai costruita, ma alla base della cui realizzazione vi sono un serie di intuizioni che, da un certo punto di vista, precorrono l’idea attuale di ipertestualità.

Page 41: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 41 -

L’idea del “Memex”(Memory Extender) è dovuta all’attività ed alle intuizioni di Vannevar Bush (nella foto), ingegnere e ricercatore del prestigioso MIT, il quale si pose, nel periodo fra gli anni ’30 e la seconda guerra mondiale, il problema della gestione e della consultazione rapida di grandi masse di informazioni. Naturalmente, non avendo a disposizione una tecnologia digitale, le sue idee si dovevano adattare alle tecnologie allora disponibili, nello specifico Bush pensava all’uso di documenti ridotti su microfilm. Bush aveva un approccio fortemente critico nei confronti dei sistemi di gestione dell’informazione della sua epoca, questo era per lui un problema fondamentale: più volte nei suoi scritti affermerà che la conoscenza per essere acquisita deve essere facilmente reperibile e consultabile, giacché ogni forma di conoscenza che non può essere selezionata è destinata a perdersi. Bush lavorerà molto sul problema della reperibilità dell’informazione per tutti gli anni ’30, cercando una soluzione tecnicamente avanzata e intuitiva ed arriverà, nel 1945, a pubblicare un articolo fondamentale, destinato a divenire una vera e propria Bibbia per gli studiosi dell’ipertestualità. L’articolo, pubblicato sulla rivista Atlantic Monthly e intitolato “As we may think”, parte sempre dal citato problema della reperibilità e della consultazione delle informazioni, muovendo una critica alla cosiddetta indicizzazione della conoscenza, ovvero alla tendenza, propria soprattutto delle biblioteche, di catalogare per indici alfabetici o numerici, per cui “ciascuna informazione si trova in un unico punto dell’archivio… si devono possedere delle regole per decidere quale cammino ci porterà all’informazione che cerchiamo, ma queste regole sono difficili da utilizzare e da gestire” (Bush, 1992). Muovendo da queste considerazioni Bush critica questo sistema di gestione dell’informazione asserendo che “la mente umana non funziona in questo modo. Essa funziona per associazione. Con una sola informazione in suo possesso, essa scatta immediatamente alla prossima che viene suggerita per associazione di idee, conformemente a un’ intricata rete di percorsi sostenuta dalle cellule del cervello. Essa ha un’altra caratteristica, ovviamente; i percorsi che non sono seguiti frequentemente tendono ad affievolirsi, le informazioni non sono del tutto permanenti, la memoria è transitoria” (Bush, 1992). Ed è proprio a immagine dei processi mentali umani che Bus prefigura la possibilità di realizzare una macchina in grado di operare una selezione per associazione delle informazioni, questa macchina è appunto il “Memex” (di cui vediamo nella figura una esemplificazione).”Un memex è un dispositivo in cui un individuo memorizza tutti i suoi libri, documenti e comunicazioni, e che è meccanizzato in modo da essere consultato con estrema facilità e rapidità. E’ un’estensione individuale della memoria. Esso è costituito da una scrivania ed è soprattutto al tavolo che si lavora. Sopra ci sono gli schermi luminosi inclinati, sul quale il materiale può essere proiettato per una comoda lettura. Ci sono una tastiera e dei gruppi di pulsanti e di leve. Per il resto, assomiglia a una normale scrivania… La maggior parte dei contenuti sono acquisiti su microfilm già pronti per essere inseriti” (Bush, 1992). Come si è già detto, Bush, che lavorò al progetto del memex prima dell’avvento dell’informatica, pensò il suo congegno come una scrivania con schermi, leve, pulsanti per la ricerca rapida di microfilm. Il memex doveva anche poter consentire all'utente di “aggiungere note a margine e commenti sfruttando la fotografia a secco”, implementando così la possibilità per il lettore di interagire col testo. La caratteristica fondamentale del memex comunque, come lo stesso Bush afferma, è la possibilità di interconnettere le informazioni, tramite collegamenti automatici ed immediati, i quali non svaniscono come i pensieri umani, ma rimangono anche a distanza di tempo, pronti per essere di nuovo consultati. La prospettiva delle prime ricerche di Bush è dovutamente inscritta in una tecnologia sostanzialmente analogica, che si limita a sfruttare la fotografia e apparecchi meccanici, d'altronde l’informatica digitale nascerà pochi anni dopo la pubblicazione di “As we may think” e lo stesso Bush riconoscerà solo in seguito, nel pieno degli anni ’60, che il “Memex” va rivisitato sulla base della tecnologia digitale che consente “di immagazzinare grandi masse di dati in poco spazio e l’accesso rapido all’informazione”(Bush, 1967). L’eredità del Memex sarà raccolta da personaggi come Engelbart, Nelson, Van Dam, i quali, partendo proprio dalle intuizioni di Bush, porteranno avanti una serie di ricerche pionieristiche,

Page 42: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 42 -

fondamentali per l’ideazione dell’ipertesto digitale così come lo conosciamo oggi ed in generale per lo sviluppo dell'informatica. Ted Nelson e Xanadu Il termine "hypertext", come ho già detto, si deve all'immaginazione di Theodor Holm Nelson, un personaggio "poliedrico", filosofo, informatico, designer, che alla metà degli anni Sessanta, quando i computer erano ancora degli armadi ingombranti, ebbe il merito di parlare per primo, anche sulla base delle intuizioni di Vannevar Bush, della possibilità di realizzare un software in grado di interconnettere elettronicamente documenti e testi seguendo un criterio di organizzazione ipertestuale, non sequenziale, reticolare. In un articolo del 1967 Nelson così definisce l'ipertesto, "l'ipertesto è la combinazione di un testo in linguaggio naturale con la capacità del computer di seguire interattivamente, visualizzandole in modo dinamico, le diverse ramificazioni di un testo non lineare, che non può essere stampato convenientemente con un impaginazione tradizionale". Nelson immaginò, poi, di poter creare, sulla base di questo sistema innovativo di organizzazione dei documenti, una rete globale per l'interscambio e la condivisione di testi ed informazioni, una sorta di "World Wide Web" ante litteram. Nasceva in questo modo il progetto di Xanadu, ovvero un programma in grado di gestire una rete di calcolatori estesa a tutto il pianeta e destinata all'archiviazione di testi e documenti; come afferma lo stesso Nelson "sotto la guida di idee che non sono tecniche ma letterarie stiamo implementando un sistema per la memorizzazione e il reperimento di testi collegati tra loro e visibili in finestre" (Nelson, 1992) , ed ancora “siamo alla ricerca di metodi che ci consentano di manipolare, sempre che riusciamo a scoprire come definirla, la vera struttura di un testo. Ciò che noi forniremo è un servizio per immagazzinare e reperire porzioni arbitrarie di questa vera struttura. La struttura di cui stiamo parlando è la letteratura"(Nelson, 1992). Emerge pertanto una sorta di disegno dal sapore utopico, quello di realizzare, servendosi della tecnologia, l'antico ideale della biblioteca universale, tant'è vero che il termine Xanadu viene mutuato da Nelson da un poema di Coleridge, "Kubla Khan", in cui per Xanadu si intendeva "the magic place of literary memory", ovvero il luogo magico della memoria letteraria. Lo stesso termine Xanadu sarà ripreso da Orson Welles nel film "Citizen Kane" (in Italia noto come "Quarto potere"), in cui indicava il palazzo, a metà fra il museo ed il mausoleo, dove il protagonista aveva raccolto una serie infinita di vestigia ed oggetti provenienti da culture di tutto il mondo. Attorno al progetto Xanadu Nelson ha lavorato con il fedele collaboratore Roger Gregory per quasi un trentennio, svolgendo attività di ricerca presso alcune università americane, raccogliendo intorno a sè giovani programmatori in grado di realizzare i suoi progetti e le sue intuizioni, intuizioni destinate certamente ad avere un impatto sul mondo dell'informatica, ma più per l'apporto teorico che non per quello pratico. Xanadu rimarrà un progetto in buona parte irrealizzato, da un lato a causa di una chiara carenza di tecnologie e conoscenze adeguate, dall'altro a causa dei limiti dello stesso Nelson, più un teorico e un visionario che un programmatore. Pertanto,così come Memex, anche il progetto di Xanadu, visti soprattutto gli insormontabili problemi di programmazione, non giungerà a concretizzarsi mai e nel 1994 decadrà per decisione dell'Autodesk, la società di software che ne ha finanziato le ricerche dalla seconda metà degli anni Ottanta. Malgrado tutto le idee di Nelson, pur non portando direttamente a nulla di concreto, hanno certamente avuto il merito di precorrere i tempi, di anticipare gli sviluppi dell'informatica, di stimolare ed ispirare la generazione di programmatori che ha reso possibile quella che oggi chiamiamo "rivoluzione digitale".

Page 43: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 43 -

Douglas C. Engelbart Nel contesto di ricerche volte a realizzare un'informatica "user friendly", ovvero indirizzata verso l'utente, va citato Douglas C. Engelbart, uno dei "guru" del settore, inventore, tra l'altro, del mouse e del primo word processor ed autore di una serie di importantissime ricerche volte a ridefinire il rapporto di interazione uomo-computer. All'opera di ricerca di Engelbart si devono i primi progetti per la realizzazione di sistemi per la comunicazione e il lavoro cooperativo chiamati oggi groupware. Fra questi va citato in tale contesto il cosiddetto NLS o "On line system", poi migliorato e chiamato "Augment", un primo embrionale sistema di gestione ipertestuale di documenti ed informazioni, sviluppato come un ambiente in cui le interconnessioni tra i testi sono realizzate tramite console; la memorizzazione delle informazioni avviene mediante la registrazione in files ed ogni file può essere suddiviso a sua volta in sezioni, sulla base di una struttura gerarchica. Il contenuto dei vari files del sistema può essere collegato attraverso dei riferimenti incrociati di tipo associativo, resi visibili da dei codici interni al testo, inoltre il monitor appare suddiviso in più finestre, così da rendere più agevole ed intuitiva la visualizzazione dei dati.

Page 44: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 44 -

MICROTECNOLOGIE E PERSONAL COMPUTER

I microchip, i modem e i primi computer a interfaccia grafica Nel 1958 l'ingegnere americano Jack Kilby, della Texas Instruments di Dallas, schiuse l'era della miniaturizzazione dei circuiti elettrici con l'invenzione del cosiddetto "circuito integrato", familiarmente conosciuto con il termine di "chip". Per la prima volta, l'ingegnere statunitense riuscì a combinare le funzioni di bobine, transistor, diodi, condensatori e resistori in una unità, completa dei relativi collegamenti, realizzata su una piastrina di materiale semiconduttore, il silicio cristallino, di proporzioni minime. Proprio l'invenzione del "chip" diede modo di ideare e costruire schede con centinaia di "circuiti integrali", capaci di svolgere nello spazio di poche decine di centimetri le stesse operazioni che, fino a poco tempo prima, erano effettuate da macchinari di diversi metri e tonnellate. E' chiaro che queste spinte tecnologiche permisero alle grandi aziende (e non più solo ai militari) di beneficiare degli sviluppi e della velocizzazione del lavoro. Sempre nel 1958 in America erano in funzione 2.500 elaboratori elettronici, mentre in Italia erano 40. Proprio nello stesso anno, il Banco di Roma (la futura Banca di Roma) fu il primo istituto di credito in Europa ad installare un elaboratore IBM di grande potenza per lo svolgimento di tutte le operazioni contabili, statistiche e di controllo degli oltre suoi 200 sportelli. Nel 1959 a Milano, in occasione della Fiera Campionaria, la Olivetti presentò il primo calcolatore elettronico a transistor di progettazione interamente italiana: l'"Elea 93". Questa macchina, ancora di grosse dimensioni, aveva 10 mila transistor e disponeva di una stampante capace di scrivere 600 righe al minuto. Fu un grosso successo commerciale, visto che ne furono consegnati oltre 12 mila esemplari in tutto il mondo. Ma se in Italia si era ancora alle prese con macchinari di grandi dimensioni, in America, all'inizio degli anni Sessanta, si lavorava sempre più al concetto di riduzione della macchina e del suo aumento di potenza. Nel 1964 la IBM (International Business Machine) mise in vendita il primo programma di "Word processor" (elaboratore di testi) del mondo e l'anno dopo il colosso americano lanciò sul mercato un nuovo elaboratore della cosiddetta "terza generazione", l'"IBM Sistema/360" a circuiti integrati con una memoria fino a quattro milioni di caratteri. La novità stava nel fatto che questo tipo di macchina poteva essere potenziata, aumentando la capacità della stessa memoria, o addirittura ingrandito con altri elementi. Il progettista fu Gene Amdahl, il primo a fare funzionare una macchina alla velocità di "nanosecondi" (miliardesimi di secondo). Il "Sistema/360" fu per anni il computer più venduto al mondo (nel 1966 le vendite arrivarono a mille esemplari al mese). Nel 1965 fu sempre la Olivetti di Ivrea a fregiarsi di un primato assoluto: a New York presentò il famoso "Programma 101", il primo personal computer del mondo prodotto in serie, destando sensazione per le sue prestazioni elevate, le dimensioni ridotte e l'elegante "design" di Mario Bellini. In pochi anni furono venduti quasi 45 mila esemplari grazie alla sua semplicità di uso. Il "P101" fu la prima macchina dotata di un programma registrato in memoria, di un supporto magnetico per l'introduzione e l'uscita dei dati (dal quale avrà poi origine il "floppy disc") e di un semplice sistema di programmazione con un linguaggio che poteva essere appreso in poche ore anche da non specialisti. Nel 1970 la Intel, produsse la prima RAM ("Random Access Memory" ), la memoria a semiconduttori da 1 Kbyte, che fu adottata immediatamente nella costruzione di nuovi computer al posto delle vecchie memorie a nuclei magnetici di ferrite. Nel 1971 fu un altro anno importantissimo per la storia dei computer, quando gli ingegneri elettronici della Intel, l'italiano Federico Faggin e gli americani Marcian Edward Hoff jr. e Stanley Mazer, diedero vita al "motore" dei futuri pc, il microprocessore. I tre riuscirono a concentrare su una piastrina di quattro millimetri per tre un "supercircuito integrato" contenente ben 2.250 transistor, la futura CPU ("Central Processing Unit" ) che costituivano tutti i componenti di un'unità centrale di elaborazione: in breve, il "cervello" e la "memoria" di

Page 45: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 45 -

entrata e uscita. L'anno successivo, sempre Faggin e Hoff jr. realizzarono il microprocessore "8008", il primo "chip" da 8 bit di uso universale. A questo punto mancava solo un altro componente per assicurare la completa autonomia ai nuovi modelli di "computer" che continuavano ad essere ideati e progettati: la "memoria" dove conservare i dati e le informazioni anche con l'apparecchio spento. Questo ostacolo venne superato definitivamente con l'uscita dell'"IBM 3340" che adottava la tecnologia di memoria su "hard disk" (disco rigido); quattro dischi in alluminio magnetizzati su entrambe le facce, sistemati uno sull'altro in un contenitore sigillato, venivano letti e registrati da una serie di testine velocissime che si insinuavano tra i dischi, sfiorandone le superfici a una distanza di appena 0,5 millimetri. Il primo "hard disk", denominato "Winchester", aveva una capacità di 12 Mbyte, mentre oggi i modelli più evoluti e dotati di una velocità di lettura di pochissimi millesimi di secondi, possono raggiungere una "memoria" di centinaia di Gbyte (1Gbyte=1024Mbyte) Nel 1972 Ray Tomlinson inventa un programma per e-mail (electronic mail) per spedire messaggi all'interno di un network. "The @ sign was chosen from the punctuation keys on Tomlinson's Model 33 Teletype for its "at" meaning". Tomlinson chose the @ symbol to tell which user was "at" what computer. The @ era per separare user's name from the host computer name

The first email was sent between two computers that were actually sitting besides each other. However, the ARPANET network was used as the connection between the two. The first email message was "QWERTYUIOP". Tomlinson says he invented email,"Mostly because it seemed like a neat idea [idea acuta]." No one was asking for email. Tomlinson recognized a possibility and made it real. @ means "at" That is the reason why it was chosen for the purpose to identify a person at a computer. It should also be read as "at".

Wh@ a history! In the Middle Ages, the monks were today's Internet. They published vast amounts of data and probably did not know what it was good for. Today we know the value of their work. During these translations and transcriptions a lot of things happened ("bookbinders" used to join together the wrong pages; to prevent this `writers' repeated the last line on the new page, for example) and since the texts were so long they even tried to abbreviate such a word as "ad". "ad" is Latin and means "at". @ seems like a logical abbreviation when you know that medieval fonts had a d that looked much like a mirrored 6. In the 15th century, @ appeared again. Spanish merchants used it -- as an abbreviation. The weight measure "arroba" (about 11.52 kg or 25.40 lb.) was soon replaced by the more handy @. Not uninterestingly, this measurement was used for bulls and wine. The @ is not totally unrelated to $, of course. In the Renaissance, people started to use it in the sense of "costs": "1 email address @ $100" (ugh!) means an email address costs US$ 100. With the advent of the Industrial Revolution, @ was used in bookkeeping and that's why the inventors of email were lucky to find it on every keyboard to be used. Nel 1975 due studenti universitari, William "Bill" Gates e Paul Allen, diedero vita a una piccolissima azienda che elaborava linguaggi per "computer": la Microsoft. La sede, inizialmente, fu a Albuquerque, nel New Mexico, ma nel 1980 si trasferì a Richmond, nello stato di Washington. La fortuna di entrambi può essere fatta risalire al linguaggio "Basic" che Gates e Allen programmarono nel 1974 per un "computer" da assemblare in casa, l'Altair 8800" della Mits e che li mise in luce negli ambienti del "software" .

Il computer da cui venne spedita la prima e-mail

Page 46: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 46 -

Nel 1976 nel luglio, a Palo Alto, in California, due giovani dal passato hippie, Stephen Jobs e Stephen Wozniak, costruirono nel salotto dei genitori adottivi di Jobs l'Apple I", dando vita all'omonima azienda, battezzata come la casa discografica creata quasi dieci anni prima dai Beatles. Sarà proprio la Apple la grande rivale della Microsoft, soprattutto per il fatto che entrambe hanno usato fin dall'inizio un linguaggio di programmazione completamente diverso. Nel 1977 Jobs e Wozniak costruirono l'Apple II", un "computer" dotato di un contenitore con tastiera, alimentatore e prese per il collegamento delle "periferiche" presenti sul mercato. La memoria era appena di 4 Kbyte e come monitor venne utilizzato un televisore domestico e per la memorizzazione dei dati un registratore a cassette, anche se l'anno successivo i modelli vennero equipaggiati con un drive per "floppy disc". Questo "computer" fu il primo in grado di generare una grafica a colori. Nel 1981 ci fu la svolta definitiva, quella che separa il passato dal nostro presente nella storia dei computer è rappresentata da ciò che avvenne il 1981. In quell'anno, la IBM, la maggiore industria informatica del mondo, decise di investire in modo massiccio nei "personal computer", creando in pochi anni una struttura "hardware" e "software" universalmente riconosciuta dalla stragrande maggioranza di costruttori e programmatori. La scelta vincente, indubbiamente, fu quella della scelta del linguaggio programmato. I dirigenti dell'IBM decisero di utilizzare il programma appositamente ideato da Gates e Allen, il celeberrimo MS-DOS (" Microsoft - Disc Operating System" ) con il quale sono cresciuti e hanno appreso i rudimenti dell'informatica milioni di persone. Nel 1983 l’Apple LISA (Local Integrated Software Architecture) fu il risultato di un costoso progetto durato 4 anni, nel quale la Apple investì 50 milioni di dollari. La risposta dei consumatori fu tuttavia molto tiepida: l'Apple LISA si rivelò troppo debole rispetto alle risorse richieste dal suo sistema operativo, malgrado il costo della macchina si aggirasse intorno ai 9.990$. Furono venduti solamente 10.000 esemplari e, 2 anni dopo il lancio, la produzione fu bloccata: Steve Jobs non valutò le aspettative del mercato quando disse “avremo a che fare con l'Apple LISA per i prossimi dieci anni”. L’importanza di questo computer, però, risiede nella gestione innovativa del software: l'Apple LISA, infatti, è il primo computer commerciale ad utilizzare la GUI, l’interfaccia grafica basata su finestre ed icone che ognuno di noi adopera quotidianamente. Fino a quel momento tutti i sistemi operativi erano di tipo testuale: l’utente digitava sulla tastiera comandi e funzioni e attendeva il risultato dell’elaborazione sullo schermo. Con la GUI (sviluppata dalla Xerox ma mai resa pubblica) il rapporto dell’utente con la macchina è estremamente facilitato: con l’uso del mouse e della grafica intuitiva l’informatica è diventata più vicina al nostro modo di pensare. L'Apple LISA, quindi, fu solo un fallimento commerciale: dal punto di vista innovativo va considerato come un anello fondamentale nell’evoluzione del computer

Page 47: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 47 -

LA NASCITA DELLA RETE: DALL’INTERNET AL WORLD WIDE

WEB

“La creazione e lo sviluppo di Internet negli ultimi tre decenni del XX secolo deriva dalla commistione unica di strategia militare, cooperazione dell’alta scienza, imprenditorialità tecnologica e innovazione controculturale” (Castells, 2003). Le premesse alla nascita della rete delle reti ebbero una motivazione militare: il 4 ottobre 1957 l’Unione Sovietica aveva messo in orbita, battendo sul tempo gli Stati Uniti, lo Sputnik, il primo satellite artificiale della storia. Uno smacco inammissibile che denunciava un progresso tecnologico preoccupante. Ma non basta: dopo l’incidente della Baia dei Porci a Cuba, la tensione USA - URSS raggiunse i massimi livelli. Nel 1964 anche la Cina sperimentava la propria bomba atomica. Fu soprattutto in seguito a questi eventi che l'Amministrazione statunitense creò sollecitamente l'Advanced Research Projects Agency (ARPA), una struttura interna al Dipartimento della Difesa, con l'intenzione esplicita di ristabilire il primato americano nelle scienze applicate al settore militare. Per ovviare a un attacco atomico quindi, i migliori cervelli della Rand Corporation, il più avanzato “think-tank” (contenitore di pensiero) americano ai tempi della guerra fredda [come raccontato nel film a Beautifull Mind, sulla vita del matematico John Nash], presero così ad arrovellarsi su un'incognita apocalittica: “Come avrebbero potuto, i centri nevralgici del Paese, comunicare dopo una guerra nucleare?” La domanda era tragica e grottesca allo stesso tempo: “d’altronde, si diceva, per quanto si corazzasse una rete di comunicazione tradizionale, i suoi commutatori e i suoi cavi sarebbero stati sempre vulnerabili a un attacco atomico. Il centro di quel sistema sarebbe diventato immediatamente il bersaglio strategico principale dei nemici che, colpendolo, avrebbero messo in ginocchio irreparabilmente la nazione”. Nel 1964 Paul Baran, una delle intelligenze di spicco del centro studi, a propone una risposta in un report dal titolo On Distributed Communications Networks: innanzitutto la rete non doveva avere alcuna autorità centrale e avrebbe dovuto essere concepita, sin dall’inizio, in modo da operare in un contesto di instabilità. Perché questo avvenisse era assolutamente necessario che tutti i nodi fossero indipendenti, avessero una pari gerarchia e fossero capaci di originare, passare e ricevere i messaggi. I messaggi a loro volta sarebbero stati scomposti in pacchetti opportunamente targati per non perdersi lungo la via e ogni pacchetto separatamente indirizzato verso la propria destinazione. Soltanto una volta raggiunta la meta finale i diversi moduli sarebbero stati finalmente ricomposti. La strada da percorrere era una loro scelta, suggerita da una serie di computer appositamente programmati per monitorare tutti gli snodi e incanalare i dati lungo le vie più sgombre e sicure. Se per qualsiasi motivo si fosse verificato un blocco lungo una della arterie della rete, il pacchetto sarebbe stato immediatamente re-indirizzato per una strada meno accidentata. Come spiegò Bruce Sterling, “Fondamentalmente il pacchetto sarebbe stato scaricato come una patata bollente da un nodo all’altro, più o meno in direzione della sua destinazione finale, sino a quando non avesse raggiunto la sua giusta meta. Questo sistema di consegna piuttosto azzardato può certamente essere definito inefficiente nell'accezione classica di questo termine (specialmente se confrontato, ad esempio, al sistema telefonico) ma è di certo estremamente resistente”. Quindi, il problema che il Dipartimento della Difesa statunitense si trovò a dover risolvere fu quello di ideare, in qualche modo, un sistema atomicamente “invulnerabile” e quindi (strutturalmente parlando) per forza di cose “acefalo”. Vale a dire che la rete non poteva avere un “cervellone centrale”, “quartier generale” che dirigesse e coordinasse le altre unità ad esso facenti capo. Internet, insomma, nasce come una strumento bellico che però deve per forza rinunciare alla strutturazione gerarchica militare classica. Tale organizzazione tradizionale pur essendo molto

Page 48: Storia Dei Nuovi Media - Dispense

Nuova.Accademia.Belle.Arti – Milano - Corso di Diploma in Media Design - Storia e tecnica dei media –

- 48 -

pratica ed efficiente, se applicata nell'ambito della trasmissione dell'informazione, risulta essere molto vulnerabile. Pertanto ogni unità avrebbe dovuto trovarsi “sullo stesso piano” di una qualsiasi altra componente della rete, e soprattutto avrebbe dovuto essere in grado di funzionare a prescindere dall’efficienza o addirittura dalla sussistenza dalle altre. Questo avrà delle conseguenze essenziali: ogni unità sarà dotata “una vita propria” che non verrà pregiudicata dall'eventuale morte di alcune “sorelle”. La commutazione di pacchetto prevede che i dati diretti verso una certa destinazione vengano spezzati in piccole parti, ognuna con il proprio indirizzo di destinazione. Packet switching e routing consentono la creazione una rete dove più utenti condividono la stessa linea di comunicazione e i dati vengono automaticamente dirottati su un percorso alternativo nel caso di computer e/o circuiti non operativi : una rete che ha l’essenziale caratteristica di poter continuare a funzionare anche in caso di attacco nucleare. In questo modo la trasmissione del messaggio sarebbe stata garantita ad ogni costo, e l’efficienza delle trasmissioni di ordini ed informazioni alle particelle militari, assicurata. I primi “main frame” in Rete Nel 1969 un contratto dell'ARPA (Advanced Research Projects Agency) col mondo universitario, collegava 4 grandi computer nelle università del sud-ovest degli Stati Uniti:

1. UCLA (University of California at Los Angeles) 2. Stanford Research Institute 3. UCSB (Univesity of California at Santa Barbara) 4. University of Utah.

Nel 1970 si aggiunsero MIT, Harvard ed altre. All'inizio, Internet veniva usato da esperti di computer, tecnici e scienziati. Non era facile da usare. A quei tempi non c'erano i PC, e chiunque lo usasse, professionista, tecnico o scienziato che fosse, si trovava a che fare con un sistema molto complesso. La velocità dei collegamenti negli anni ’70 era di 56k bps (bit per second) Il Protocollo TCP/IP e lo sviluppo di Internet Nel 1970 NCP (Network Control Protocol) in cui le macchine, sia pure con sistemi operativi differenti, devono parlare la stessa lingua, che si fonda sul packet-switching. Nel 1982 gli scienziati Vinton Cerf e Bob Khan ne forniscono una versione più raffinata, nota come TCP (Transmission Control Protocol). Un codice di comunicazione che funziona in due fasi: seziona all'origine i messaggi in diversi pacchetti, per poi ricomporli in unità una volta arrivati a destinazione. Siccome la comunicazione nella rete avveniva sempre tra un computer chiamato "sorgente" e uno chiamato "destinazione", non è difficile convincersi della necessità di pensare al modo in cui i computer potessero comunicare. Nacque così il Protocollo Internet (IP), un oggetto che garantiva la comunicazione all'interno della rete. Questo protocollo era particolarmente interessante visto che non richiedeva che i computer collegati dovessero essere tutti dello stesso tipo, il che significava che ogni persona nel network poteva acquistare un qualsiasi tipo di computer ed avere la possibilità di comunicare con calcolatori di tipo diverso. Già da qui si vede la potenza della rete: non si hanno limitazioni dettate dal tipo di hardware da utilizzare, si ha infatti un metodo di comunicazione molto pratico ed efficace.