Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

47
L’INFORMATICA GIURIDICA E LE TECNOLOGIE DELL’INFORMAZIONE INTRODUZIONE L’informatica giuridica è la disciplina che studia gli aspetti giuridici della rivoluzione tecnologica , economica e socia- le prodotta dall’informatica (l’informazione automatica), cioè studia quella che si dice informatizzazione. Possiamo notare che tale rivoluzione ha un doppio impatto sul diritto: - determina nuove opportunità ma anche nuovi rischi per l’economia, la politica e la vita individuale-sociale, aspetti che richiedono un intervento giuridico. - modifica il lavoro del giurista, che sempre di più si avvale di strumenti informatici. L’informatica giuridica presenta due facce: - l’informatica del diritto, cioè l’uso dell’informatica nelle attività giuridiche. - il diritto dell’informatica, cioè la disciplina giuridica dell’informatizzazione. CAPITOLO 1: Il diritto e la società dell’informazione 1) La società dell’informazione Nel corso degli ultimi decenni abbiamo assistito ad una intensa rivoluzione tecnologica, economica e sociale, caratterizzata dal passaggio dalla società industriale alla società dell’informazione. Così come l’industrializzazione (l’impiego delle macchine nell’elaborazione della materia) determinò il passaggio dalla società agricola alla società industriale, co l’informatizzazione (l’impiego delle macchine nell’elaborazione di informazioni) sta determinando la formazione di un nu o- vo modello sociale, la società dell’informazione. È possibile cogliere analogie e differenze tra la rivoluzione industriale e quella informatica: - entrambe le rivoluzioni hanno posto nuovi problemi e richiesto un nuovo diritto. Diritto del lavoro, della previdenza sociale, dell’impresa, dell’ambiente, ecc, la rivoluzione industriale. Diritto dei dati, dei documenti elettronici, ecc, la rivoluzione informatica. - le due rivoluzioni, invece, sono assai diverse per quanto attiene al loro impatto sui modi in cui si svolge il lavoro del giurista: a questo riguardo fu molto limitato l’impatto della rivoluzione industriale, profondo e pervasivo è quello della rivoluzione informatica. La rivoluzione industriale lasciò immutati gli strumenti di lavoro del giurista, infatti l’automazione dei processi di manipolazione della materia non può avere impatti sul lavoro giuridico, poiché esso non consiste nel costruire oggetti materiali ma nell’elaborare informazioni. La rivoluzione informatica, invece, atte- nendo all’elaborazione delle informazioni, incide direttamente sull’attività del giurista. - i nuovi aspetti della rivoluzione industriale poterono essere disciplinati con relativa autonomia da parte dei diversi ordinamenti statali invece la risposta giuridica all’informatizzazione, un fenomeno di portata mondiale, non può es- sere confinata ad un solo ordinamento statale, ma le soluzioni giuridiche adottate devono coordinarsi per adattarsi alla dimensione globale dell’informatizzazione. Diversi sono gli aspetti della società dell’informazione e delle nuove tecnologie: - operano su informazioni di input producendo informazioni di output, cioè producono informazioni per mezzo di in- formazioni (l’informazione è la loro materia prima). - favoriscono l’interconnessione. - sono flessibili, nel senso che sono riprogrammabili e permettono di riorganizzare continuamente i sistemi tecnologi- co-organizzativi ed i loro collegamenti. - tendono alla convergenza, cioè tendono a formare un unico insieme di dispositivi che comunicano. - gli effetti delle nuove tecnologie sono pervasivi, perché incidono su ogni aspetto della vita individuale e sociale. Si parla anche di società della rete (network society) per indicare il nuovo tipo di organizzazione sociale ed economica re- so possibile dalle tecnologie dell’informazione, un modello in cui le attività produttive e culturali prescindono ampiamente dalle distanze geografiche ed in cui le interazioni personali possono essere distribuite su tutte la terra. L’inclusione delle per- sone nei rapporti sociali ed economici è determinata dalla loro possibilità di inserirsi nei diversi flussi d’informazione: c olo- ro che concorrono a determinare i contenuti e le direzioni dei flussi d’informazione sono detti networker, mentre colore che

Transcript of Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

Page 1: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

L’INFORMATICA GIURIDICA E LE TECNOLOGIE

DELL’INFORMAZIONE

INTRODUZIONE L’informatica giuridica è la disciplina che studia gli aspetti giuridici della rivoluzione tecnologica, economica e socia-le prodotta dall’informatica (l’informazione automatica), cioè studia quella che si dice informatizzazione. Possiamo notare che tale rivoluzione ha un doppio impatto sul diritto:

- determina nuove opportunità ma anche nuovi rischi per l’economia, la politica e la vita individuale-sociale, aspetti che richiedono un intervento giuridico.

- modifica il lavoro del giurista, che sempre di più si avvale di strumenti informatici. L’informatica giuridica presenta due facce:

- l’informatica del diritto, cioè l’uso dell’informatica nelle attività giuridiche. - il diritto dell’informatica, cioè la disciplina giuridica dell’informatizzazione.

CAPITOLO 1: Il diritto e la società dell’informazione 1) La società dell’informazione Nel corso degli ultimi decenni abbiamo assistito ad una intensa rivoluzione tecnologica, economica e sociale, caratterizzata dal passaggio dalla società industriale alla società dell’informazione. Così come l’industrializzazione (l’impiego delle macchine nell’elaborazione della materia) determinò il passaggio dalla società agricola alla società industriale, così l’informatizzazione (l’impiego delle macchine nell’elaborazione di informazioni) sta determinando la formazione di un nuo-vo modello sociale, la società dell’informazione. È possibile cogliere analogie e differenze tra la rivoluzione industriale e quella informatica:

- entrambe le rivoluzioni hanno posto nuovi problemi e richiesto un nuovo diritto. Diritto del lavoro, della previdenza sociale, dell’impresa, dell’ambiente, ecc, la rivoluzione industriale. Diritto dei dati, dei documenti elettronici, ecc, la rivoluzione informatica.

- le due rivoluzioni, invece, sono assai diverse per quanto attiene al loro impatto sui modi in cui si svolge il lavoro del giurista: a questo riguardo fu molto limitato l’impatto della rivoluzione industriale, profondo e pervasivo è quello della rivoluzione informatica. La rivoluzione industriale lasciò immutati gli strumenti di lavoro del giurista, infatti l’automazione dei processi di manipolazione della materia non può avere impatti sul lavoro giuridico, poiché esso non consiste nel costruire oggetti materiali ma nell’elaborare informazioni. La rivoluzione informatica, invece, atte-nendo all’elaborazione delle informazioni, incide direttamente sull’attività del giurista.

- i nuovi aspetti della rivoluzione industriale poterono essere disciplinati con relativa autonomia da parte dei diversi ordinamenti statali;; invece la risposta giuridica all’informatizzazione, un fenomeno di portata mondiale, non può es-sere confinata ad un solo ordinamento statale, ma le soluzioni giuridiche adottate devono coordinarsi per adattarsi alla dimensione globale dell’informatizzazione.

Diversi sono gli aspetti della società dell’informazione e delle nuove tecnologie:

- operano su informazioni di input producendo informazioni di output, cioè producono informazioni per mezzo di in-formazioni (l’informazione è la loro materia prima).

- favoriscono l’interconnessione. - sono flessibili, nel senso che sono riprogrammabili e permettono di riorganizzare continuamente i sistemi tecnologi-

co-organizzativi ed i loro collegamenti. - tendono alla convergenza, cioè tendono a formare un unico insieme di dispositivi che comunicano. - gli effetti delle nuove tecnologie sono pervasivi, perché incidono su ogni aspetto della vita individuale e sociale.

Si parla anche di società della rete (network society) per indicare il nuovo tipo di organizzazione sociale ed economica re-so possibile dalle tecnologie dell’informazione, un modello in cui le attività produttive e culturali prescindono ampiamente dalle distanze geografiche ed in cui le interazioni personali possono essere distribuite su tutte la terra. L’inclusione delle per-sone nei rapporti sociali ed economici è determinata dalla loro possibilità di inserirsi nei diversi flussi d’informazione: colo-ro che concorrono a determinare i contenuti e le direzioni dei flussi d’informazione sono detti networker, mentre colore che

Page 2: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

accedono passivamente all’infrastruttura tecnologico-informativa sono detti networked. Si usa il termine digital divide (di-vario digitale) per indicare la contrapposizione tra chi è in grado di utilizzare le tecnologie dell’informazione e chi invece non è in grado di farlo. La capacità di incidere sui flussi di informazione, peraltro, dipende anche da altri fattori: i ruoli so-ciali, le competenze professionali, i livelli culturali, le risorse economiche (secondo alcuni le nuove tecnologie riducono le disuguaglianze, mentre secondo altri tendono ad accentuarle). La società dell’informazione tende a realizzare il famose detto del filosofo George Berkeley, “esistere è essere percepito”. Nel nostro caso potremmo dire che “esistere è essere percepiti dai sistemi informatizzati”. Ovviamente gli eventi della realtà umana e sociale mantengono anche nella società dell’informazione la propria concretezza, tuttavia tali eventi produ-cono le conseguenze sociali loro proprie (hanno cioè effettività sociale) solo attraverso la loro rappresentazione informatica: gli eventi sociali vengono rappresentati in sistemi informatizzati e tale rappresentazione determina processi economici, am-ministrativi, politici, processi che possono modificare la realtà stessa. In particolare, gran parte della attività dotate di impli-cazioni giuridiche (nell’economia i pagamenti, nella pubblica amministrazione l’irrogazione di sanzioni, ecc) vengono oggi rappresentate nei sistemi informatici, e sulla base di tali rappresentazioni vengono attivate le attività consequenziali (l’invio della merce, l’invito a pagare una contravvenzione, ecc). Non è stata certo l’informatica ad avere inventato dati, registri ed archivi;; tuttavia, nella società dell’informazione il rapporto tra gli eventi e le loro rappresentazioni simboliche si pone in modo profondamente diverso, per due ragioni:

- l’enorme crescita della quantità di informazioni disponibili, consentita dall’economicità del trattamento informatico dei dati rispetto al trattamento manuale. Nell’epoca preinformatica la gestione dell’informazione richiedeva la scrit-tura su supporto cartaceo, la conservazione in ampi spazi e la ricerca; oggi i dati sono registrati su supporti informa-tici, sono conservati in spazi ridottissimi e possono essere estratti automaticamente.

- i sistemi informatici facilitano l’impiego delle informazioni raccolte e quindi ne accrescono l’incidenza sulla vita;; nell’epoca preinformatica era invece necessario l’intervento dell’uomo per registrare mediante la scrittura i fatti so-ciali, per elaborare quei dati estraendone conoscenze utili e per adottare qualsiasi azione sulla base di tali dati.

Dalla crescente importanza della rappresentazione informatizzata dei fatti individuali e sociali discendono alcune esigenze fondamentali:

- assicurare all’individuo il controllo sulla propria rappresentazione informatizzata (la privacy). - garantire la sicurezza dei sistemi e dei dati che essi contengono (se si fermano i sistemi informatici, le dinamiche so-

ciali sono oggi paralizzate, giacché la società odierna è fortemente dipendente dal funzionamento dei calcolatori). - prevenire le frodi informatiche. - consentire l’accesso ai dati pubblici. - assicurare l’autenticità e l’integrità dei documenti informatici.

Per raggiungere tali scopi l’intervento del diritto è sicuramente necessario. Nella società dell’informazione l’individuo acquista nuove capacità, grazie a svariati strumenti informatici che potenzia-no ed integrano le sue capacità naturali. Le tecnologie dell’informazione non si limitano a fornire al singolo le informazioni e le elaborazioni di cui ha bisogno nella vita privata e professionale, ma mediano e talvolta sostituiscono le interazioni per-sonali. Grazie a tali tecnologie l’individuo acquista nuove opportunità di relazioni sociali, e di conseguenza egli tende a staccarsi dalle comunità geografiche di appartenenza. La società dell’informazione si caratterizza per la presenza di tendenze apparentemente contrastanti: da un lato le nuove possibilità aperte dalla tecnologia dell’informazione esaltano il ruolo dell’individuo e la sua autonomia nel creare e comunicare nuovi contenuti, mentre dall’altro l’individuo sperimenta la pro-pria solitaria impotenza di fronte all’enorme quantità dei contenuti accessibili. L’informatizzazione ha investito tanto il settore economico quanto quello politico ed amministrativo. Come l’informatizzazione di un’organizzazione economica investe tanto le attività produttive e gestionali interne (il back office), quanto le interazioni con i clienti e fornitori (il front office), così l’informatizzazione delle organizzazioni pubbliche investe tanto i processi politici ed amministrativi interni, quanto le interazioni con i cittadini, le imprese, gli enti pubblici e privati. Ricordiamo in particolare:

- e-commerce (commercio elettronico): effettuazione di scambi commerciali utilizzando reti telematiche. - e-governance (direzione elettronica): uso delle tecnologie dell’informazione nella direzione, pianificazione e con-

trollo delle organizzazioni pubbliche e private. - e-government (governo elettronico): uso delle tecnologie dell’informazione nella gestione degli enti pubblici e

nello svolgimento delle loro funzioni. - e-democracy (democrazia elettronica): uso dell’informatica nella comunicazione politica e nel dibattito pubblico. - e-partecipation (partecipazione elettronica): uso delle tecnologie dell’informazione all’esterno delle strutture

pubbliche per partecipare alla vita politica. Nella società dell’informazione si manifesta il cosiddetto effetto di rete (network effect): quanto più una rete è ampia ed intensamente sfruttata, tanto più quella rete acquista valore, cioè, tanto maggiore diventa l’utilità che ciascuno può trarre da essa. Ciò vale in particolare per le reti usate nella comunicazione: quante più persone usano una certa rete, come la rete telefonica o Internet, tante più persone sono raggiungibili mediante la stessa rete, e quindi tanto più utile è per ciascu-no partecipare ad essa. Possiamo notare come l’effetto di rete caratterizza anche la rete che si instaura tra gli utenti e gli svi-

Page 3: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

luppatori che adottano certi software o certi prodotti: ad esempio, il software elaboratore di testi Microsoft Word è usato dal-la grandissima maggioranza degli utenti, poiché questi debbono frequentemente scambiarsi documenti elettronici, e tali scambi sono facilitati dall’impiego del medesimo elaboratore di testi (i documenti che il mittente invia possono essere utiliz-zati dal ricevente senza la necessità di conversioni). Crescendo l’utilità della rete per i singoli, tanti più singoli si collegano alla rete stessa, il che accresce ancora di più l’utilità della rete per il singolo partecipante, e quindi aumenta l’incentivo a fare parte della rete per chi non si sia ancora collegato. Di conseguenza, le reti solitamente si avviano lentamente, ma quando una rete ha successo, e cioè supera la soglia critica al di là della quale l’utilità per l’utilizzatore supera nettamente i costi della partecipazione, la crescita diventa sempre più accelerata. Secondo la legge di Metcalfe, l’utilità che ciascun utente può trarre da una rete è proporzionale al quadrato del numero degli utenti. Anche se l’effetto di rete non si verifica solo nel campo dell’informatica, tale effetto è potenziato da alcune caratteristiche dell’informatica stessa:

- le tecnologie dell’informazione sono caratterizzate da costi fissi molti alti e costi marginali molto bassi. Per rea-lizzare la prima copia di un nuovo prodotto bisogna sostenere costi molto elevati (i costi di progettazione e svilup-po), ma la produzione di ulteriori copie dello stesso prodotto ha in generale costi bassissimi (nel caso del software il costo della produzione di una ulteriore copia si avvicina allo zero). Di conseguenza, chi controlla una parte più am-pia del mercato è avvantaggiato, poiché può suddividere i propri costi fissi tra una base più ampia di utenti, e quindi può offrire il proprio prodotto ad un prezzo più basso.

- passare dall’una all’altra soluzione informatica comporta costi elevati, e di conseguenza l’utente tende a diventare prigioniero della tecnologia che ha adottato (lock-in).

L’effetto di rete può dare luogo a fenomeni importanti sul mercato dell’informatica: - la tendenza monopolistica, intesa come monopolio orizzontale (gli utenti tendono a convergere sull’uso di poche

soluzioni tecnologiche, che rappresentano le reti più estese, come ad esempio Windows, iPhone, Google, ecc) e monopolio verticale (che domina un certo settore tende ad estendere il proprio controllo anche sui settori connessi). A questo riguardo, negli anni scorsi, si è discusso del comportamento commerciale di Microsoft che, sulla base del proprio assoluto dominio nel campo dei sistemi operativi per PC, aveva acquisto una posizione dominante anche nel campo dei software per l’elaborazione di testi e la navigazione su Internet; Microsoft, rifiutandosi di fornire le in-formazioni necessarie per l’interoperabilità tra i propri prodotti e quelli sviluppati da altre aziende, era stata accusata di abuso della propria posizione dominante.

- il fatto che ogni produttore ha interesse ad anticipare il più possibile il rilascio di nuovi prodotti, perché se un prodotto riesce ad acquistare un’ampia diffusione sul mercato prima dell’arrivo dei prodotti concorrenti, l’effetto di rete giocherà a suo favore (ciò spiega perché vengano spesso diffusi prodotti ancora prematuri, ricchi di errori ed imperfezioni).

- l’asimmetria nell’informazione, cioè la differenza tra le conoscenze possedute da chi fornisce un prodotto e da chi lo utilizza (chi fornisce un prodotto informatico normalmente ha maggiori conoscenze di chi lo utilizza). Tale situa-zione può pregiudicare i consumatori, ma può altresì incidere sul corretto funzionamento dei mercati: - si avrà un mercato dei limoni: se l’utilizzatore non è in grado di distinguere i prodotti che hanno buone prestazio-ni di quelli che hanno prestazioni peggiori, i prodotti scadenti tenderanno a prevalere, in quanto preferiti dai consu-matori in ragione del loro prezzo più basso. - si avrà una situazione di selezione avversa: quando l’utente non è in grado di distinguere servizi buoni e servizi scadenti, i fornitori possono dotarsi di un indice di qualità non veritiero, in particolare i peggiori fornitori saranno maggiormente interessati ad avere una falsa reputazione per nascondere la bassa qualità dei loro servizi.

L’economia della società dell’informazione è anche caratterizzata da tendenze di diversificazione dei prodotti e dall’apertura dei mercati:

- grazie ai bassi costi di distribuzione è possibile commercializzare anche prodotti di nicchia, cui è interessata solo una frazione molto ristretta del mercato (questo è il fenomeno della coda lunga, long tail). Realizzare e commercia-lizzare prodotti destinati ad una scarsissima diffusione diventa conveniente solo quando i costi della distribuzione di quei prodotti si mantengano molto bassi, come avviene nella distribuzione mediante Internet. Per esempio, un’ampia quota delle vendite dei siti che forniscono film o musica on-line è rappresentata da prodotti di nicchia, normalmente non disponibili nei negozi, che solo mediante Internet possono essere commercializzati con profitto.

- il diminuito rilievo del capitale fisico, cioè delle macchine, rispetto al contributo umano. Gli elevati costi dei mac-chinari dell’economia industriale limitavano l’attività produttiva alle organizzazioni che disponevano del capitale necessario ad acquistare i dovuti macchinari, ed inoltre richiedevano che i prodotti fossero commercializzati a prezzi di mercato idonei a coprire tali costi. Nell’economia dell’informazione, invece, gli strumenti di produzione sono ge-neralmente accessibili a basso costo; diventano così possibili nuovi modi di produzione commerciale, nei quali pro-getti di ampie dimensioni possono attuarsi mediante la partecipazione decentrata di individui o piccole unità produt-tive (allargamento del mercato).

2) Il diritto nella società dell’informazione L’uso delle nuove tecnologie determina mutamente sociali, i quali richiedono una nuova disciplina giuridica. Il diritto non si limita a reagire alle trasformazioni indotte dalle tecnologie, ma contribuisce a determinare i modi dell’utilizzo delle

Page 4: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

tecnologie informatiche (ad esempio, la disciplina della protezione dei dati incide sulle soluzioni tecnologiche adottate nel-le attività amministrative). L’informatica del diritto ricopre i seguenti settori:

- fonti di cognizione del diritto (documentazione giuridica informatica). Si realizzano fonti elettroniche di cognizio-ne del diritto: la legislazione, la giurisprudenza e la dottrina sono trasferite in banche dati, i cui contenuti possono essere selezionati ed estratti automaticamente. Si sviluppano nuovi metodi per la ricerca delle informazioni giuridi-che, e sulla base dei testi originali si producono automaticamente nuove forme testuali rispondenti alle esigenze del giurista.

- sistemi informativi giuridici. Diversi modi nei quali le organizzazioni giuridiche (gli organi legislativi, i tribunali, le pubbliche amministrazioni, ecc) possono avvalersi dell’informatica per conservare, estrarre, elaborare, condivide-re e fare circolare le informazioni.

- redazione di documenti. Si predispongono software che agevolano la creazione di documenti giuridici in genere. - prove informatiche. Si individuano tecniche per gli accertamenti che riguardano oggetti informatici (come le me-

morie elettroniche), o sono effettuati mediante strumenti informatici (come le intercettazioni telefoniche). - apprendimento elettronico del diritto. Si studia l’uso delle tecnologie informatiche nell’insegnamento del diritto. - modelli informatici del diritto. Si traducono in modelli precisi le strutture della conoscenza giuridica (regole, casi,

fattori, principi, concetti, ecc). - determinazioni giuridiche. Si realizzano sistemi informatici che agevolano la qualificazione giuridica dei casi con-

creti, applicando in modo interattivo o automatico le conoscenze giuridiche. - deontologia ed epistemologia. Si studia l’impatto delle tecnologie sulla pratica del diritto: come dobbiamo usare il

diritto nell’informatica? come cambia la comprensione del diritto in seguito all’uso dell’informatica? Le realizzazioni informatiche sono destinate ad essere applicate in diversi ambiti del diritto:

- informatica legislativa. - informatica giudiziaria. - informatica amministrativa. - informatica delle professioni giuridiche.

L’informatica del diritto può svolgere diverse funzioni nelle attività e nella cultura del giurista: - accrescere l’efficienza del lavoro giuridico, in quanto offre al giurista alcuni strumenti per svolgere prima e me-

glio alcuni aspetti del proprio lavoro. - la razionalizzazione e riorganizzazione delle attività giuridiche, ricordiamo infatti che l’utilità dell’informatica

resta limitata se le attività giuridiche continuano a svolgersi secondo forme preinformatiche. - l’efficacia assiologia (dal greco “axios”, “che ha valore”), giacché le tecnologie informatiche possono efficacemen-

te contribuire a fondamentali valori giuridici come la certezza del diritto, la partecipazione informata alle scelte pubbliche, la comunicazione tra i professionisti del diritto, ecc.

- formare l’autocoscienza del giurista, il quale, quando è chiamato ad applicare le tecnologie informatiche al servi-zio dei valori giuridici, o quando simula il modo in cui si accosterebbe a casi ipotetici, è altresì portato ad interrogar-si sulla natura del diritto e sul modo in cui avviene la trattazione dei problemi giuridici.

Il diritto dell’informatica dovrebbero svolgere le seguenti funzioni:

- prevenire l’uso delle tecnologie informatiche contro i valori giuridici (per esempio, per restringere la libertà dei singoli o per causare danni ai loro beni).

- risolvere i conflitti di interessi inerenti all’impiego di tecnologie informatiche (per esempio, il conflitto di inte-ressi tra creatori e utilizzatori di software).

- promuovere l’uso dell’informatica per realizzare i diritti individuali e le esigenze sociali. Nel diritto dell’informatica si possono distinguere i seguenti profili:

- proprietà intellettuale informatica. La fruizione dei beni informatici immateriali (quali o programmi per calcola-tore e l opere d’ingegno digitalizzate) viene disciplinata nel tentativo di conciliare gli interessi dei produttori e degli utilizzatori di tali beni, di favorire lo sviluppo dell’economia della conoscenza ma anche la diffusione del sapere.

- tutela dei dati. Il trattamento dei dati personali, cioè l’elaborazione delle informazioni che riguardano gli individui, è divenuto oggetto di regolazione giuridica. Il diritto cerca di bilanciare la tutela della libertà e della dignità dei sin-goli con il diritto di informazione e di comunicazione.

- documenti digitali. Il diritto ha stabilito le condizioni per la validità giuridica dei documenti digitali e delle firme elettroniche; il diritto disciplina inoltre l’uso di documenti e supporti informatici quali elementi di prova.

- presenza virtuale. Il diritto cerca di disciplinare la presenza di individui e organizzazioni nel mondo virtuale della rete (in particolare, ha affrontato l’uso dei nuovi segni distintivi impiegati nelle reti informatiche, quali i nomi di dominio, e ha disciplinato il loro rapporto con i tradizionali segni distintivi della persona e dell’impresa).

- commercio elettronico. Il diritto disciplina la formazione e l’esecuzione dei contratti telematici, nonché lo svolgi-mento delle attività economico-giuridiche attraverso Internet.

- governo elettronico. Il diritto disciplina l’impiego dell’informatica nelle strutture pubbliche e nei rapporti di queste con i cittadini, al fine di accrescere l’efficienza degli apparati pubblici.

Page 5: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

- reati informatici. Il diritto penale sanziona i reati che riguardano beni informatici o sono commessi mediante stru-menti informatici (le frodi informatiche, il danneggiamento informatico, la diffusione di virus, ecc).

- informatica e Costituzione. L’informatizzazione incide sull’esercizio delle libertà fondamentali, sulla relazione tra cittadino e poteri pubblici, sull’equilibrio tra i poteri dello Stato e sul rapporto tra Stato, regioni ed enti territoriali. Di qui l’esigenza che la regolamentazione giuridica delle libertà costituzionali e delle istituzioni tenga conto dei ri-schi derivanti dall’informatica, ma anche delle opportunità che essa offre per lo sviluppo delle libertà individuali e della democraticità ed efficienza delle istituzioni.

Possiamo vedere come lo studio di questi temi presuppone la conoscenza dei metodi e delle tecnologie dell’informatica, una conoscenza che è precondizione necessaria per poter correttamente interpretare le norme giuridiche. Inoltre, in taluni settori, le questioni del diritto dell’informatica sono strettamente connesse con quelle dell’informatica del diritto: ciò avviene quan-do il diritto regoli l’uso dell’informatica in certe attività giuridiche. 3) Breve storia dell’informatica del diritto La ricerca dei precursori dell’informatica giuridica potrebbe spingersi assai indietro nel tempo, in particolare Gottfried Leibniz già nel 17° secolo avanzava l’idea del ragionamento quale tecnica calcolabile (cioè eseguibile mediante calcoli nu-merici). Se ci limitiamo invece agli studiosi che espressamente si richiamano alle moderne tecnologie dell’informazione, possiamo trovare l’idea dell’informatica giuridica in alcuni contributi pubblicati nella seconda metà degli anni ’40. Si usa indicare Lee Loevinger come il fondatore dell’informatica giuridica, il quale nel 1.949 propose l’uso del termine giurimetria per indicare un nuovo modo di accostarsi al diritto, ispirato al metodo scientifico. Aspetto essenziale della giurimetria, accanto all’uso di tecniche logiche e matematiche nella trattazione dei problemi giuridici, è l’impiego di strumenti informatici per elaborare dati giuridici (soprattutto al fine di prevedere decisioni future alla luce dei precedenti e dei comportamenti dei giu-dici). Negli anni ’50 alle intuizioni fanno seguito le prime proposte operative e le prime realizzazioni. Nel 1.956 ha luogo la pri-ma digitalizzazione delle fonti del diritto, presso il Centro di Diritto Sanitario (Health Law Center) dell’Università di Pit-tsburgh. Il problema che il legislatore della Pennsylvania deve risolvere attiene alla correttezza politica ed in particolare all’esigenza di evitare l’uso di espressioni avvertite come offensive o umilianti da parte degli interessati: bisogna sostituire in tutta la legislazione dello Stato della Pennsylvania il termine “bambino ritardato” con il termine “bambino particolare”. In considerazione del fatto che la lettura dei testi da parte dell’uomo non garantisce l’esatto compimento di tutte le sostituzioni, si decide di ricorrere all’informatica: si registra tutta la normativa in materia di sanità su un supporto leggibile dal calcolato-re (schede perforate) e si affida al calcolatore il compito di individuare i punti nei quali compariva il termine da sostituire. La prima applicazione dell’informatica giuridica attiene quindi alla redazione di un nuovo testo legislativo. Tuttavia, una volta che i dati sono disponibili su un supporto magnetico, si ha l’idea di utilizzarli quale fonte elettronica di cognizione del diritto nella ricerca giuridica: anziché limitarsi a chiedere al sistema di estrarre i testi che contengono il termine “bambino ritardato”, è possibile chiedere ad esso di estrarre i testi che contengano una qualsiasi parola. Nasce così il primo strumento per la ricerca giuridica in testo integrale, mentre gli indici tradizionali consentivano di individuare nel testo le sole pagine che contengono i termini scelti dall’autore dell’indice, il calcolatore consente di ricercare i contesti dove compare qualsiasi parola il ricercatore ritenga significativa. Nel corso degli anni ’60 e ‘70 si moltiplicano le iniziative nel campo dell’informatica giuridica (si ha anche la nascita delle prime riviste e volumi in materia). Negli USA entrano in funzione i primi sistemi commerciali gestiti da privati per la ricerca informatizzata dei testi giuridici. In Europa, invece, sono i pubblici poteri a prendere le prime iniziative nel campo della in-formatizzazione delle fonti di cognizione del diritto. In particolare in Italia:

- nella seconda metà degli anni ’60 ha inizio l’esperienza del sistema Italgiure, presso l’Ufficio Massimario della Corte di Cassazione (un progetto tutt’ora attivo).

- vengono create banche dati del Senato e della Camera dei deputati. - negli anni ’70 vengono create le prime banche dati della pubblica amministrazione, in particolare nell’ambito

dell’amministrazione finanziaria. Iniziano anche le prime esperienze sull’automazione degli uffici giuridici. Durante gli anni’70 l’informatica giuridica si arricchisce di un’ulteriore dimensione, rappresentata dagli studi di intelligenza artificiale e diritto. Negli anni ’80 e ’90 l’informatica giuridica passa dai primi prototipi sperimentali alle realizzazioni operative utilizzate da una larga parte degli operatori del diritto. Tale passaggio è stato facilitato da due grandi innovazioni: il PC (il calcolatore a basso costo destinato all’uso individuale) e la telematica (la congiunzione tra informatica e telecomunicazioni). Il PC si dif-fonde in ogni ambito della vita sociale (all’inizio il suo utilizzo si limitava a funzionalità non specificatamente giuridiche). Esso facilita la distribuzione delle banche dati informatiche, perché può essere usato per accedere ad esse senza la necessità di terminali a ciò dedicati; a questo riguardo ha grande importanza la disponibilità di nuovi strumenti telematici per la co-municazione a distanza: grazie al modem, che trasforma i segnali informatici in onde che viaggiano su linee telefoniche, o-

Page 6: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

gni cavo telefonico può essere usato per collegarsi a calcolatori remoti. La crescita della cerchia degli utenti dà grande im-pulso allo sviluppo delle banche di dati giuridici. Negli anni ’80 l’informatizzazione della pratica del diritto si estende al di là della ricerca delle fonti: sono sviluppati numerosi software per la gestione degli studi legali e notarili e negli uffici giudi-ziari si hanno alcune esperienze nella gestione informatizzata dei registri di cancelleria. Accanto alle realizzazioni pratiche crescono anche gli studi teorici sull’informatica giuridica e, sempre negli anni ’80, ha inizio l’attività didattica di tale mate-ria. All’inizio degli anni ’90 si diffondono i CD (compact disk, disco compatto), supporti ottici dotati di capacità di memo-rizzazione molto elevata a fronte di un costo molto basso: essi possono essere usati sui normali PC senza la necessità di col-legamenti telematici. Le opere già disponibili su supporto cartaceo possono essere ora trasferite su disco compatto, e di con-seguenza possono essere riprodotte e distribuite a costi molto inferiori. Le fonti di cognizione elettroniche del diritto si e-stendono quindi al di là della giurisprudenza (in massime) e della legislazione, diventano accessibili in formato elettronico anche articoli di dottrina e sentenze in testo integrale. Nella seconda metà degli anni ’90 si verifica un’ulteriore importante rivoluzione nell’informatica giuridica, rappresentata dall’avvento di Internet. Le fonti elettroniche del diritto possono tra-sferirsi sulla rete e diventare accessibili a tutti, Internet diventa progressivamente la principale fonte di cognizione del dirit-to. La rete, in particolare grazie alla posta elettronica, viene utilizzata dagli operatori del diritto quale mezzo di comunica-zione. Gli studi notarili si dotano di una loro rete telematica, con elevate prestazioni di sicurezza, ed utilizzano la rete per trasmettere informazioni ai registri immobiliari e delle imprese. Gli enti pubblici utilizzano sempre più la rete per presentare sé stessi e per dare informazioni ai cittadini, comunicare con i soggetti interessati, fornire talune prestazioni, ecc. Con l’inizio del nuovo millennio l’informatica del diritto si è ulteriormente arricchita. Ormai essa si estende al di là della documentazione e della gestione, abbracciando gli ambiti dell’organizzazione e della comunicazione (esempio tipico di que-sto fenomeno è rappresentato dal processo civile telematico, termine con cui si indica lo scambio bidirezionale di documen-ti elettronici tra gli operatori del processo). Negli ultimi anni si è assistito anche ad importanti realizzazioni operative basa-te sull’intelligenza artificiale: sistemi che assistono l’uomo nell’applicazione di regole, nella preparazione di nuove norma-tive, nella ricerca e nell’utilizzo dei precedenti, nell’effettuazione di scelte giuridiche ed amministrative, ecc. 4) Breve storia del diritto dell’informatica Il diritto dell’informatica diventa uno specifico tema di indagine giuridica all’inizio degli anni ’60, quando il software di-venta oggetto di specifici contratti di fornitura e di pretese di autonoma tutela giuridica, separandosi dall’hardware. Inizia allora negli USA il dibattito sulla protezione giuridica del software, sia in base all’interpretazione del diritto vigente sia in vista di riforme legislative. Fin da allora si contrappongono le opzioni della tutela brevettuale e di quella mediante diritto d’autore del software;; quest’ultima è la soluzione che sembra prevalere ed infatti i giudici statunitensi affermano che il sof-tware è da considerarsi opera letteraria, protetta deal diritto d’autore (copyright). Si tratta tuttavia di un dibattito che conti-nuerà fino ai giorni nostri. Nel corso degli anni ’70, emerge un nuovo importante tema, quello della tutela dei dati personali, ossia della tutela della persona rispetto ai rischi derivanti dalla raccolta ed elaborazione delle informazioni che la riguardano. Negli anni ’80 la tendenza a proteggere il software mediante il diritto d’autore si consolida in numerosi Paesi, anche attra-verso esplicite previsioni legislative. In Italia passeranno alcuni anni prima che il legislatore si decida ad entrare nel campo del diritto dell’informatica con inter-venti di una certa ampiezza ed organicità. I temi del diritto dell’informatica, peraltro, cominciano ad emergere nella giuri-sprudenza, che deve confrontarsi con un numero sempre maggiore di controversie ad oggetto informatico; in particolare in ambito civilistico si segnalano le numerose sentenze che assimilano il software alle opere letterarie, applicando ad esso la tutela del diritto d’autore. Il primo testo normativo specificamente dedicato al diritto dell’informatica, improntato su temi di hardware, risale alla fine degli anni ’80. All’inizio degli anni ’90, invece, l’attenzione del legislatore passa dall’hardware al software: in attuazione di una direttiva dell’Unione Europea relativa alla tutela giuridica dei programmi per elaboratore, il d.lgs. 518/1.991 prevede espressamente che il software sia protetto mediante diritto d’autore, rafforzando tale tutela con previsioni specifiche. Dopo questo decreto, gli interventi legislativi nel campo del diritto dell’informatica si moltiplicano, tutti per lo più posti in essere in adempimento di direttive europee. Nel 1.993 si ha la creazione di una sorta di diritto penale dell’informatica: la legge introduce nel Codice Penale alcune fattispecie specificatamente connesse con il mondo dell’informatica. Nel 1.996 l’Italia, uniformandosi alle più esigenti legislazioni europee, si dota di una penetrante disciplina sulla tutela dei dati (ricordiamo che il Codice della privacy è del 2.003). Nel 1.997, infine, il nostro legislatore, anticipando la normativa europea, disciplina l’impiego della firma digitale. Negli ultimi anni, a partire dal nuovo millennio, si è assistito ad un’ulteriore accelerazione degli interventi legislativi nel campo del diritto dell’informatica, sia attraverso leggi e decreti del governo, sia attraverso numerose disposizioni regola-mentari e provvedimenti di autorità indipendenti (il Garante della tutela dei dati, l’Autorità delle telecomunicazioni, ecc). Il diritto dell’informatica si segnala, forse più di ogni altro settore del diritto, per la sua dimensione globale: sembra che il diritto possa bilanciare con efficacia i diversi interessi in conflitto nella società dell’informazione solo se esso preveda solu-zioni comuni (si pensi, ad esempio, alla possibilità che dati personali o contenuti illeciti siano trasferiti in Paesi dove manca

Page 7: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

una efficace disciplina giuridica). Quasi tutti gli interventi legislativi nel diritto dell’informatica nascono dall’iniziativa del legislatore europeo, e si tratta di interventi unificati da un obbiettivo politico-legislativo unitario, quello dello sviluppo della società dell’informazione. Temi di diritto dell’informatica sono oggi trattati anche ai livelli più alti delle relazioni interna-zionali: per esempio, la tutela del software e dei contenuti digitali ha costituito il tema principale delle più recenti trattative presso l’Organizzazione Mondiale del Commercio (World Trade Organisation, WTO).

CAPITOLO 2: Il calcolatore Il protagonista della scena dell’informatica, l’artefice dell’informatizzazione, è il calcolatore digitale o calcolatore tout court (detto computer o elaboratore), la macchina dedicata all’elaborazione automatica delle informazioni digitali. Le principali caratteristiche del calcolatore sono:

- compiere operazioni matematiche ad altissima velocità. - registrare enormi quantità di informazioni in spazi ridottissimi e ritrovare i dati richiesti con un’incredibile rapidità. - trasmettere informazioni a grandi distanze e con enorme velocità. - governare dispositivi meccanici che compiono operazioni di precisione (i robot). - eseguire programmi che svolgono funzioni molteplici (elaborazione di testi, gestione di archivi, calcolo, gestione

della contabilità, ecc). 1) Macchine e algoritmi per elaborare informazione Il funzionamento del calcolatore è dovuto alla combinazione di due componenti:

- l’hardware: insieme dei dispositivi materiali (elettronici, meccanici, ottici) che elaborano l’informazione. - il software: insieme dei programmi informatici che governano il funzionamento del calcolatore, indicando in modo

preciso ed univoco le elaborazioni da eseguire. Possiamo quindi trovare le radici dell’informatica e del calcolatore in due linee di ricerca convergenti:

- il tentativo di realizzare macchine capaci di elaborare informazioni. - il tentativo di definire procedimenti precisi ed univoci, cioè algoritmi, per elaborare informazioni.

L’idea di utilizzare dispositivi materiali per elaborare informazioni non è nuova: l’abaco (il pallottoliere) risale a circa 7.000 anni fa. Anche l’idea di definire metodi precisi per elaborare informazioni ha una storia antica: il nome algoritmo deriva dal matematico persiano Mohammed al-Khwarizmi, vissuto nel 9° secolo, i cui scritti contribuirono ad introdurre in Europa i numeri decimali e l’algebra. In particolare egli indicò le regole precise, da seguire passo dopo passo, che usiamo fin dalle scuole elementari per aggiungere, sottrarre, moltiplicare e dividere i numeri decimali. Si tratta di procedure, algoritmi, che ci sembrano ovvie e banali ma che rappresentano un’enorme progresso rispetto alle precedenti tecniche per eseguire calcoli numerici. Blaise Pascal costruì, nel 17° secolo, la Pascalina, una macchina per compiere addizioni e sottrazioni. Gottfried Leibniz perfezionò la Pascalina, costruendo un apparecchio in grado di eseguire anche le moltiplicazioni. Tanto la Pascalina quanto l’apparecchio di Leibniz erano calcolatrici automatiche ma non elettroniche: esse funzionavano grazie ad ingranaggi e ruote dentate, non mediante il passaggio di elettroni. Queste macchine potevano eseguire di volta in volta solo una delle operazioni di cui erano capaci (per esempio una sola addizione); quindi esse non erano programmabili, perché non pote-vano eseguire automaticamente un’intera combinazione di operazioni sulla base di indicazioni fornite in anticipo. Per trovare l’elemento della programmabilità si deve uscire dall’ambito della matematica e della filosofia, e ci si deve spo-stare in ambito tecnologico ed industriale. All’inizio dell’800 l’artigiano francese Joseph Marie Jacquard inventò un nuo-vo tipo di telaio, che era in grado di tessere da solo, cioè automaticamente, diversi tipi di trame. A questo tipo di telaio si sa-rebbe ispirato il matematico inglese Charles Bobbage: egli concepì il Motore Analitico, una macchina dotata di competen-za generale, capace di eseguire qualsiasi calcolo. La peculiarità del Motore Analitico era la programmabilità: oltre ad essere in grado di compiere operazioni aritmetiche di base, esso era in grado di eseguire qualsiasi combinazione di tali operazioni. La combinazione delle operazioni da eseguire (il programma) si specificava mediante istruzioni riportate su schede perfora-te. Le istruzioni indicate nelle schede venivano registrate nella memoria interna al Motore Analitico, che avrebbe preceduto poi alla loro esecuzione, restituendone il risultato. Nel Motore Analitico l’organo di calcolo (che effettuava le operazioni aritmetiche) e l’organo di memoria (che registrava istruzioni e dati) erano affiancati da un organo di controllo (che stabi-liva quale dovesse essere la prossima istruzione da eseguire, sulla base delle istruzioni già eseguite e dei risultati ottenuti). Tuttavia, Bobbage non riuscì a superare alcuni problemi tecnici ed il suo Motore Analitico rimase solo un progetto. Tra gli antenati del moderno calcolatore si suole menzionare anche la macchina calcolatrice, anch’essa meccanica e basata su schede perforate, costruita dall’ingegnere americano Herman Hollerith ed utilizzata per i calcoli attinenti al censimento americano del 1.890. Lo stesso Hollerith sarà poi il fondatore di IBM (International Business Machines). Negli anni ’30 si ottennero alcuni risultati fondamentali nel campo della teoria degli algoritmi. Inoltre si realizzò la possibi-lità di costruire macchine universali, cioè capaci di elaborare qualsiasi algoritmo espresso in un programma per quella macchina: tali macchine eseguono una procedura esattamente definita ed astratta, cioè non finalizzata ad un risultato partico-

Page 8: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

lare, che consiste nell’eseguire qualsiasi programma (descrizione di algoritmo) che sia fornito alla macchina, applicandolo ai dati di input. I moderni calcolatori devono la loro universalità alla loro capacità di accogliere i dati ed anche i programmi. Per ritrovare i primi calcolatori moderni, digitali ed elettronici, dobbiamo spostarci al tempo della seconda guerra mon-diale, quando i primi calcolatori furono inventati nei Paesi belligeranti. In Inghilterra un gruppo di matematici ed ingegneri, guidato da Alan Turing, realizzò nel 1.941 il Colossus, un calcolatore elettronico ma non programmabile, che fu impiegato con successo nel decifrare i codici utilizzati per la comunicazione dell’esercito tedesco. In Germania, Konrad Zuse, tra la fine degli anni ’30 e l’inizio degli anni ’40, realizzò il primo calcolatore programmabile basato sul sistema binario (ma la sua invenzione fu sottovaluta ed il governo non ne seppe cogliere l’importanza). All’inizio degli anni ’50 avvenne il salto tecnologico che consentì di passare ai primi veri calcolatori moderni: si tratta della registrazione del programma stesso nella memoria del calcolatore. Ciò consentiva di accedere con rapidità alle singole istruzioni da eseguire, e soprattutto di compiere salti condizionati (cioè eseguire o saltare certe istruzioni del programma sul-la base dei risultati precedentemente ottenuti). I calcolatori di oggi sono costruiti sulla base del modello della macchina di von Neumann (matematico statunitense), con il programma memorizzato internamente al calcolatore. Secondo questo modello l’unità di controllo e l’unità di calcolo co-stituiscono l’unità centrale di elaborazione (central processing unit, CPU), detta anche processore. Esse operano in mo-do collegato: l’unità di controllo identifica l’istruzione da eseguire ed i relativi dati, mentre l’unità di calcolo esegue l’operazione. Dati ed istruzioni vengono prelevati dalla memoria centrale, nella quale vengono trasferiti anche i risultati delle elaborazioni. La memoria centrale è un dispositivo di memorizzazione ed alta velocità di lettura e scrittura, tipicamente volatile (si cancella quando il calcolatore si spegne). Essa deve essere distinta dalle memorie di massa (dette anche secon-darie o esterne o periferiche), consistenti in dispositivi, solitamente dischi magnetici od ottici, capaci di contenere permanen-temente grandi quantità di informazioni. Affinché le informazioni contenute nelle memorie di massa (sia i dati che i pro-grammi) possano essere elaborate dall’unità centrale di elaborazione, esse devono essere trasferite, cioè riprodotte, nella memoria centrale, che è la sola direttamente accessibile all’unità centrale di elaborazione. Ciò significa che l’esecuzione di un software residente sul disco di un computer ne comporta la duplicazione, poiché il software deve essere copiato nella memoria centrale. L’unità centrale di elaborazione di un calcolatore può considerarsi costituita da una complessa combinazione di interrutto-ri, azionati dal calcolatore stesso, che cambiano posizione nel corso dell’elaborazione, lasciando passare la corrente elettrica o interrompendone il flusso. Per realizzare e connettere tali interruttori sono state utilizzate, nel corso degli anni, tecnologie sempre più avanzate, che hanno consentito di ridurre le dimensioni dei calcolatori e di aumentarne la potenza:

- i relay (usati negli esperimenti degli anni ’30): apparecchiature elettromagnetiche che, sotto l’effetto della corrente elettrica, muovono una linguetta metallica attivando un contatto.

- le valvole termoioniche (usate nei primi calcolatori elettronici). - i transistor: dispositivi formati da materiali semiconduttori che lasciano passare la corrente elettrica se magnetizzati

in certi modi. - i circuiti integrati inseriti in un chip (frammento) di silicio: consistono in migliaia di transistor di piccolissime di-

mensioni combinati in circuiti elettrici miniaturizzati. In un circuito integrato possono essere riunite, a costi molto minori, funzioni in precedenza svolte da molte componenti elettroniche distinte. La grande invenzione degli anni ’70 fu il microprocessore: un circuito integrato che comprende l’unità centrale di elaborazione realizzata su un uni-co chip. Gli anni seguenti hanno visto una rapidissima crescita sia nel numero di transistor inclusi in un micropro-cessore, sia nella velocità dei microprocessori stessi. Questo ha consentito la realizzazione di microcalcolatori (cal-colatori la cui unità centrale di elaborazione è costituita da un microprocessore) sempre più potenti e sempre meno costosi. I microcalcolatori si sono presto diffusi negli ambienti di lavoro e nelle case, divenendo calcolatori perso-nali (personal computer, PC), destinati all’uso individuale. Essi hanno consentito l’ingresso dell’informatica in tutti gli ambiti della vita individuale e sociale e, in particolare, nelle attività giuridiche (uffici pubblici, tribunali, studi legali e notarili). Il microprocessore, grazie alla sua estrema miniaturizzazione, ha potuto introdursi nei più svariati macchinari e dispositivi tecnologici (automobile, lavatrice, telefonino, carta di credito, ecc). I microprocessori hanno avuto una straordinaria rapidità di sviluppo. L’enunciazione più famosa al riguardo è la legge di Moore, formulata nel 1.964 da Gordon E. Moore, co-fondatore dell’Intel, l’impresa che oggi domina il mercato dei microprocessori: la potenza dei calcolatori raddoppia circa ogni 2 anni. Anche se questa affermazio-ne più di una vera e propria legge rappresenta un’indicazione sulla tendenza,fino ad oggi è stata confermata. Si di-scute sulla continuazione di tale crescita, che dovrà scontrarsi, prima o poi, con i limiti fisici della miniaturizzazione (ad un certo punto si raggiungeranno dimensioni tanto piccole da rendere impossibile la realizzazione o il funziona-mento dei circuiti). Resta aperta peraltro la possibilità che una crescita ulteriore sia consentita dal passaggio a tecno-logie completamente diverse da quelle attuali. L’altra faccia dello sviluppo tecnologico nel settore dei microproces-sori è la seconda legge di Moore: il costo dello sviluppo di un circuito integrato raddoppia ad ogni nuova ge-nerazione di microprocessori. Questa legge spiega perché pochissime imprese siano in grado di progettare nuovi microprocessori per microcalcolatore: non più di 3 o 4 imprese dominano il mercato dei microprocessori ed una di esse, l’Intel, ne copre circa il 90%. Lo sviluppo delle prestazioni dei microcalcolatori ha determinato una profonda trasformazione nell’hardware e nell’industria informatica: i microcalcolatori hanno sostituito i calcolatori di mag-

Page 9: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

giori dimensioni, e di conseguenza i tradizionali produttori di hardware, che un tempo dominavano il mercato dell’informatica grazie alla produzione di grandi elaboratori, sono stati affiancati e spesso sostituiti da nuove impre-se, capaci di produrre microcalcolatori.

Il rapporto tra i calcolatori: Modello dell’informatica individuale. L’invenzione del microprocessore ha consentito la nascita del personal computer (PC), il microcalcolatore destinato all’uso da parte del singolo individuo, nella sua attività professionale o domestica. I primi PC non erano collegati in rete, chi ne comprava uno lo faceva per un uso proprio. Modello della rete di calcolatori. Il PC dava avvio all’era dell’informatica individuale, caratterizzata dall’interazione e-sclusiva tra il singolo ed il suo calcolatore personale. Prima dell’avvento del PC si poteva accedere a risorse informatiche solo collegandosi attraverso terminali a grandi calcolatori, i cosiddetti mainframe, condivisi da più utenti e gestiti da un centro di calcolo: vi era la possibilità di accedere a risorse condivise e comunicare con gli altri utenti del centro di calcolo. Grazie al PC, invece, ogni individuo poteva disporre in piena autonomia delle proprie risorse informatiche, senza la possibi-lità di condividere risorse e comunicare con altri. Negli anni successivi l’isolamento dei PC sarebbe stato superato, il micro-calcolatore si sarebbe dotato di dispositivi di comunicazione in modo di potersi collegare ad altri calcolatori. Ciascun calco-latore ha conservato la propria capacità di elaborazione autonoma e ciascun utente ne ha mantenuto il controllo, ma è inoltre divenuto possibile connettere i singoli calcolatori per comunicare e condividere risorse. In questo modo si sono realizzate, in una nuova sintesi, sia le esigenze di integrazione e collegamento, sia le esigenze di autonomia. Modello client-server. Lo sviluppo delle reti informatiche è stato favorito dalla crescita accelerata delle prestazioni dei mi-crocalcolatori e dall’esigenza di fare comunicare i computer. Accanto ai microcalcolatori destinati all’utilizzo individuale, i PC, si sono quindi diffusi microcalcolatori destinati a fornire servizi di rete, i server: il PC diventa quindi un cliente (client) che si rivolge ad un servitore (server) quando necessita di tali servizi (servizi di rete, dati, programmi, posta elettronica, pa-gine web, ecc). I calcolatori dedicati al ruolo di server non si distinguono essenzialmente dai PC per quanto attiene all’architettura informatica, ma offrono più elevate prestazioni per quanto attiene alla potenza di calcolo, alla capacità di memoria ed alla sicurezza. Grazie al collegamento dei diversi calcolatori in reti il singolo utente, dal proprio calcolatore, può accedere a risorse disponibili presso altri calcolatori. Ciò non significa tuttavia che il singolo utente debba essere consapevo-le di entrare in contatto con certi calcolatori. Ovviamente ogni processo che l’utente attiva dovrà essere svolto da uno o più calcolatori determinati, ma di ciò l’utente non si occupa: la rete informatica gli si presenta come un ambiente virtuale, dove sono presenti entità software che mettono a disposizione diverse funzioni e servizi. Chi richiede tali servizi (ad esempio, l’estrazione di informazioni mediante un motore di ricerca o l’acquisto di un bene da un sito) non ha in genere alcuna consa-pevolezza di quali sono la natura, la configurazione e la collocazione dei calcolatori che svolgono le elaborazioni necessarie a rispondere alle sue richieste. Chi usa il computer è interessato solo alla possibilità di attivare le funzioni di cui ha bisogno: l’architettura nella quale egli opera non è l’architettura fisica della rete di calcolatori che compiono le elaborazioni, ma è l’architettura dello spazio virtuale. Modello peer-to-peer. Il modello client-server ha trovato la propria antitesi nel modello peer-to-peer (da pari a pari), fre-quentemente abbreviato in p2p. Nelle reti peer-to-peer viene meno la distinzione tra server (fornitore di servizi) e client (uti-lizzatore di servizi). Ogni calcolatore che partecipa alla rete, detto nodo, svolte entrambe le funzioni: mette a disposizione degli altri calcolatori una porzione delle proprie risorse (software, dati, spazio disco, potenza di calcolo, trasmissione di dati, ecc) ed utilizza le risorse messe a disposizione dagli altri calcolatori, cioè offre ed acquista servizi, quindi ogni computer è sia client che server (ad esempio skype). Il modello peer-to-peer ha trovato diverse applicazioni, tuttavia le più importanti realizzazioni si trovano nell’ambito della condivisione di file (file-sharing: i calcolatori di una rete peer-to-peer condivido-no i file residenti sulle proprie memorie). I sistemi peer-to-peer (ed in particolare il loro utilizzo per il file-sharing) sono stati al centro di intense discussioni. Tra le ragioni a sostegno di tali sistemi c’è il fatto che essi consentono a tutti, anche con ri-sorse limitate, di partecipare attivamente ad Internet, ed alcuni hanno abbracciato tali sistemi anche per ragioni politiche, i peer-to-peer sono infatti basati su un’organizzazione egualitaria e sono ispirati all’idea della reciprocità indiretta. Altri inve-ce si sono opposti al modello peer-to-peer, sulla base di ragioni sia tecniche che giuridico-politiche: dal punto di vista tecni-co si è osservato che il file-sharing comporta lo spostamenti di grandi quantità di dati e quindi può condurre al sovraccarico delle reti informatiche, mentre dal punto di vista politico-giuridico c’è da considerare che molti documenti delle reti peer-to-peer sono protetti dal diritto d’autore e la loro circolazione avviene in violazione dei diritti di proprietà intellettuale. Diverse tesi al riguardo di come risolvere gli inconvenienti del peer-to-peer si oppongono. Accanto a chi richiede l’applicazione di sanzioni rigorose tali da scoraggiare ogni uso non autorizzato di opere protette dal diritto d’autore, vi sono quanti ritengono che anziché adottare soluzioni repressive (perché impediscono nuove efficientissime forme di condivisone della conoscenza) bisognerebbe abbandonare o rivedere profondamente il diritto d’autore, privo ormai di una valida funzione economico-sociale, almeno nella sua attuale conformazione giuridica. Altri ancora ritengono possibili soluzioni di compromesso, quali abbonamenti a modico prezzo, che rendano lecita la condivisione di opere protette in reti peer-to-peer, facendo salvi tuttavia gli interessi economici degli autori e dell’industria culturale. Oggi continuano ad esistere sia modelli di client-server che modelli di peer-to-peer. Modello cloud computing. La possibilità di realizzare architetture virtuali ha determinato, negli ultimissimi anni, una rin-novata tendenza verso la centralizzazione. Mentre negli anni ’90 si era assistito allo snellimento delle apparecchiature hardware, cioè la sostituzione dei macrocalcolatori con microcalcolatori, i primi anni del 2.000 sono stati caratterizzati dal ritorno dei macrocalcolatori nei centri di calcolo più avanzati. I nuovi macrocalcolatori sono macchine di enorme potenza, in grado di sostituire decine di server di piccola o media taglia, i quali vengono virtualizzati: significa che i piccoli o medi

Page 10: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

server non esistono più come entità reali distinte (macchinari elettronici fisici), ma hanno invece un’esistenza meramente virtuale che risulta dai processi eseguiti dal macrocalcolatore. Quest’ultimo è in grado di simulare contemporaneamente il funzionamento di molteplici microcalcolatori, eseguendo tutti i programmi che sarebbero stati eseguiti da questi. Lo svilup-po delle tecnologie per la virtualizzazione e la migliorata velocità della rete hanno determinato un’evoluzione dei sistemi in-formatici che va sotto il nome di cloud computing, cioè, letteralmente, di elaborazione della nuvola (“cloud”). Con il ter-mine nuvola si fa riferimento alle risorse informatiche disponibili su Internet, risorse che nel loro insieme appaiono all’utente quali aspetti di una realtà unitaria, priva di dimensione fisica, a cui egli può accedere ovunque si trovi. Nel model-lo del cloud computing l’utente rinuncia al possesso di proprie risorse hardware e software (al di là della strumentazione mi-nima necessaria per accedere alla rete), ed accede alle infrastrutture hardware (potenza di calcolo, spazio di memoria) ed alle applicazioni software acquisendole attraverso Internet, secondo i propri bisogni. Gli utenti evitano quindi di acquistare e mantenere apparecchiature costose. Nel modello del cloud computing trova piena applicazione l’idea del passaggio dalla proprietà ai diritti di accesso, quale modello organizzativo e giuridico volto a governare l’utilizzo delle risorse. La fornitura di servizi di cloud computing è concentrata in poche imprese, le quali offrono un’ampia gamma di funzioni ai propri clienti, grazie a grandi infrastrutture di calcolo distribuite. Gli utenti non sanno dove siano collocati i sistemi che essi utilizzano: la nuova di un grosso fornitore di cloud computing (Amazon, Google, ecc) è il risultato dell’attività di numerosi data center (centri di elaborazione dati), ciascuno dei quali può consistere in centinaia o migliaia di calcolatori (server farm, fattorie di server). Oltre a poter fruire di specifiche applicazioni informatiche gli utenti possono acquistare dal fornitore di servizi di cloud computing spazi di memoria o computer virtuali: nel primo caso l’utente acquista la disponibilità di una certa quantità di spazio disco (che risiederà su uno o più dei computer della nuvola) nel quale registrare i propri dati, mentre nel secondo caso l’utente acquista un computer virtuale (risultante dall’attività di uno o più server della nuvola) da utilizzare per le pro-prie elaborazioni. L’utente potrà accedere ai propri dati o al proprio computer virtuale semplicemente collegandosi ad Internet, ovunque egli si trovi. Accanto ai notevoli vantaggi, non mancano le preoccupazioni collegate alla diffusione del modello cloud computing:

- rischio dell’oligopolio di poche imprese che offrono questo tipo di servizi (in gran parte statunitensi). - rischio per la privacy di ciascuno, di fronte all’enorme quantità di dati presenti nell’infrastruttura del fornitore. - perdita del pieno controllo sul proprio sistema di elaborazione da parte degli utenti, in quanto il fornitore del servi-

zio viene a disporre di un potere di fatto (il controllo tecnico sulle macchine e sui programmi) che potrebbe usare anche per limitare l’attività degli utenti o indirizzarla verso i propri interessi, compromettendo la libertà dei singoli e la creatività di Internet.

I profili giuridici del cloud computing sono oggi ancora largamente inesplorati, ma sembra certo che un’adeguata disciplina sia necessaria affinché si possa godere dei vantaggi offerti da questa nuova tecnologia, evitando i rischi con essa connessi. Ricordiamo che oggi i computer operano interagendo sempre di più con l’ambiente in modo automatico, cioè facendolo in modo diretto e senza che vi sia la necessità di un intervento umano come mediazione. 2) I calcolatori quali macchine elettroniche digitali La storia del moderno calcolatore è stata caratterizzata da uno sviluppo rapidissimo, ma nonostante ciò le sue caratteristiche principali sono rimaste fondamentalmente immutate. I moderni calcolatori sono:

- digitali: elaborano informazioni espresse in numeri, in particolare in numeri binari. - elettronici: sfruttano il comportamento degli elettroni (le particelle atomiche che ruotano attorno al nucleo

dell’atomo), i quali si spostano sui circuiti elettrici e determinano la creazione di campi magnetici. - programmabili: operano seguendo le indicazioni di programmi informatici, i quali esprimono, in linguaggi com-

prensibili da parte del calcolatore, degli algoritmi, cioè precise istruzioni delle elaborazioni da eseguire. - universali: ogni calcolatore è in grado di eseguire, in linea di principio (cioè prescindendo dalle limitazioni del tem-

po e della memoria di cui dispone), ogni algoritmo. Uno dei fenomeni più importanti del nostro tempo è il passaggio dalla tecnologia analogica alla tecnologia digitale. Si con-frontino, per esempio, un vecchio registratore a nastro di cassette ed un moderno masterizzatore di CD. Il registratore è dota-to di una testina che percorre il nastro realizzando su di esso una struttura fisica, cioè una traccia, le cui caratteristiche corri-spondono alle caratteristiche delle onde sonore riprodotte, quelle rilevate dal microfono o da una testina di lettura, per cui si può dire che la traccia è analoga alle onde sonore. Il passaggio opposto si compie quando a partire dalla traccia si riproduce il suono corrispondente, e le onde magnetizzate sono trasformate in onde sonore analogiche. La traccia analogica è continua, cioè essa non procede per gradini. Il masterizzatore di CD, invece, registra il suono in una struttura che non assomiglia al fenomeno sonoro, il suono è invece espresso mediante una sequenza di numeri interi. A partire da questi numeri, il lettore (con l’aiuto delle casse) riproduce il suono corrispondente. Pertanto, la registrazione su CD comporta la digitalizzazione, os-sia la trasformazione di grandezze continue (le caratteristiche fisiche del suono) in quantità digitali (numeri interi distinti). In sintesi:

- la tecnologia analogica riproduce un certo fenomeno sotto forma di una traccia che riproduce il funzionamento del fenomeno originario, cioè riproduce il fenomeno originario in modo analogo ad esso.

- la tecnologia digitale rappresenta il fenomeno originario attraverso una sequenza di numeri e poi lo riproduce prov-vedendo alla lettura di tale sequenza.

Page 11: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

La rappresentazione digitale sembra più imprecisa e rozza di quella analogica, tuttavia è possibile offrire una rappresenta-zione sufficientemente precisa per i fini che si perseguono (quando un’immagine è raffigurata sullo schermo di un calcolato-re ciò avviene mediante la composizione di puntini distinti, ciascuno dei quali ha un preciso colore, e tali puntini sono tal-mente piccoli che il nostro occhio non riesce a percepirli singolarmente, cogliamo solamente il risultato complessivo della loro combinazione). La rappresentazione digitale offre tre vantaggi importanti rispetto a quella analogica:

- è riproducibile con assoluta precisione (la riproduzione è in tutto e per tutto identica all’originale). Ogni nuova ri-produzione di una rappresentazione analogica comporta una perdita parziale dell’informazione originaria: anche i più leggeri difetti del meccanismo di riproduzione, le più leggere variazioni nelle condizioni in cui la riproduzione ha luogo, comportano differenze della copia rispetto all’originale, differenze che si sommano di riproduzione in ri-produzione. Tale perdita non avviene invece nella riproduzione di rappresentazioni digitali, poiché qui basta ripro-durre gli stessi numeri per avere una copia perfetta.

- non si danneggia con il passare del tempo (per via del motivo visto sopra). - è direttamente elaborabile dal calcolatore. In particolare, il sistema di rappresentazione digitale adottato

nell’elaborazione automatica dell’informazione è il sistema binario. Si tratta di un sistema che trova la sua giustifi-cazione nella facilità del suo uso per memorizzare ed elaborare le informazioni mediante sistemi informatici.

Il sistema di rappresentazione dei numeri da noi comunemente adottato è il sistema decimale, che utilizza le dieci cifre (0,1,2,3,4,5,6,7,8,9). Il sistema decimale è un sistema posizionale: ogni cifra di un numero rappresenta un valore che dipen-de dalla posizione della cifra stessa, posizione calcolata a partire dalla fine del numero ed iniziando a contare da zero (ogni posizione india una potenza del 10). Grazie alla sua natura posizionale il sistema decimale consente di rappresentare qualsia-si numero utilizzando sempre gli stessi dieci simboli numerici. Anche il sistema binario è un sistema posizionale, il quale, a differenza del sistema decimale, usa solamente due cifre (0 e 1) ed ogni posizione esprime una potenza del 2 (la cifra nella posizione 0, l’ultima, indica sempre le unità). Perché il sistema binario è usato dai computer? Non vi sono ragioni di principio che vietino di adottare nei calcolatori il si-stema decimale, e quindi di rappresentare anche all’interno dei calcolatori l’informazione mediante strutture fisiche dotate di dieci posizioni possibili. Tuttavia, nei calcolatori, è molto più facile utilizzare componenti fisiche (elettroniche) dotate della capacità di assumere due sole posizioni: un interruttore può essere acceso (lascia passare la corrente) o spento (interrompe il flusso di corrente). Per queste ragioni nei moderni calcolatori le informazioni non sono rappresentate mediante cifre decima-li, ma mediante cifre binarie. La singola cifra binaria è detta bit, ed è l’unità minima dell’informazione registrata od elabora-ta da un calcolatore: il bit può assumere uno dei due possibili valori del sistema binario, la cifra 0 o la cifra 1. Una sequenza di 8 bit prende il nome di byte. Il byte, a sua volta, ha i seguenti multipli: il kilobyte o KB (circa 1.000 bytes), il megabyte o MB (circa 1.000 KB), il gigabyte o GB (circa 1.000 MB), il terabyte o TB (circa 1.000 GB). Nel sistema binario la rap-presentazione di un valore numerico richiede un numero di posizioni superiore a quello richiesto nel sistema decimale, per questo motivo la numerazione binaria non è adatta all’uomo, che non è in grado di memorizzare agevolmente lunghe se-quenze di cifre. Il calcolatore invece non ha tali problemi, essendo dotato di una grande capacità di memoria. Il calcolatore stesso si occupa di tradurre i numeri dalla rappresentazione decimale a quella binaria quando riceve un input numerico dall’uomo, e dalla rappresentazione binaria a quella decimale quando trasmette un output numerico all’uomo. Attraverso le cifre binarie è possibile rappresentare qualsiasi oggetto (numeri interi, numeri decimali, simboli di ogni tipo come lettere dell’alfabeto, simboli matematici e logici, ecc): basta stabilire precise corrispondenze tra i numeri binar i e gli oggetti da rappresentare. I numeri binari consentono di rappresentare non solo caratteri, ma anche altri tipi d’informazione: per esempio un’immagine in bianco e nero può essere rappresentata mediante una mappa di bit (bitmap), ciascuno dei quali corrisponde ad un punto di quell’immagine, così se il punto è nero il bit è 1 e se il punto è bianco il bit è 0 (rappresentazioni più complesse consentono di riprodurre immagini a colori). Anche i suoni possono essere rappresentati in forma binaria. Un ulteriore vantaggio del sistema binario è costituito dal suo parallelismo con la logica: come nel sistema binario una cifra può assumere due soli possibili valori tra loro alternativi (0 o 1), così nella logica una proposizione può assumere due soli valori tra loro alternativi (essere vera o essere falsa). È possibile stabilire una perfetta corrispondenza tra le cifre binarie e le proposizioni, se si conviene di fare corrispondere la verità con la cifra 1 (anziché dire che una proposizione è vera, diciamo che essa vale 1) e la falsità con la cifra 0 (anziché dire che una proposizione è falsa, diciamo che essa vale 0). A questo proposito è importante considerare gli studi di George Boole (1.815 - 1.864). Egli notò che le combinazioni tra le proposizioni obbediscono a regole ben definite, di cui si può dare una formulazione precisa, regole simili a quelle che go-vernano le operazioni dell’aritmetica. Tali regole determinano il funzionamento dei connettori logici, le congiunzioni che servono a collegare le singole proposizioni in strutture più complesse (i connettivi principali corrispondono alle congiunzio-ni italiane “e”, “o”, “non”, cioè “and”, ”or”, ”not”). Come è fatto l’interno di un computer? Abbiamo detto che certe espressioni che usiamo nel linguaggio (“e”, “o”, “non”) hanno un certo significato e rispondono a regole logiche ben precise (le regole risultanti dagli studi di Boole). Claude Shannon ebbe l’idea di realizzare dei dispositivi elettronici operanti proprio come i connettori logici, detti porte logiche (esse sono in grado di realizzare operazioni logiche tra diverse variabili che possono assumere solamente due valori, vero o falso cioè 1 o 0). Le porte logiche possono essere combinate in reti logiche capaci di svolgere tutte le operazioni logico-matematiche (anche complesse) di cui abbia bisogno un calcolatore universale. Una rete logica complessa può costituire, in

Page 12: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

particolare, il microprocessore di un calcolatore (un microprocessore contiene milioni di porte logiche, cioè di transistor, tra loro collegate): milioni di porte logiche vengono combinate su una piastrina di silicio. Reti logiche specifiche possono rappresentare un’alternativa rispetto allo sviluppo di programmi software: una medesima elaborazione (i medesimi output ottenuti dai medesimi input) si può ottenere sia attraverso l’esecuzione di un programma da parte di un calcolatore universale, quindi attraverso un software, sia attraverso una rete logica, quindi attraverso una compo-nente hardware. L’elaborazione effettuata mediante una rete logica sarà più veloce di quella effettuata mediante un calcola-tore universale guidato da un software, ma lo sviluppo della rete logica comporterà costi maggiori rispetto allo sviluppo del software e la rete non sarà modificabile. Da ultimo, ricordiamo che l’unità centrale di elaborazione (il processore) del calcolatore può essere utilmente utilizzata solo se è integrata da numerosi dispositivi ausiliari:

- dispositivi di input e output: consentono al calcolatore di interagire con l’utente, ricevendo informazioni o comu-nicandole all’esterno (schermo, tastiera, mouse, stampante, scanner, microfono, altoparlanti, scheda video o audio, videocamera, ecc).

- dispositivi di memorizzazione: sono le memorie di massa che consentono di registrare e conservare permanente-mente dati e programmi.

- dispositivi di connessione: consentono al calcolatore di interagire con altri sistemi informatici (modem, scheda di rete, ecc).

CAPITOLO 3: Algoritmi e programmi L’informazione non è solo la materia prima (input) ed il risultato (output) dell’elaborazione automatica: l’informazione specifica anche lo svolgimento del processo della propria elaborazione, essa governa la macchina che la produce. Le in-dicazioni impartite ad un calcolatore prendono il nome di algoritmo, il modo in cui queste indicazioni sono formulate è il programma. 1) Lo spirito oggettivo della società dell’informazione Negli anni precedenti i concetti, una volta espressi in forma linguistica, potevano rivivere solamente grazie alla mediazione della mente umana, che coglieva e ricreava i significati espressi in forma linguistica. Da soli, senza la mediazione dell’uomo, i testi erano inerti e privi di ogni operatività. Nella società dell’informazione questo non succede più. Nella so-cietà dell’informazione i testi possono vivere e diventare operanti senza la mediazione dell’uomo, guidando il calcolatore. Non tutti i contenuti possono acquisire questa forma di vita, ma solo quelli che possano costituire dati o programmi per cal-colatore. I programmi per calcolatore sono creazione dell’uomo, sono testi simili a quelli che usiamo per comunicare tra di noi, formulati in una lingua le cui espressioni hanno significato e possono essere comprese dall’uomo. Questi testi, tuttavia, non sono destinati solo alla comunicazione umana, ma hanno un’ulteriore modalità di utilizzazione: sono destinati a gover-nare il funzionamento del calcolatore. La possibilità di creare testi suscettibili di esecuzione automatica rappresenta un vero salto nell’evoluzione culturale: il contenuto concettuale si separa dall’uomo e diventa capace di autonoma operatività. L’esecuzione del software da parte del calcolatore realizza processi computazionali, che possono dare vita ad attività con-trollate dal calcolatore stesso (ad esempio, il funzionamento di una lavatrice) e a fenomeni immateriali della realtà virtuale (ad esempio, immagini che appaiono sullo schermo). Ciò comporta un aspetto duplice:

- un grande potenziamento delle capacità di creazione dell’uomo. Le idee dell’uomo, una volta tradotte in un linguag-gio comprensibile ed eseguibile da parte del calcolatore, possono trovare realizzazione operativa ed impiego in real-tà virtuali, senza un’ulteriore intervento umano e senza la necessità di input materiali.

- l’alienazione e l’estraneazione dell’uomo, determinata dalla possibilità di creare realtà virtuali mediante testi ese-guibili. Infatti ciascuno di noi sperimenta la realtà virtuale, risultante dal funzionamento dei software, come un am-bito non modificabile con il proprio intervento individuale.

2) Programmi e algoritmi L’hardware del calcolatore è un esecutore generale di algoritmi: esso è in grado di compiere qualsiasi operazione che conduca da certi input a certi output, una volta fornito di un algoritmo che specifichi come compiere tale trasformazione. Un algoritmo è una sequenza finita di istruzioni ripetibili non ambigue, una sequenza che, se eseguita con determinati dati di ingresso (input) produce in uscita dei risultati (output), risolvendo una classe di problemi in un tempo finito (l’algoritmo è una procedura chiara ed univoca, tanto precisa da poter essere attuata da un esecutore automatico senza che ad es-so debbano essere fornite ulteriori indicazioni). Gli algoritmi per computer non riguardano attività materiali ma servono per l’elaborazione dell’informazione, ed essi indicano come ottenere certi output da certi input. L’algoritmo è dotato delle seguenti proprietà:

- finitezza: l’algoritmo deve portare alla soluzione in un numero finito di passi. - generalità: l’algoritmo non risolve un solo problema, ma una classe di problemi.

Page 13: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

- non ambiguità: le istruzioni indicate sono specificate univocamente, cosicché la loro esecuzione avviene sempre nello stesso modo indipendentemente dall’esecutore.

- ripetibilità: dagli stessi dadi di input l’algoritmo deve fornire gli stessi dati di output. Gli algoritmi per calcolatore devono essere espressi in linguaggi comprensibili per il calcolatore (linguaggi di programma-zione), diversi da quelli usati nella comunicazione tra persone. Il programmatore, tuttavia, può trovare conveniente esprime-re un algoritmo nel linguaggio naturale, prima di tradurlo in un linguaggio di programmazione. La pseudocodifica consiste nel formulare gli algoritmi usando il linguaggio naturale (la pseudocodifica non è ancora un programma per calcolatore). Gli algoritmi presuppongono alcune competenze nel calcolatore esecutore:

- le competenze atomiche, sono quelle che il calcolatore è direttamente in grado di svolgere con un unico atto, senza la necessità di scinderne l’attuazione in atti più semplici.

- le competenze molecolari, sono quelle che il calcolatore può svolgere in seguito all’acquisizione di un nuovo algo-ritmo, risultando dalla combinazione di più atti secondo le istruzioni contenute in un determinato algoritmo (l’acquisizione di algoritmi comporta quindi un aumento delle competenze dell’esecutore).

È importante distinguere tra: - l’algoritmo, cioè la specificazione delle elaborazioni da compiere. - il processo di esecuzione dell’algoritmo, cioè l’attività mediante la quale l’esecutore svolge l’algoritmo.

In generale non c’è rapporto tra la lunghezza dell’algoritmo e la lunghezza del processo della sua esecuzione, nel senso che anche un algoritmo molto corto può dare luogo ad elaborazioni molto lunghe. Bisogna inoltre distinguere tra:

- l’algoritmo. - l’idea o invenzione algoritmica.

La medesima idea o invenzione algoritmica può trovare applicazione in algoritmi significativamente diversi e per risolvere un medesimo problema possiamo usare diversi algoritmi, ispirati a diverse idee o invenzioni algoritmiche. Gli algoritmi non sono tutti uguali:

- alcuni conducono a soluzioni corrette, altri invece producono risultati errati (per alcuni dei loro possibili input). Quello della correttezza è un requisito preliminare ed inderogabile degli algoritmi. - non esiste, né è possibile realizzare, un algoritmo di validità universale (applicabili ad ogni possibile algoritmo) capace di dirci se l’algoritmo si arresterà, applicato a un qualsiasi input. Inoltre non esiste alcun algoritmo di validità universale capace di dirci se un altro algoritmo contenga errori. - non è possibile verificare la correttezza di un algoritmo applicandolo preventivamente ad ogni input possibile, per-ché questi potrebbero essere infiniti o comunque troppo numerosi. - un algoritmo può operare correttamente nella maggior parte dei casi, ma cadere in errore rispetto ad input partico-lari. Non mancano gli esempi di errori algoritmici con conseguenze molto gravi. In ambito sanitario errori negli algorit-mi destinati a guidare il funzionamento di apparecchiature delicate possono causare (ed hanno causato in qualche caso) la morte del paziente. Per non parlare dei possibili effetti di un errore negli algoritmi secondo i quali operano i sistemi informatici di un aeroplano, di una nave o di una centrale nucleare. L’errore algoritmico pone difficili pro-blemi al giurista che debba affrontare gli aspetti inerenti alla conseguente responsabilità penale, civile o contrattuale: l’errore non è del tutto evitabile ed i suoi effetti sono difficilmente prevedibili e quantificabili, bisogna bilanciare l’esigenza di tutelare l’utente e quella di non onerare eccessivamente lo sviluppatore del software.

- alcuni algoritmi sono più efficaci di altri, nel senso che producono il proprio risultato con uno sforzo minore e quin-di in un tempo minore. Anche l’efficienza è un aspetto molto importante degli algoritmi. Per misurare l’efficienza di un algoritmo non basta considerare il suo comportamento in relazione a un input particolare; di regola, tutti gli algo-ritmi corretti danno risposte sufficientemente rapide se applicati ad input di piccola dimensione, e quindi il problema nasce quando l’input diventi di dimensioni notevoli. Per questa ragione, nel valutare l’efficienza degli algoritmi se ne considera la complessità computazionale, che consiste nel rapporto tra due elementi: - l’aumento dell’ampiezza dell’input di un algoritmo. - l’aumento della lunghezza del processo di esecuzione dell’algoritmo stesso. Negli algoritmi con bassa complessità computazionale, l’aumento dell’ampiezza dell’input determina un piccolo aumento della lunghezza del processo di esecuzione. Negli algoritmi con media complessità computazionale, la lunghezza del processo di esecuzione cresce in modo proporzionale all’ampiezza dell’input. Negli algoritmi con al-ta complessità computazionale, l’aumento dell’ampiezza dell’input determina un aumento più che proporzionale (accelerato) della lunghezza del processo di esecuzione, tanto che ad un certo punto diventa impossibile eseguire l’algoritmo in un tempo ragionevole. In questi ultimi casi si dice che l’algoritmo ha una complessità esponenziale, perché al crescere della dimensione dell’input non solo il processo di esecuzione si allunga, ma lo fa con un’accelerazione sempre maggiore. Pertanto, al crescere dell’input gli algoritmi con complessità esponenziale danno luogo a processi di esecuzione talmente lunghi da diventare intrattabili, nel senso che nemmeno gli esecutori più ve-loci (cioè i più potenti calcolatori oggi disponibili) riescono ad eseguirli in tempi ragionevoli.

Page 14: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

3) Dagli algoritmi ai programmi per calcolatore In campo informatico gli algoritmi non vanno trattati isolatamente, ma dobbiamo sempre tener presente che essi hanno un rapporto con l’esecutore automatico destinato ad eseguirli: gli esecutori automatici elaborano e trattano informazioni guidati dagli algoritmi. Nel considerare il rapporto tra il calcolatore e gli algoritmi è necessario porsi due quesiti:

- quali algoritmi possono essere eseguiti da un calcolatore? - in che modo ed in quale linguaggio bisogna esprimere gli algoritmi affinché essi siano comprensibili ed eseguibili

da parte di un calcolatore? Per dare una risposta alla prima domanda è necessario presentare due tesi:

- secondo la prima tesi, ogni algoritmo riguarda un particolare tipo di calcolatore. - secondo la seconda tesi, ogni calcolatore è una macchina algoritmica universale ed è in grado di eseguire qualsiasi

algoritmo, espresso in un programma da esso leggibile, gli venga sottoposto. La conciliazione delle due tesi deriva dalla seguente considerazione. Un’azione complessa può essere vista come un’azione molecolare, ch risulta dalla combinazione appropriata di azioni atomiche più semplici, combinazione specificata mediante un algoritmo. Di conseguenza, se il calcolatore è capace di eseguire le azioni atomiche ed apprende l’algoritmo per combi-nare queste nell’azione molecolare, esso sarà in grado di eseguire anche l’azione molecolare. Apprendendo un algoritmo il calcolatore amplia la propria competenza, ed acquisendo l’algoritmo in modo permanente (cioè registrandolo nella propria memoria) esso acquista la capacità di eseguire da solo, senza l’intervento di terzi, l’azione molecolare. Un calcolatore può acquistare la capacità di eseguire nuove azioni, che non rientrano nella lista delle azioni (atomiche) ad esso innate, qualora gli si forniscano algoritmi opportuni, che realizzano le nuove azioni mediante la combinazione delle azioni atomiche del cal-colatore. L’hardware di un calcolatore è in grado di compiere poche operazioni atomiche con numeri binari. Dato che i cal-colatori non sono tutti uguali, l’insieme delle operazioni atomiche che il calcolatore è in grado di svolgere varia a seconda del modello (i calcolatori sono dotati di diverse unità centrali di elaborazione). In base a questa considerazione possiamo ve-dere come i calcolatori moderni siano macchine universali, cioè essi sono in grado di eseguire qualsiasi algoritmo, purché esso sia espresso in un linguaggio a loro comprensibile La risposta alla seconda domanda è data dalla programmazione. Un programma informatico (o software) consiste in un testo eseguibile da parte di un calcolatore, cioè nell’insieme di formulazioni algoritmiche espresse in un linguaggio comprensibile e eseguibile dal calcolatore. Il testo del programma consiste in una sequenza di caratteri alfabetici e numerici (sotto questo aspetto un programma non è diverso dai testi comunemente usati dagli esseri umani per registrare i propri pensieri e comunicarli ad altri). La specificità dei programmi sta nel fatto che essi sono suscettibili di essere eseguiti automaticamente da parte di un calcolatore; a questo proposito non tutti i testi rappresentano dei programmi: non sono programmi i testi formulati nel linguaggio naturale che u-siamo comunemente per comunicare con altri, bensì i programmi sono solo quei testi espressi in linguaggi comprensibili da parte del calcolatore. Il fatto che i programmi per calcolatore siano destinati all’esecuzione automatica non deve farci dimen-ticare che essi sono destinati anche alla comunicazione umana. Le due facce del programma per calcolatore (verso l’uomo e verso la macchina) sono necessariamente connesse: quale intermediario tra uomo e macchina, il software non può essere ri-dotto ad una sola dimensione. Esso non opera solo nella comunicazione tra persone e macchine, ma anche nella comunica-zione tra le persone che si occupano del medesimo problema informatico: il software è governato dalla macchina, ma è an-che una forma di manifestazione del pensiero dell’esperto di informatica, è espressione del mondo della scienza e della cul-tura. La funzione comunicativa del software non è priva di profili giuridici. Al software appartengono:

- il codice sorgente, cioè il testo redatto dal programmatore e leggibile da parte dello stesso. - il codice oggetto o eseguibile, cioè il risultato dalla traduzione automatica del codice sorgente in un testo eseguibile

da parte della macchina, ma non più, o molto più difficilmente, comprensibile all’uomo. - la documentazione, cioè l’insieme delle indicazioni accessorie intese ad agevolare la comprensione e valutazione

del software da parte dell’uomo (esse illustrano l’architettura complessiva del software, la funzione svolta da ogni componente, ecc).

Detto questo, si capisce come il contratto per lo sviluppo di un software non potrà considerarsi esattamente e completamente adempiuto fino a quando non siano state sviluppate tutte queste componenti. La dimensione rappresentativa e comunicativa del software è alla base dello sviluppo dei linguaggi e delle metodologie della programmazione, la cui evoluzione risponde soprattutto all’esigenza di facilitare la comprensione dei programmi informati-ci. A questo fine i linguaggi di programmazione si sono progressivamente avvicinati al linguaggio proprio dell’uomo, pur garantendo al tempo stesso un’efficiente esecuzione automatica. Esistono oggi numerosi linguaggi di programmazione. Agli albori dell’informatica, però, la scelta dei programmi era limita-ta se non addirittura esclusa: chi voleva governare un calcolatore doveva utilizzare direttamente il linguaggio macchina, di conseguenza, i programmi dovevano consistere nelle sole istruzioni atomiche proprie al calcolatore impiegato (quelli a di-sposizione dell’hardware di quel calcolatore), istruzioni che prescrivono semplici operazioni riguardanti i numeri binari. Ovviamente scrivere algoritmi in questa forma è molto difficile e richiede molto tempo. Non solo la redazione, ma anche la comprensione successiva di un programma scritto in linguaggio macchina richiede un notevole sforzo. Di conseguenza, il

Page 15: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

livello di complessità affrontabile mediante il linguaggio macchina è molto basso, solo algoritmi semplici e brevi si possono esprimere in questa forma. A ciò si aggiunge la dipendenza dalla macchina: diversi calcolatori sono in grado di eseguire di-verse istruzioni atomiche, specificate usando diversi codici binari. Un programma scritto nel linguaggio macchina di un cal-colatore deve infatti indicare solamente azioni atomiche di quel calcolatore, usando la corrispondente codifica; pertanto un programma in linguaggio macchina può funzionare solamente su un particolare tipo di calcolatore. Per eseguire la medesima elaborazione su un diverso calcolatore sarebbe necessario riformulare il programma, trasformandolo in una combinazione di azioni atomiche di tale diverso calcolatore, espresse con i relativi codici binari. Il superamento dei limiti del linguaggio macchina si ottiene formulando le istruzioni destinate al calcolatore in un linguaggio più facilmente comprensibile all’uomo, ed affidando al calcolatore stesso il compito di tradurre tale formulazione nel pro-prio linguaggio macchina. Ovviamente il calcolatore può essere capace di compiere tale traduzione solo se è governato da un apposito programma traduttore (scritto nel linguaggio macchina). Così il programmatore predispone una formulazione algoritmica usando un linguaggio a sé comprensibile, poi tale elaborato diventa l’input di un processo computazionale ese-guito dal calcolatore seguendo le istruzioni di un programma traduttore, infine la traduzione ottenuta è direttamente eseguita dal calcolatore (si tratta infatti di una formulazione algoritmica nel proprio linguaggio macchina). All’inizio la differenza tra il programma in linguaggio macchina e la sua riformulazione in un testo più comprensibile all’uomo era minima: i numeri che indicavano un’operazione erano sostituiti da parole che evocano l’operazione corrispondente, ed i numeri binari erano sostituiti da numeri decimali. Il linguaggio ottenuto in questo modo è chiamato assembler o assemblatore. Il passo succes-sivo consistette nella creazione dei linguaggi di alto livello, i quali si pongono in una posizione intermedia tra il linguaggio umano ed il linguaggio macchina. I linguaggi di alto livello sono indipendenti da particolari calcolatori: il medesimo pro-gramma informatico espresso in un linguaggio di alto livello può essere tradotto nei diversi linguaggi macchina di diversi calcolatori, e quindi può essere eseguito da ciascuno di quei calcolatori (dopo un’opportuna traduzione). Un programma scritto in un linguaggio di alto livello non può essere eseguito direttamente dall’hardware, poiché non indica azioni atomiche dell’hardware stesso, cioè non consiste di istruzioni nel linguaggio macchina; è possibile però tradurlo in istruzioni del lin-guaggio macchina, che possono essere eseguite direttamente dall’hardware. Esistono due tecniche per effettuare tale tradu-zione:

- la compilazione. Con questa tecnica, l’intero programma formulato in un linguaggio di alto livello, il codice sorgen-te, è trasformato in un programma equivalente in linguaggio macchina, il codice oggetto. Il risultato della compila-zione, cioè il codice oggetto, può essere registrato sul disco del calcolatore e può essere utilizzato successivamente senza la necessità di risalire al sorgente. Il procedimento di creazione del software segue queste fasi: sviluppo del sorgente, compilazione di quest’ultimo, vendita del codice oggetto, esecuzione di quest’ultimo da parte dell’acquirente. Con questo metodo è necessario risalire al sorgente ogni volta che si debba intervenire sul software dopo la sua compilazione per modificarlo. In questo caso, una volta modificato il sorgente, lo si ricompilerà, producendo una corrispondente modifica del codice oggetto. È necessario inoltre accedere al sorgente quando si voglia comprendere in modo approfondito il funzionamento del software, senza limitarsi ad osservarne il comportamento osservabile; chi ha accesso al solo codice oggetto non è in grado di esaminare il contenuto logico del programma e quindi è in-capace di conoscerne con precisione il funzionamento interno.

- l’interpretazione. Con questa tecnica, il programma sorgente è tradotto in linguaggio macchina istruzione per istru-zione, con l’immediata e contemporanea esecuzione di ogni istruzione. A differenza della compilazione, l’interpretazione non da luogo ad una versione permanente del software in linguaggio macchina, sicché per eseguire nuovamente il software bisogna interpretarlo un’altra volta.

In linea di massima, qualunque linguaggio di programmazione potrebbe essere tanto compilato quanto interpretato, ma le due tecnica di traduzione comportano diversi vantaggi e svantaggi. Il principale vantaggio della compilazione è la maggiore velocità d’esecuzione del programma compilato rispetto a quello interpretato. Il principale vantaggio dell’interpretazione è la maggiore agilità con cui si può provvedere alla correzione ed alla modifica del programma; è possibile modificare il pro-gramma interpretato ed eseguirlo immediatamente, così da verificare l’effetto delle modifiche apportate, mentre la modif ica del programma compilato richiede la correzione del programma sorgente ed una nuova compilazione. Inoltre, i programmi interpretabili hanno il vantaggio di poter essere eseguiti su diversi tipi di calcolatore, grazie all’indipendenza dei linguaggi di alto livello rispetto alla macchina; ciascuno di quei calcolatori avrà a disposizione il proprio interprete, che tradurrà il pro-gramma nel linguaggio macchina di quel calcolatore. Un programma compilato (codice oggetto), invece, essendo espresso nel linguaggio macchina di un particolare tipo di calcolatore, potrà funzionare solo su quel tipo di calcolatore. La compila-zione offre invece un importante vantaggio nella distribuzione commerciale, consentendo di separare il codice oggetto dal codice sorgente. Il produttore può scegliere di distribuire solo il codice oggetto (il compilato) mantenendo segreto il codice sorgente, o di distribuire entrambi i codici a condizioni diverse. Mantenendo segreto il codice sorgente il produttore impedi-sce a concorrenti ed utenti di riutilizzarlo, in tutto o in parte, in nuovi software. Inoltre egli mantiene l’esclusiva di fatto sulla modifica del codice oggetto (che richiede modifica del sorgente e nuova compilazione), la quale si aggiunge all’esclusiva giuridica garantita dal diritto d’autore. La distribuzione del solo codice oggetto consente inoltre di circondare di maggiore sicurezza il software. Per conciliare i vantaggi commerciali della compilazione con l’esigenza di distribuire un’unica versio-ne del software funzionante su ogni tipo di macchina, si è recentemente resa disponibile la possibilità di realizzare una pre-compilazione indipendente dalla macchina: viene creata una versione intermedia tra codice sorgente e codice oggetto, che come l’oggetto non è comprensibile e modificabile da parte dell’uomo, e come il sorgente può essere utilizzata su ogni tipo

Page 16: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

di macchina (dovendosi ulteriormente compilare nel linguaggio macchina dello specifico calcolatore, prima di essere esegui-ta). Lo sviluppo del software è un’attività articolata, che si volge in fasi successive:

- analisi e specificazione dei requisiti. È la fase più importante di realizzazione del software, consiste nell’indicare gli obbiettivi da realizzare ed i modi in cui raggiungerli. Il momento dell’analisi dei requisiti consiste nell’individuazione delle funzioni che il software dovrà realizzare interagendo con i futuri utenti, ed il momento del-la specificazione dei requisiti consiste nell’individuazione precisa delle caratteristiche del software e delle modalità del suo inserimento nell’organizzazione a cui è destinato.

- progettazione di architettura ed algoritmi. Consiste nel definire l’articolazione del software in moduli, il rapporto tra i vari moduli e le forme della loro comunicazione, nonché gli algoritmi inerenti agli stessi moduli. Esistono numerosi metodi e linguaggi per l’analisi e la progettazione del software, tra i più diffusi si ricorda l’UML (Unified Modelling Language).

- programmazione o codifica. Consiste nella scrittura dei programmi che realizzano i singoli moduli. La program-mazione può apparire come l’attività principale, ma in realtà le competenze più elevate sono destinate all’analisi ed alla progettazione, mentre la programmazione è un’attività prevalentemente esecutiva.

- verifica. Consiste nell’accertare che il software sia privo di errori e risponda adeguatamente alle esigenze, bisognerà testare il funzionamento del programma con i più diversi input e casi d’uso.

- documentazione. Consiste nella stesura dei documenti volti ad illustrare la struttura ed il funzionamento del softwa-re; si tratta di documenti importanti per chi utilizza il sistema, ma anche per agevolare il compito di chi debba inter-venire successivamente su di esso per correggere gli errori, aggiornarlo od estenderlo.

- manutenzione. È una fase che si ha solamente dopo che il software sia entrato in funzione (dopo la consegna) e consiste in tutti quegli interventi intesi a migliorare il funzionamento del software. Al riguardo si può distinguere tra manutenzione correttiva (volta a rimediare agli errori realizzati durante lo sviluppo del software e sfuggiti alla fase di verifica) e manutenzione integrativa (volta ad arricchire il software di nuove funzioni).

Questo tipo di modello di sviluppo del software, seguito in molti grossi progetti, è detto sviluppo a cascata: ciò sta ad indi-care che bisognerà risalire la cascata delle diverse fasi se emergono problemi, fino al livello al quale i problemi possono es-sere risolti. Il modello a cascata presuppone che lo sviluppo del software proceda ordinatamente sulla base di un piano glo-bale. Tuttavia, esso espone al rischio che eventuali errori nelle fasi iniziali si manifestino solo molto tardi, quando il softwa-re è ormai completo. Questo modello, inoltre, sembra implicare un’organizzazione centralizzata e gerarchica ed in qualche modo autoritaria del lavoro, nella misura in cui le diverse fasi dello sviluppo sino affidate a soggetti diversi, dotate di com-petenze decrescenti. Nel software possiamo distinguere diverse componenti:

- componente concettuale. È costituita dagli algoritmi e dall’architettura del software (i moduli che lo compongono e la loro articolazione). Nell’ambito di questa componente è possibile distinguere le idee innovative, cioè le inven-zioni algoritmiche o invenzioni di software capaci di dare luogo ad algoritmi che migliorano rispetto allo stato dell’arte.

- componente testuale. È costituita dal programma che esprime la componente concettuale in una forma elaborabile automaticamente. Il programma originale è il frutto dell’opera del programmatore, mentre il programma deriva-to è quello che risulta dalla traduzione o dalla modifica del programma originale. Anche la documentazione fa parte di questa componente.

- componente materiale. È costituita dalla registrazione della componente testuale (programma e documentazione) su un determinato supporto fisico.

- componente virtuale. È costituita dalle elaborazioni che risultano dal processo di esecuzione della componente ma-teriale.

Dal punto di vista della funzione, si possono distinguere diverse tipologie di software: - software di sistema. È un software che offre le funzioni di base per il funzionamento del sistema informatico. Ad

esso appartiene il sistema operativo, che sovraintende al funzionamento del calcolatore, provvedendo ad attivare l’esecuzione dei programmi, a gestire il funzionamento della memoria, ad offrire un’interfaccia verso l’utente, ecc. Esso comprende inoltre i moduli che realizzano varie funzioni utili (utility) per controllare il funzionamento del cal-colatore (diagnostica) e gestire le apparecchiature periferiche.

- software per la programmazione. È un software destinato alla realizzazione di applicazioni informatiche, allo svi-luppo dei programmi e dei sistemi. Esso comprende l’interprete o il compilatore, necessari per rendere eseguibile il programma sorgente.

- software applicativo. Comprende i programmi che svolgono le diverse funzioni di cui l’utente ha bisogno. Dal punto di vista del loro utente, i software possono distinguersi in:

- pacchetti standardizzati. Sono destinati a rispondere alle esigenze di una vasta cerchia di utenti, ed offerti ad essi in un’unica forma.

- software su misura. Sono sviluppati per soddisfare le esigenze specifiche di uno o più clienti.

Page 17: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

4) Il software: modelli giuridico-economici Il software come bene economico, sia nella sua componente concettuale sia in quella testuale, è una realtà astratta (una con-figurazione di simboli ed idee) e per questo lo si assimila agli altri oggetti della proprietà intellettuale. L’uso del software è non rivale: più individui possono utilizzare lo stesso software, senza che diminuisca l’utilità che ciascuno trae da tale uso. L’uso del software è anche, in linea di principio, non escludibile: non si può impedire ad altri di utilizzare un software una volta che essi abbiamo accesso ad esso, se non adottando misure giuridiche o tecnologiche che limitino l’accesso al bene (il soggetto che viene in possesso di un software privo di protezioni giuridiche o tecnologiche, lo potrà usare su suo computer indipendentemente dalla volontà altrui). Le misure giuridiche e tecnologiche fanno del sof-tware un bene escludibile:

- la disciplina giuridica della proprietà intellettuale subordina il lecito utilizzo di un software al consenso del titolare dei diritti di sfruttamento economico sullo stesso. Se non vi fosse la proprietà intellettuale sarebbe possibile utilizza-re qualsiasi software senza violare la legge. Attraverso la disciplina della proprietà intellettuale viene creato un mo-nopolio temporaneo a favore del titolare dei diritti di sfruttamento economico: il software può essere usato solo con il consenso del titolare (secondo la disciplina attuale tale monopolio è estremamente ampio, estendendosi fino a 70 anni dalla morte dell’autore).

- le misure tecnologiche possono impedire ai terzi gli usi non autorizzati; in particolare, la distribuzione del solo sof-tware compilato impedisce all’utente di modificare il programma per svilupparlo o adattarlo alle proprie esigenze.

La protezione del software con misure giuridiche o tecnologiche si giustifica principalmente con considerazioni economiche attinenti alle esigenze della produzione: in mancanza di una protezione volta ad impedire usi non autorizzati, l’autore di un software non potrebbe ottenere guadagni sufficienti a coprire i costi dello sviluppo, infatti i potenziali clienti preferirebbero ottenere copie non autorizzate (piratate) a prezzi inferiori. Chi diffonde copie non autorizzate potrebbe infatti offrire ai con-sumatori un prezzo inferiore, non avendo l’esigenza di recuperare i costi sostenuti per lo sviluppo del software. Di conse-guenza, in mancanza di una tutela efficace la produzione di software sarebbe inferiore a quanto necessario per soddisfare il bisogno. Il principale modello giuridico per la protezione del software è quello del diritto d’autore, impostatosi su scala mondiale a partire dagli anni ’60. Il diritto d’autore rende il software un bene escludibile, conferendo a titolo originario all’autore del software una posizione giuridica che include due gruppi di diritti, i diritti morali ed i diritti patrimoniali. I diritti morali (che spettano sempre all’autore e sono inalienabili ed irrinunciabili) non determinano l’escludibilità, infatti l’opera può esse-re tranquillamente usata pur riconoscendo la paternità altrui. Il diritto morale più importante è il diritto alla paternità dell’opera, cioè il diritto ad esserne riconosciuto l’autore. L’escludibilità deriva invece dalla componente economica del di-ritto d’autore, che è costituita da un’insieme di diritti esclusivi:

- il titolare dei diritti economici ha il permesso di effettuare le utilizzazioni rientranti nei diritti esclusivi. - le utilizzazioni dell’opera sono precluse ad ogni altro soggetto, se non autorizzato dal titolare dei diritti. - il titolare dei diritti economici ha il potere di autorizzare altri ad effettuare le utilizzazioni rientranti nei propri diritti

esclusivi, nei limiti e nei modi da egli stabiliti. Nel caso del software i diritti esclusivi attengono alla duplicazione ed alla esecuzione del programma (che presuppone la duplicazione del software nella memoria centrale del computer), nonché la sua modifica e distribuzione al pubblico: tali attività possono essere compiute lecitamente solo dal titolare del diritto o da chi sia stato autorizzato dallo stesso. L’autorizzazione all’uso del software viene solitamente conferita ai consumatori mediante un contratto chiamato licenza d’uso: il titolare dei diritti di sfruttamento economico (il licenziante) conferisce all’altra parte l’autorizzazione ad usare il software entro certi limiti ed in certe forme, mentre l’utente (il licenziatario) si impegna a pagare un corrispettivo ed a rispet-tare i limiti stabiliti nella licenza. Il titolare dei diritti può fornire egli stesso una copia del software, in particolare nel caso in cui questo venga scaricato dal sito del produttore, ed in questo caso egli riceverà il corrispettivo direttamente dall’acquirente-licenziatario; in altri casi, il titolare dei diritti sarà compensato dal venditore del software, il quale cede copie del software agli acquirenti, per esempio un CD o un DVD nel quel il programma è registrato, verso un corrispettivo. Normalmente al licenziatario è trasferita una copia del solo software compilato, cioè del codice oggetto (il sorgente rimane presso il titolare dei diritti), e l’autorizzazione comprende solo la facoltà di installare tale codice oggetto sul proprio calco-latore e di eseguirlo. Il codice compilato è chiuso, nel senso che all’utente è preclusa la possibilità di accedere al codice sor-gente: di conseguenza egli non è in grado di capire il funzionamento del software dall’interno, né di modificarlo per adattar-lo alle proprie esigenze o perfezionarlo in vista di altre utilizzazioni. Tali attività sono duplicemente impedite: sono impedite giuridicamente (sono vietate dalla legge perché rientrano nei diritti esclusivi del licenziante, il quale non ha prestato la sua autorizzazione a tali attività) e sono impedite di fatto (l’utente ha a disposizione il solo programma compilato). Oltre alla compilazione, il titolare dei diritti può adottare ulteriori misure tecnologiche volte ad impedire che i possessori di copie del software ne facciano uso in modi non autorizzati, ed in particolare per impedire che il software venga illecitamente duplicato (per esempio, oggi si usa frequentemente la tecnologia consistente nel richiedere che il software si colleghi ad Internet per poter funzionare, il che attiva un controllo volto a verificare se il software sia dotato di valida licenza). Le misure tecnologi-che godono a loro volta di una tutela giuridica: non solo è vietato compiere attività non autorizzate dopo avere superato tali misure, ma è anche vietato e sanzionato realizzare o diffondere strumenti idonei a superare tali misure. Tale disciplina trova alcune deroghe:

- l’utilizzatore ha il diritto di fare una copia di riserva (backup) del software quando necessaria.

Page 18: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

- l’utilizzatore può tentare di decompilare il software solamente al fine di realizzare nuovi prodotti con esso interope-rabili.

- l’utilizzatore ha il diritto di correggere un software malfunzionante, qualora il produttore non risponda alle sollecita-zioni in tal senso.

Questa disciplina configura il modello del cosiddetto software proprietario: il titolare dei diritti usa una combinazione di clausole contrattuali e misure tecnologiche per restringere l’uso del software nei limiti dell’autorizzazione conferita all’utente. Tale autorizzazione di solito non comprende la possibilità di duplicare il software, poiché il titolare intende con-servare a sé il monopolio sulla creazione e distribuzione di nuove copie, un’attività che gli consente di continuare a ricevere un compenso a fronte della concessione di ulteriori licenze per l’uso del proprio software. Inoltre il titolare conserva il mo-nopolio sulla modifica e sullo sviluppo del proprio software, il quale gli consente di poter trarre ulteriori guadagni dalla ven-dita delle versioni successive (il monopolio sulle modifiche ed i miglioramenti è protetto, più che dal diritto d’autore che pu-re vieta ai terzi tali attività, dal fatto che il titolare distribuisce il solo codice oggetto, che non può essere modificato nemme-no da esperti programmatori). Tale modello presenta alcuni aspetti problematici:

- limita l’uso del software a coloro che abbiano potuto pagare il prezzo richiesto dal titolare dei diritti. - la diffusione del software nella sola versione compilata (solo il codice oggetto) comporta una perdita nella diffusio-

ne della conoscenza. Questa situazione comporta l’impossibilità di sviluppare il software, di perfezionarlo o di usar-ne le componenti nello sviluppo di altri software. Chi fosse interessato a questi usi di un software altrui potrebbe contattare il titolare dei diritti e chiedergli l’autorizzazione a creare software derivati a fronte di un corrispettivo o di una compartecipazione agli eventuali guadagni futuri. Tuttavia, a tal fine l’interessato dovrebbe essere certo che il software può essere sviluppato adeguatamente, pur non potendo conoscerne in anticipo il contenuto, e che il mercato darebbe il risultato atteso, mentre il titolare dei diritti dovrebbe essere certo che l’interessato ha le capacità e l’affidabilità necessaria, dal momento che l’attuazione del contratto richiede la consegna del codice sorgente. In mancanza di tali certezze, l’affare non si concluderà e le opportunità di sviluppo andranno perdute.

- può comportare una perdita di libertà e democraticità. Si tratta anzitutto della libertà dello sviluppatore e dello stu-dioso: lo specialista di informatica cui sia precluso l’accesso a questi software viene privato della libertà di conosce-re l’aspetto della realtà sociale cui è interessato (libertà di informazione), ed inoltre della libertà di dare il proprio specifico contributo allo sviluppo culturale (libertà di partecipare alla cultura) ed alle discussione delle strutture so-ciali e politiche (libertà politica). Queste perdite di libertà non riguardano solo gli informatici: anche chi non abbia le competenze per studiare il software, o non sia interessato a farlo, potrebbe individuare difetti e prospettive di svi-luppo, avanzare critiche e proporre soluzioni.

I problemi inerenti al software proprietario, pur nell’apparente invincibilità dell’argomento economico a suo favore (quello della mancanza di un incentivo a sviluppare software in assenza di una tutela proprietaria), hanno determinato la nascita di un modello alternativo, basato su una diversa impostazione giuridica ed economica, il software open source. Alle origini del movimento open source vi è l’attività di Richard M. Stallman. Egli era uno sviluppatore di software degli anni ’70, pe-riodo in cui si diffuse il modello proprietario: i software, che prima erano forniti dai produttori dell’hardware in versione sorgente ed erano liberamente modificabili, divennero chiusi (forniti solo nel codice oggetto) e protetti dalle esclusive del diritto d’autore. Stallman decise di ribellarsi a tale assetto economico-giuridico, che lo privava della libertà di conoscere e modificare i programmi informatici, e di condividere le proprie conoscenze, scoperte ed innovazioni; egli divenne promoto-re di un diverso modello, che garantisse all’utente le quattro libertà (negate dal modello proprietario):

- libertà 0: libertà di eseguire il programma per qualsiasi scopo. - libertà 1: libertà di studiare come funziona il programma per adattarlo alle proprie necessità (per questo l’accesso

al codice sorgente è necessario). - libertà 2: libertà di distribuire copie del software in modo da aiutare il prossimo. - libertà 3: libertà di modificare il programma, per migliorarlo e diffondere tali miglioramenti, arrecando un benefi-

cio a tutto la comunità (per questo l’accesso al codice sorgente è necessario). Stallman coniò il termine di software libero per indicare i programmi informatici in cui fossero garantite queste quattro li-bertà, ed elaborò un meccanismo giuridico volto a garantirle, la licenza GPL (General Public Licence). Anche la disciplina del software libero trae origine dal diritto d’autore, ed in particolare dal potere del titolare di autorizzare altri all’esercizio delle facoltà inerenti ai propri diritti esclusivi e di regolare i modi di tale esercizio; la licenza GPL, però, prevede un’autorizzazione tanto ampia da fare venire meno l’esclusività di quei diritti, conferendo irrevocabilmente la pienezza delle quattro libertà al licenziatario del software ed ai successivi soggetti a cui sia trasferita una copia dello stesso. È importante precisare che software “libero” non vuol dire “non-commerciale” o “gratuito”. Benché molti software liberi siano gratuitamente accessibili (è possibile a chiunque scaricarne una copia attraverso Internet), la copia di un software libe-ro può essere fornita dall’autore o da altri a fronte di un pagamento, sempre che chi riceve la copia conservi le quattro liber-tà. Tuttavia, è sicuramente vero che il modello del software libero limita le possibilità di guadagno dell’autore (del titolare dei diritti patrimoniali): per la prima copia l’autore può chiedere un prezzo elevato, ma per le copie successive egli non è più in grado di farlo, perché i potenziali acquirenti potranno rivolgersi ai successivi cessionari, i quali possono fornire copie del-lo stesso software ad un prezzo inferiore a quello proposto dall’autore od anche gratuitamente. Di conseguenza, o l’autore riesce a recuperare tutti i propri costi ed il profitto con la prima cessione o rischia di lavorare in perdita. Questo rischio, tut-tavia, può essere superato in due modi: o l’autore è mosso da motivazioni diverse dal vantaggi economico (desiderio di par-tecipare ad un certo progetto, di inserirsi nella comunità degli sviluppatori, ecc) o l’autore si aspetta un’appropriazione indi-

Page 19: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

retta (vantaggi economici derivanti da attività successive, come contratti retribuiti per consulenze sull’uso del software libe-ro sviluppato o per adattamenti allo stesso, futuri impieghi grazie alla reputazione conseguita, ecc). Alle clausole che garantiscono le libertà degli utenti si unisce, nella disciplina della GPL, la clausola del copyleft (permesso d’autore): i programmi che risultano dalla modifica di un software soggetto a GPL possono essere trasferiti ad altri sola-mente se assoggettati anch’essi alla disciplina del GPL (che garantisce le quattro libertà). Chi ha operato delle modifiche su un software soggetto a GPL non potrà quindi fare valere il proprio diritto d’autore sulle modifiche per impedire l’esercizio delle quattro libertà a chi riceva una copia della versione modificata, né potrà distribuire il software solo in versione compi-lata. Lo scopo della clausola copyleft è fare si che il patrimonio del software libero si espanda progressivamente. I software disciplinati dalla GPL non sono completamente sottratti al diritto d’autore: essi sono soggetti alla componente morale del diritto d’autore (il riconoscimento della paternità dei suoi autori, che deve essere obbligatoriamente indicata an-che quando si distribuiscono versioni modificate) ed al vincolo del copyleft. La possibilità di modificare liberamente il software (anche se soggetta alla disciplina del copyleft) è una garanzia antimono-polistica della libertà d’impresa: se i partecipanti di un progetto di software libero sono insoddisfatti della direzione presa dal progetto, possono dotarsi di una copia del software e sviluppare un nuovo progetto, anche in concorrenza con quello da cui ci sono distaccati. Nel 1.984, Stallman fondò la Free Software Foundation, allo scopo di promuovere la crescita del software libero ed iniziò a sviluppare il progetto di un sistema operative non-proprietario che chiamò GNU. Nel 1.991 il progetto aveva fatto molti passi avanti, ma mancava ancora il nucleo del sistema operativo, indispensabile per il suo funzionamento. In quell’anno Li-nus Torvald, un giovane informatico finlandese, pubblicò su Internet il nucleo di un sistema operativo, assoggettando il re-lativo software alla licenza GPL, ed invitando tutti gli interessati a sperimentarlo ed a contribuire al suo sviluppo. Al nucleo fornito da Torvald furono unite alcune componenti di GNU e, grazie alla collaborazione di un crescente numero di sviluppa-tori, il sistema operativo GNU/Linux fu completato. Fin dalla seconda metà degli anni ’90, Linux divenne un concorrente dei sistemi operativi proprietari più diffusi, diffondendosi presso una cerchia sempre più ampia di utenti sulle diverse piatta-forme hardware. Nello sviluppo tradizionale (quello a cascata) del software proprietario si adotta il metodo della cattedrale, basato sulla ge-rarchia, la centralizzazione e la distinzione dei ruoli; nello sviluppo del software libero si adotta invece il metodo del bazar, nel quale coesistono diverse aspettative ed iniziative, manca una netta distinzione dei ruoli, il progetto è suddiviso in moduli distinti e sviluppati in relativa indipendenza e diverse versioni parallele, le decisioni sono decentrare e dinamiche, il coordi-namento è fornito dal fatto che tutti rendono disponibili su Internet i risultati del loro lavoro ed i commenti sui lavori altrui. Nello sviluppo del software open source, quindi, si procede prevalentemente dal basso verso l’alto, anziché dall’alto verso il basso: ne risulta uno sviluppo incerementale-evolutivo, anziché pianificato, dove la comunità degli sviluppatori e degli uten-ti stabilisce, con le proprie autonome scelte, quali proposte avranno successo e quali incideranno sullo sviluppo e sull’articolazione del progetto complessivo. Si tratta di una funzione di guida e controllo che non si basa su gerarchie giuri-dicamente definite, ma piuttosto sul prestigio dei coordinatori del progetto. L’idea che il software debba essere distribuito anche in forma sorgente e che maggiori diritti debbano essere consentiti agli utenti ha trovato un’accettazione ampia, che va al di là di quanti si identificano con le tesi rigorose e l’intransigente imposta-zione politico-ideologica di Stallman (tesi che corrispondono al modello del software libero). Pertanto, alcuni progetti di svi-luppo di software, che pure tendono a realizzare software distribuiti in codice sorgente che garantiscano agli gli utenti le quattro libertà, preferiscono autoqualificarsi usando l’espressione software open source (a sorgente aperta), anziché software libero. Si suole affermare che per il movimento del software libero la garanzia delle libertà degli utenti è una scelta etica e determinata anche da motivazioni politico-ideologiche, mentre per il movimento del software open source, cui partecipa-no anche grandi imprese, la garanzia di tali libertà è prevalentemente motivata da ragioni tecniche, economiche o com-merciali. Il software open source ha conosciuto un grandissimo sviluppo nel corso degli ultimi anni. Tra gli esempi più significativi possiamo ricordare: il sistema operativo Linux, il browser Firefox, il software per l’ufficio e la redazione di testi Ope-nOffice. Anche imprese di grandi dimensioni, che operano a fini di profitto, partecipano a progetti di software open source, ma per quale motivo un’azienda che opera a fini di profitto dovrebbe investire per realizzare dei prodotti sui quali non può vantare diritti di sfruttamento economico, prodotti anzi a tutti accessibili e spesso distribuiti gratuitamente? Perché anche le imprese (e non solo i singoli) possono trarre vantaggi dalla partecipazione a progetti di software open source: mantenere il contatto con gli utenti e gli sviluppatori, stimolare la domanda di offerte complementari, facilitare la collaborazione con altre imprese, ridurre i costi di sviluppo, ecc. Infine, c’è da dire che i modelli del software proprietario e del software open source non sono necessariamente in conflitto, ma possono svolgere ruoli complementari: per esempio, numerose imprese sviluppa-no software con doppia licenza, una versione libera e limitata alle funzioni di base, ed una versione proprietaria ed arricchita di funzionalità ulteriori, disponibile a pagamento. Dal punto di vista della loro disciplina giuridica, i software si distinguono in:

- software proprietario. L’uso di questi software è ristretto dalle esclusive del diritto d’autore, e viene conferito se-condo una licenza che limita le libertà dell’utente. Tale licenza conferisce al licenziatario, di regola, la sola facoltà di usare il software, senza poterlo modificare o distribuire. Di regola il software proprietario è chiuso, cioè di esso viene fornito solo il codice oggetto (il compilato), mentre il licenziante trattiene presso di sé il sorgente.

- software open source. L’uso di questi software è concesso con una licenza che conferisce al licenziatario la piena libertà di eseguire, studiare, modificare e distribuire il software stesso. La libertà di distribuire un software open

Page 20: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

source può essere soggetta alla sola condizione del copyleft, cioè all’obbligo di assoggettare a licenza open source anche le modifiche di tale software. La licenza GPL include la clausola copyleft, che invece non è compresa in altre licenze open source.

Esistono inoltre dei particolari modelli di software: - software di pubblico-dominio. Si ha quando il titolare dei diritti rinunci irrevocabilmente ai propri diritti economi-

ci, come avviene per il software open source, e non limiti la distribuzione del software con la clausola del copyleft; in questa situazione chiunque potrà usare, modificare e distribuire il software, e potrà inoltre avanzare il proprio di-ritto d’autore sulle versioni che includano le proprie modifiche, nonché distribuire tali versioni con licenze proprie-tarie ed esclusivamente nel codice oggetto. In questo caso possiamo dire che il software è di pubblico-dominio per-ché è del tutto sottratto alla disciplina del diritto d’autore per quanto riguarda gli aspetti economici (essendo i diritti morali irrinunciabili nel nostro ordinamento).

- software freeware (software gratuito). Si indicano i programmi ottenibili gratuitamente, che possono essere usati e distribuiti dagli utenti, ma non possono essere modificati (il loro codice sorgente non è reso accessibile).

- software shareware (software condiviso). Si indicano i programmi distribuiti gratuitamente, ma solo per un tempo determinate o con funzioni limitate, al fine di indurre l’utente ad acquistare la versione definitiva o completa.

- sofware-come-servizio (software-as-a-service). Si ha quando il software viene usato dall’utente senza che questi ne abbia ottenuto una copia, per questo il software non è installato nel computer dell’utente ma su in server remoto a cui l’utente può accedere attraverso Internet.

5) Sviluppo della programmazione Secondo il modello tradizionale il calcolatore è un utile idiota, un fedele esecutore di un algoritmo concepito dall’uomo ed espresso in un programma informatico: esso riceve in input il programma che esprime l’algoritmo ed i dati, esegue l’elaborazione attraverso calcoli binari, consegna i risultati di output, e resta quindi in attesa di un nuovo input. Ormai il mondo dell’informatica è un ambiente densamente popolato, dove coesistono numerosi prodotti software in grado di rispondere a gran parte delle esigenze, e dove molti problemi si possono risolvere solo grazie alla cooperazione e coordi-nazione dei diversi software esistenti. Ciascuno di questi software, di tanto in tanto, prende il controllo dell’unità centrale di elaborazione, facendo eseguire ad essa porzioni di programma;; l’alternarsi dei diversi software sarà regolato da algoritmi che si occupano di coordinare i diversi processi contemporaneamente attivi all’interno del calcolatore. L’esigenza di coordi-namento, peraltro, si pone anche nell’ambito di singole applicazioni informatiche: un grande sistema di software è compren-sibile all’uomo solamente se modulizzato, cioè suddiviso in unità indipendenti di dimensione ridotta, padroneggiabili dalla mente umana. Gli attuali sistemi informatici devono rispondere a tante esigenze, perciò diventa difficile progettare un sof-tware di ampie dimensioni come un oggetto unitario (si tratterebbe di un’unica, lunghissima, combinazione di istruzioni). Il singolo programmatore sviluppa singoli moduli di un progetto complessivo a cui partecipano molti altri programmatori; i singoli moduli spesso risultano dalla combinazione di software preesistenti ed il programmatore si limita ad integrare tali software ed a sviluppare le porzioni eventualmente mancanti. Un software di ampie dimensioni diventa più facilmente com-prensibile se concepito ed organizzato secondo un’architettura composta da un insieme di oggetti indipendenti, che interagi-scono scambiandosi messaggi; ciascuno di tali oggetti dispone di piccoli programmi, chiamati metodi, e contiene propri da-ti, che rappresentano degli attributi dell’oggetto. Lo sviluppo di un sistema di software consiste pertanto nella creazione di un ambiente nel quale i diversi oggetti possano interagire e poi nella definizione di ciascuno di essi, specificandone l’interfaccia verso l’esterno (i messaggi che esso emette d accetta) ed i programmi ed i dati che contiene. Negli ultimi anni, si parla del passaggio da un’architettura basata sugli oggetti, ad un’architettura basata sui servizi: l’oggetto del software esplica la sua funzione all’interno del programma complessivo, mentre il servizio presta le proprie funzioni a chiunque lo richieda (a certe condizioni). Ciò implica che l’oggetto del software, anziché essere racchiuso nell’ambito di un particolare sistema, dovrà essere capace di interagire con qualsiasi persona o programma ne richieda il servizio, secondo convenzioni condivise;; l’oggetto del software diventa quindi il fornitore di un servizio. Lo sviluppo di ar-chitetture software basate su servizi presenta un particolare interesse per il giurista: nel momento in cui un servizio può esse-re offerto a più utenti, anche esterni all’organizzazione che possiede il sistema fornitore, diventano giuridicamente rilevanti i rapporti in base ai quali tale servizio è prestato.

CAPITOLO 4: I dati informatici 1) Dati e modelli concettuali I dati informatici sono valori che possono essere elaborati da un calcolatore elettronico. L’input di ogni processo computazionale è costituito da dati strutturati secondo una particolare concettualizzazione, secondo la quale debbono essere conformati anche gli algoritmi destinati ad operare su quei dati. Quando diverse applicazioni infor-matiche debbano interagire, operando sugli stessi dati o scambiandosi dati, è necessario che esse posseggano una concezione comune di quei dati, cioè che qui dati esprimano una categorizzazione operata secondo concetti condivisi, o almeno comu-nicabili.

Page 21: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

In ambito informatico il modo attualmente diffuso per rappresentare i dati (per rappresentare le basi di dati) è il modello re-lazionale: il principio che sta alla base di tale modello è che tutte le informazioni sui dati siano rappresentate da valori inse-riti in tabelle, che dal punto di vista tecnico prendono il nome di relazioni (le relazioni rappresentano determinate classi di oggetti ed i loro rapporti, cioè le associazioni). Le varie componenti del modello relazionale sono le seguenti:

- le classi o entità, indicano un concetto generale usato per denotare oggetti particolari. - le caratteristiche o attributi della classe, le informazioni che s’intendono fornire sugli elementi appartenenti ad es-

sa. Nel determinare gli attributi di una classe di dati si determina il filtro attraverso il quale il software vedrà la real-tà, si prestabilisce cosa esso considererà rilevante e cosa irrilevante, che cosa potrà influire o meno nelle operazioni del sistema. Tali scelte hanno considerevoli implicazioni giuridiche e pratiche (ad esempio la qualità dei dati infor-matici può dipendere in modo decisivo dalla scelta degli attributi). Quando si rappresenta un certa classe di oggetti in un sistema informatico, è opportuno che vi sia un attributo o una combinazione di attributi che corrisponda in modo univoco ad uno e uno solo degli oggetti rientranti nella classe di riferimento; tale attributo può fungere da chiave per quella classe, infatti specificando un determinato valore di quell’attributo si individua un unico membro della classe.

- un’istanza della classe, la rappresentazione di uno degli oggetti a cui fa riferimento il concetto generale, e si ottiene specificando valori determinati per gli attributi.

- le associazioni, rappresentano i rapporti tra le varie classi (i dati contenuti in un sistema informatico descrivono le caratteristiche delle classi ed anche i loro rapporti).

Esistono linguaggi avanzati per l’interrogazione delle basi di dati relazionali, che consentono di specificare i dati che si de-sidera recuperare traendoli da una o più tabelle, e consentono di estrarre tabelle virtuali sulla base delle tabelle, le relazioni, registrate nel database. 2) L’organizzazione dei dati La memoria centrale del computer è volatile, nel senso che essa contiene i dati necessari per l’elaborazione in corso e viene liberata quando tale elaborazione ha termine. Di conseguenza, per mantenere i dati nel tempo è necessario registrarli su di-spositivi di memoria (di solito dischi magnetici) che consentano la registrazione permanente di grandi quantità di dati, detti memorie di massa. La registrazione dei file su tali memorie ha un aspetto logico (modo nel quale le informazioni sono or-ganizzate dal programmatore) ed un aspetto fisico (modo in cui i dati sono materialmente disposti nei supporti fisici). Il file è il livello più basso dell’organizzazione logica dei dati, è una raccolta di dati identificata da un unico nome (il nome del file). Dal punto di vista materiale, invece, un unico file potrebbe benissimo essere scritto su più zone diverse del supporto fisico che lo ospita. Si distinguono due principali tipi di file:

- gli archivi (file strutturati: un archivio contiene un’insieme di schede dotate della medesima struttura). Gli archivi sono file composti da uno o più file insieme a metadati (dati su altri dati, cioè informazioni che descrivono un insieme di dati per fini diversi). In un archivio le istanze di una classe sono registrate in modo uniforme, a ciascuna istanza è dedicato un record (scheda). Ogni record è suddiviso in settori, detti campi, ciascuno dei quali contiene il valore di un particolare attributo della classe (si parla di formato di record per indicare la suddivisione di un record in determinati campi). La registrazione dei record nei supporti fisici dipende dal particolare software utilizzato per creare od aggiornare l’archivio, e di regola sfugge al contro llo dell’utilizzatore, il quale accede all’archivio solo utilizzando il relativo software. Si possono adottare diverse tecniche per esprimere la strutturazione della scheda in modo che essa sia riconoscibile da parte della macchina (tali tecniche normal-mente sono applicate automaticamente dal software usato per la gestione dell’archivio, senza che l’utente se ne debba occu-pare).

- i file di testo liberi o testi (file non strutturati: un testo contiene una sequenza non strutturata di caratteri alfabetici e numerici).

I file di testo consistono in componenti testuali, ossia sequenze di parole, accompagnate da indicazioni sulla loro pre-sentazione a video o a stampa, cioè da indicazioni per la formattazione, la visualizzazione, la strutturazione delle componenti testuali (ad esempio l’indicazione che una certa sequenza di parole è in corsivo). In particolare, appartengono alla categoria dei file di testo libero i documenti che realizziamo utilizzando software per la re-dazione di testi, i cosiddetti elaboratori di testi. Negli elaboratori di testi oggi maggiormente usati le indicazioni attinenti alla presentazione dei contenuti testuali non sono espressamente inserite dall’utente, né vengono visualizzate allo stesso: è il software che si occupa di registrare tali indicazioni quando l’utente fornisce il comando corrispondente (ad esempio, clic-cando il bottone per il corsivo dopo avere selezionato una parola) e di visualizzare immediatamente sullo schermo il risultato dell’applicazione delle stesse indicazioni (nell’esempio, la parola in corsivo). La forma nella quale sono registrate le indica-zioni attinenti alla presentazione non è di regola facilmente leggibile dall’utente, essendo destinata alla elaborazione automa-tica. In alcuni casi l’illeggibilità è completa, nel senso che il tentativo di leggere il documento registrato nella memoria del computer (nel disco rigido), cogliendovi le indicazioni per la presentazione, richiederebbe uno sforzo enorme, paragonabile allo sforzo necessario per comprendere il funzionamento di un programma in linguaggio macchina (ciò si verifica, ad esem-pio, nel formato DOC di Microsoft Word). Ci sono anche formati in cui si ottiene una migliore leggibilità. Esistono anche sistemi per la redazione di testi nei quali l’utilizzatore inserisce all’interno del testo le indicazioni per la presentazione, spe-

Page 22: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

cificando direttamente le modalità di presentazione delle componenti testuali (in questo caso i comandi per la formattazione sono più comprensibili). In questo caso per visualizzare il risultato ottenibile a stampa bisognerà procedere ad una sorta di compilazione, detta composizione: sulla base del file sorgente prodotto dall’autore, comprensivo del testo e delle indicazioni di formattazione, viene automaticamente prodotto il file visualizzabile e stampabile, nel quale le indicazioni per la presenta-zione non sono più leggibili da parte dell’uomo ma sono comunque utilizzabili dal computer (le successive revisioni del te-sto si dovranno compiere sempre sul file sorgente). La registrazione dei dati informatici avviene in base a cere regole, che definiscono il formato degli stessi. Innanzitutto bisogna stabilire come passare dal formato binario a quello alfabetico o decimale necessario alla lettura dei dati da parte dell’uomo. A ciò provvedono particolari tabelle di conversione, che stabiliscono un rapporto biunivoco tra caratteri alfabe-tici-numerici e certe sequenze di cifre binarie. Occorrono inoltre convenzioni secondo le quali esprimere ulteriori informa-zioni: rispetto agli archivi bisogna specificare la funzione di ogni dato, rispetto ai file di testo bisogna specificare la forma tipografica in cui presentare le parole che compongono il testo (grassetto, corsivo, spaziature, ecc). I dati elaborati in un certo formato possono essere elaborati solo da software specificatamente predisposti in modo da trattare quel formato. Di conseguenza, chi ha registrato i dati in un certo formato li può condividere con altre persone o altri sistemi informatici solo se anche queste utilizzano un software adeguato a quel formato. In molti casi vi è un unico software che corrisponde pienamente ad un certo formato di dati, per cui utilizzare i dati con un altro software richiede una conversione (i cui risultati raramente sono perfetti). Ciò pone in una posizione di debolezza gli utilizzatori: chi abbia accumulato una note-vole quantità di dati in un certo formato è vincolato all’utilizzo dell’unico software predisposto per leggere quel formato se non vuole affrontare i costi ed i disagi relativi alla trasformazione in un altro formato, e chi intenda condividere dati con altri soggetti è vincolato a predisporre quei dati in un formato accettato dai software impiegati da quei soggetti. Questi vincoli contribuiscono a determinare l’effetto di rete (network effect) visto precedentemente: la tendenza all’ulteriore diffusione dei formati maggiormente diffusi e dei software compatibili con tali formati (è così per i file di testo, nei quali domina il formato DOC di Microsoft Word). Il problema è particolarmente grave quando si tratti di un formato proprietario, sulla cui evoluzione decide un soggetto privato, cioè il soggetto che detiene il diritto d’autore sui software che producono i dati in quel formato. Questo soggetto, anche quando non possa vantare diritti di proprietà intellettuale sul formato stesso, ne controlla l’evoluzione e l’utilizzo: egli, quando possegga una posizione dominante nel mercato dei software che utilizzano quel formato, può spiazzare eventuali concorrenti che abbiano iniziato ad usare lo stesso formato, semplicemente modifi-cando il formato prodotto dal proprio software, in modo che i software dei concorrenti non riescano più a trattare la versione modificata. Per di più, non è sempre disponibile una specifica del formato dei dati, cioè la precisa indicazione di come i dati debbano essere codificati per essere utilizzabili dai programmi che adottano il formato stesso (lo sviluppatore del program-ma può mantenere occulta la specifica o può fornirla solo a pagamento o comunque a determinate condizioni). Ricostruire la specifica di un formato è difficile: dall’esame dei file dotati di quel formato bisogna ricostruire il linguaggio usato per indi-care le modalità di presentazione e la struttura del file (tale ricostruzione, inoltre, va ripetuta per ogni nuova versione del sof-tware che produce il formato, il quale di regola è in grado di leggere i file prodotti nei formati precedenti ma produce i nuovi file in un formato leggermente diverso). Per rimediare ai problemi determinati dall’uso di formati proprietari (chiusi) sono nati formati aperti, la cui definizione ed evoluzione è affidata ad organismi imparziali e le cui specifiche sono rese pubbli-camente disponibili, e che possono essere utilizzati da chiunque via abbia interesse. 3) Basi di dati e information retrieval L’elaborazione informatica dei dati offre nuove e straordinarie possibilità rispetto al trattamento dei dati su supporti cartacei:

- la possibilità di aggregare, disaggregare, combinare, ecc informazioni registrate su diversi archivi, attraverso i si-stemi per la gestione di basi di dati.

- la possibilità di ricercare elementi testuali compresi all’interno di raccolte documentali, attraverso i sistemi per l’information retrieval (recupero di informazioni).

Nel linguaggio legislativo, il termine banca di dati (sinonimo di base di dati) indica una qualsiasi raccolta di opere, dati od altri elementi indipendenti sistematicamente o metodicamente disposti ed individualmente accessibili mediante mezzi elettronici o in altro modo. Il termine base di dati è usato soprattutto per denotare raccolte di dati evolute, costituite da più archivi tra loro integrati, i cui dati sono elaborabili in modo da offrire ai diversi utenti le informazioni di cui hanno bisogno; a tal fine occorre uno specifico tipo di sistema informatico, detto sistema per la gestione di basi di dati (DataBase Management System, DBMS), il quale funge da intermediario tra gli archivi di dati e gli utilizzatori (umani o automatici). Il DBMS consente di rappresentare i dati in modo indipendente dai programmi destinati ad usare quei dati; a tale fine esso mantiene dei dizionari di dati, ossia delle raccolte di metadati (dati intesi a descrivere altri dati) che specifi-cano il significato e la struttura dei diversi tipi di dati registrati nella base di dati, e le convenzioni usate nella loro registra-zione. Grazie alle indicazioni fornite dai dizionari è possibile realizzare diversi software che usano coerentemente i contenu-ti della base di dati, richiedendoli al DBMS; vengono così risolti i difficili problemi di coordinamento e compatibilità che esistevano quando ogni programmatore definiva individualmente gli archivi per i propri programmi, secondo regole che re-stavano implicite nella struttura di tali archivi. Oltre a facilitare l’accesso ai dati, un DBMS può contribuire ad assicurare la qualità dei dati stessi, sotto i seguenti profili:

- coerenza dei dati: il DBMS permette a diverse applicazioni di usare gli stessi dati, riducendo le duplicazioni.

Page 23: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

- integrità: il DBMS contribuisce a fare sì che la base di dati sia integra, cioè contenga solo dati corretti (il DBMS non può garantire la corrispondenza dei dati alla realtà rappresentata, ma può imporre il rispetto di certi vincoli).

- ripristino: il DBMS comprende procedure automatiche per il ripristino della base dei dati in caso di errori e mal-funzionamenti imputabili all’hardware o al software, permette in particolare la ricostruzione di uno stato anteriore all’evento della base di dati.

- sicurezza: il DBMS controlla l’intera base di dati, per questo può garantire che ad essa si acceda solo secondo certe modalità e procedure o dopo avere ottenuto idonee autorizzazioni.

- riservatezza: l’uso di un DBMS può facilitare il rispetto della riservatezza dei soggetti a cui i dati si riferiscono (so-prattutto quando si debbano trattare grandi quantità di dati), infatti il DBMS può limitare l’accesso ai dati, consen-tendolo solo a chi abbia diritto di accedere ad essi e fornendo ad ogni utente la vista sui dati che corrispondono ai suoi diritti di accesso.

Vi sono diversi modelli di basi di dati, gestiti da diversi tipi di DBMS, il modello relazionare (visto precedentemente )è quello più diffuso. I software per l’information retrieval (recupero di informazioni) servono a recuperare le informazioni testuali estraendole da grandi masse di documenti. La loro funzione fondamentale consiste nel fornire all’utente tutti i documenti che rientrano nel suo interesse, cioè tutti i documenti che rispondono alle sue esigenze informative. Normalmente l’utente è interessato a tutti i documenti che vertono su un certo tema o concetto, egli dovrà pertanto formulare un quesito che specifici il tema di interesse, ed il sistema risponderà al quesito fornendo i documenti attinenti a quell’argomento. Nella ricerca di informazioni hanno importanza fondamentale gli aspetti linguistici, ancora oggi nell’ipotesi più diffusa la ricerca avviene in modo sintat-tico, cioè ricercando tutti i testi che contengano i termini specificati nel quesito; si ha invece una ricerca in modo semantico quando il sistema non si limita a ricercare i documenti che contengono le parole specificate nel quesito, ma cerca tutti i testi che esprimono il concetto specificato nel quesito, in qualsiasi forma esso sia espresso (anche con altre parole). La ricerca automatica di informazioni testuali si avvale solitamente di indici; un sistema per la ricerca mediante indici con-sta di due componenti fondamentali:

- l’indicizzatore, per la creazione degli indici. - il motore di ricerca, il quale sulla base degli indici individua ed estrae le informazioni richieste.

Esistono tecniche estremamente raffinate per la creazione e l’utilizzo di indici. Il caso più semplice e più comune è l’indice detto file invertito: esso elenca tutte le parole contenute nei documenti e riporta per ogni parola la collocazione dei docu-menti che la contengono (in questo caso l’indicizzatore dovrà estrarre le parole dai testi ed inserirle nell’indice, provvedendo inoltre ad indicare per ogni parola la collocazione dei testi che la contengono). Se si sono specificati più termini di ricerca, il sistema combinerà i risultati relativi a ciascuno di essi nel modo opportuno. I sistemi che trattano basi documentarie partico-larmente ampie provvedono inoltre ad ordinare i risultati ottenuti sulla base della loro rilevanza (misurata da appositi indizi), così da indirizzare l’utente verso i documenti più promettenti. Nella valutazione delle prestazioni dei sistemi per l’information retrieval vi sono due parametri fondamentali, dalla cui combinazione risulta l’accuratezza delle ricerche compiute dal sistema:

- il richiamo, cioè la quantità di documenti pertinenti ritrovati, in rapporto a tutti i documenti pertinenti contenuti nel-la base documentale.

- la precisione, cioè la quantità di documenti pertinenti ritrovati, in rapporto a tutti i documenti recuperati. Per valutare le prestazioni di un sistema di information retrieval non si dovrà considerare un singolo quesito, ma si dovrà va-lutare il comportamento medio in relazione ad un campione di quesiti abbastanza ampio:

- il silenzio è il difetto nel richiamo, e risulta dal rapporto tra i documenti pertinenti non recuperati e tutti i documenti pertinenti contenuti nel database.

- il rumore è il difetto nella precisione, e risulta dal rapporto tra la quantità di documenti recuperati non pertinenti e tutti i documenti recuperati.

È possibile utilizzare la logica anche per compiere interrogazioni complesse mediante un motore di ricerca. In questo caso, al posto di specificare una sola condizione di ricerca, si formulano interrogazioni booleane, consistenti nella combinazione logica di più condizioni. Gli operatori booleani (“and”, “or”, “not”), tuttavia, non esauriscono quelli comunemente disponi-bili. Di regola i motori di ricerca offrono anche la possibilità di intervenire su tali connessioni logiche:

- consentono di specificare che i termini compresenti, cioè richiesti in “and”, debbano essere adiacenti. - consentono di ricercare termini incompleti. A questo proposito si ricordano due tipi di operatori::

- l’operatore di troncamento consente di indicare solo l’inizio dei vocaboli cercati, cioè si richiedono tutti i voca-boli che iniziano con l’espressione troncata. - l’operatore di mascheramento consente di sostituire uno o più caratteri della chiave di ricerca con un jolly che indica un qualsiasi attributo del carattere; così la ricerca verte su tutti i termini che coincidono con la chiave nei re-stanti caratteri (non ha rilievo il carattere collocato nella posizione jolly) ed ogni documento che contenga uno di questi termini soddisferà la condizione specificata mediante il carattere jolly.

4) I linguaggi di marcatura Negli ultimi anni le distinzioni che opponevano gli archivi di file di testo e le basi di dati da un lato, ai sistemi per l’information retrieval dall’altro hanno perso importanza. Ciò è dovuto al fatto che si sono sviluppate nuove tecniche per la

Page 24: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

gestione dei dati, che consentono di organizzare e rendere riconoscibili al computer anche i dati contenuti all’interno di file di testo. Questo risultato si ottiene mediante l’utilizzazione di linguaggi per la marcatura (markup language), che con-sentono di individuare le componenti di un documento testuale racchiudendole all’interno di etichette (tag) riconoscibili au-tomaticamente e di inserire ulteriori informazioni all’interno del documento, distinguendole rispetto al suo contenuto testua-le (in questo modo i testi possono essere arricchiti con indicazioni per la loro stampa, visualizzazione e per l’estrazione ed elaborazione delle informazioni in essi contenute). Un linguaggio di markup è un linguaggio che consente di descrivere dati tramite dei marcatori, i tag. Possiamo distinguere i linguaggi di marcatura a seconda dei diversi tipi di markup cui danno luogo.

- markup proprietari. Sono definiti e controllati da uno o più produttori di software (anche nel caso in cui essi non possano vantare diritti di proprietà intellettuale sullo standard).

- markup non proprietari (pubblici). Sono definiti e controllati da enti imparziali, di solito organizzazioni interna-zionali che si occupano di standardizzazione. e

- markup leggibile. Si ha quando una persona può, senza notevole sforzo, cogliere le indicazioni di marcatura ed in-dividuare le porzioni di testo a cui si riferiscono.

- markup non leggibile. Si ha quando la lettura di un linguaggio di marcatura è impossibile o richiede uno sforzo no-tevole. e

- markup procedurale. Consiste nell’inserire nel documento istruzioni per la presentazione del testo (per esempio, ingrandire i caratteri, usare il corsivo, ecc).

- markup dichiarativo. Consiste nel caratterizzare le porzioni del testo a seconda della loro funzione nel testo stesso, a seconda della loro funzione semantica (ad esempio, indicare che una porzione di un testo normativo è un comma, ecc). e

- linguaggi di marcatura. Specificano le etichette (o tag) ed i comandi da utilizzare nella marcatura di un testo. - metalinguaggi di marcatura. Consentono al loro utilizzatore di definire ed usare il proprio linguaggio di marcatu-

ra, cioè di definire etichette o più in generale modelli documentali che corrispondono ai propri bisogni. Prendiamo in considerazione due esempi:

- il linguaggio HTML (HyperText Markup Language, linguaggio per la marcatura dell’ipertesto), normalmente uti-lizzato nella predisposizione di pagine web e quindi nella preparazione di testi destinati ad essere visualizzati in rete.

- il metalinguaggio XML (eXtensible Markup Language, linguaggio estensibile per la marcatura), utilizzato soprat-tutto per caratterizzare le componenti strutturali dei documenti.

I due linguaggi hanno un comune antenato, SGML (Standard for Generalised Markup Languages), definito agli inizi degli anni ’80. Tale comune origine si rivela in alcuni aspetti condivisi: entrambi i linguaggi si basano sull’idea di qualifica-re gli elementi del testo raccogliendoli entro etichette, racchiuse tra parentesi angolari (un elemento di un documento marca-to è pertanto rappresentato da un’etichetta di apertura, un contenuto ed un’etichetta di chiusura;; l’etichetta di chiusura consi-ste del simbolo “/” seguito dalla ripetizione dell’etichetta di apertura). I due linguaggi si distinguono invece sotto due profili:

- HTML è uno strumento di markup procedurale, in cui si specifica direttamente la presentazione grafica del testo. XML è invece uno strumento di markup dichiarativo, in cui si specifica la funzione semantica degli elementi te-stuali.

- HTML è un linguaggio di marcatura, perché specifica un determinato insieme di etichette da introdurre nel testo da marcare. XML è un metalinguaggio di marcatura, perché specifica come l’utilizzatore possa creare le proprie etichette che poi inserirà nei testi da marcare (consente di creare diversi linguaggi di marcatura).

HTML deve il suo nome (linguaggio di marcatura ipertestuale) alla possibilità di inserire all’interno dei documenti link (col-legamenti) ipertestuali, cioè collegamenti con altri documenti e più in generale con pagine web. XML offre la possibilità di predefinire in modo preciso e rigoroso tutti gli elementi da usare nella marcatura di un testo; tale definizione si chiama DTD (Document Type Definition, definizione del tipo di documento). La definizione della DTD è importante perché determina la scelta delle etichette da impiegare nel testo e di impostarle in modo coerente, ed inoltre con-sente di verificare automaticamente se il testo presenti la struttura stabilita nella DTD (di conseguenza è possibile “costrin-gere” il redattore a rispettare la DTD, giacché il documento che non la rispetti può essere automaticamente respinto dal s i-stema). All’interno di un documento XML sono chiaramente identificate, così da essere riconoscibili anche da parte della macchina, non solo le componenti strutturali del testo riportato nel documento ma anche molti dati significativi associati a quel testo (ciò significa che quei dati potranno essere rilevati ed elaborati automaticamente, potranno essere utilizzati nella ricerca). La marcatura XML non specifica le modalità della presentazione del testo (essa non indica, cioè, quali parti del testo saranno presentate in corsivo, quali in grassetto, ecc): se si desidera ottenere un risultato grafico di un certo tipo bisogna indicare e-spressamente come debbono essere visualizzati i diversi elementi individuati dalla marcatura XML. Il fatto che l’XML con-senta l’elaborazione automatica dei dati documentali, ne fa il primo e finora il principale strumento per la realizzazione del cosiddetto web semantico, cioè per far sì che il significato dei dati disponibili su Internet sia indicato con precisione, in mo-

Page 25: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

do che quei dati ed i documenti a cui si riferiscono possano essere elaborati automaticamente in coerenza con il loro signifi-cato. 5) Indicizzazione semantica Per superare i limiti della ricerca sintattica, cioè basata sull’estrazione dei testi che contengono le parole specificate nel que-sito, sono state sviluppate numerose tecnologie, tra cui le più importanti sono:

- i soggettari. I soggettari sono liste di termini che individuano i temi o gli argomenti rilevanti, sul modello delle voci che possiamo trova-re negli indici analitici e sommari dei manuali giuridici; questi termini possono essere utilizzati come descrittori dei docu-menti, cioè associando un termine ad un documento se ne descrive il contenuto. Tale associazione può essere compiuta da un documentalista umano oppure in modo automatico, ricorrendo ad un software in grado di analizzare il contenuto dei testi e di associarlo ai descrittori opportuni. L’uso del soggettario nella ricerca automatica presuppone che tutti i documenti siano stati indicizzati usando i termini nel soggettario e che il soggettario stesso sia noto a chi compie la ricerca. Il collegamento tra descrittori e documenti può essere posto in vario modo. Possiamo trasformare la lista dei descrittori in un indice, in cui accanto ad ogni descrittore compaiono i riferimenti dei documenti a cui il descrittore è applicato. Un’altra pos-sibilità consiste nell’inserire i descrittori all’interno dei documenti a cui essi si riferiscono (racchiusi tra opportune etichette che indicano che si tratta di descrittori del testo, anziché di parole appartenenti al testo). Nel mondo di Internet è preferibile inserire i descrittori documento, ed una volta che essi sono stati inseriti è possibile costruire automaticamente gli indici ne-cessari. Il soggettario diventa maggiormente utile, poiché può consentire una maggiore precisione nella ricerca documentale, quando esso sia strutturato in modo gerarchico, cioè quando indichi che certi termini di portata più ampia sono sovraordinati a certi termini di portata più ristretta, in quanto la materia indicata dal termine più ampio comprende al suo interno la materia indicata dal termine più specifico.

- i thesauri. I thesauri si hanno quando il soggettario, cioè l’elenco di termini che individua temi o argomenti contenuti in un determinato documento, comprende anche una specificazione dei sinonimi di questi ultimi. Il motore di ricerca che utilizzi un thesaurus può estendere la propria ricerca al di là dei documenti che contengono i termini indicati dall’autore, infatti può ricercare au-tomaticamente i documenti descritti da sinonimi del termine indicato, o quelli descritti con termini più specifici, o quelli de-scritti con termini associati, ecc. Collegando insiemi vocaboli strutturati in lingue diverse si ottengono thesauri multilingui-stici: gli strumenti informatici per il multilinguismo giuridico sono particolarmente utili per lo studio del diritto dell’Unione Europea, che deve tener conto della diversità dei sistemi giuridici degli Stati membri, espressi nelle diverse lingue nazionali.

- le ontologie. Si ha un’ontologia quando il sistema terminologico, cioè la specificazione del significato dei termini e dei loro rapporti, for-nisca un vero e proprio modello concettuale, che indica quali sono le classi rilevanti, quali classi sono incluse in quelle più ampie, quali sono le condizioni per l’appartenenza ad una classe, e le relazioni tra le diverse classi. Nelle ontologie formali i contenuti sono definiti con precisione logica, e per questo sono elaborabili automaticamente. Se disponiamo di un’ontologia formale, possiamo individuare con precisione il concetto che ci interessa e richiedere tutti i documenti attinenti a quel concetto o ai concetti che si trovano in una particolare connessione con esso. Un’ontologia formale può essere utilizzata per fare ragionare i sistemi informatici. Esempio: se l’ontologia indica al sistema informatico che la documentazione è parte del software, e che il software è un’opera d’ingegno, e che le parti delle opere d’ingegno non possono essere riprodotte senza l’autorizzazione del titolare del diritto d’autore, il sistema potrà concludere che la documentazione di un software non può essere riprodotta senza l’autorizzazione del titolare del diritto d’autore sul software. Un’ontologia può essere utilizzata anche per far comunicare sistemi informatici che utilizzano diverse terminolo-gie. Esempio: se il sistema dell’impresa acquirente usa il termine “ordine d’acquisto” per indicare l’atto che il sistema dell’impresa fornitrice indica come “proposta d’acquisto”, ma nei due sistemi i due termini sono collegati al medesimo con-cetto di un’ontologia condivisa, quando il sistema della seconda impresa riceve un atto qualificato come “ordine d’acquisto”, lo potrà elaborare secondo le procedure previste per le “proposte d’acquisto”. Esistono ontologie fondazionali: si occupano dei concetti più astratti dell’essere (identità, differenza, somiglianza, parteci-pazione, ecc). Esistono anche ontologie di dominio: si occupano di particolari ambiti della conoscenza e possono mirare a coprire un intero ambito disciplinare (la biologia, la chimica, la medicina, l’ingegneria, ecc) o possono limitarsi ad un parti-colare aspetto della realtà (cibo, computer, aeroplani, ecc); si parla di ontologie del nocciolo di un dominio per indicare le ontologie che si limitano a rappresentare i concetti più importanti all’interno di un particolare ambito. Lo sviluppo di ontologie formali in ambito giuridico si collega all’opera di tanti giuristi e filosofi del diritto che hanno cercato di caratterizzare con precisione le categorie giuridiche e di specificare l’architettura delle loro relazioni. Le nuove teorie e tecniche sviluppate nelle ricerche sulle ontologie formali offrono notevoli opportunità per lo studioso del diritto, modelli tratti dalla ricerche ontologiche possono infatti consentire allo studioso del diritto di perfezionare le analisi dei con-cetti giuridici, di rappresentare con precisione le diverse strutture concettuali in uso, nonché di precisare i contenuti di queste e di coglierne i difetti formulando poi proposte di revisione. Le moderne tecniche per la costruzione di ontologie formali, consentendo di unire espressività e precisione nella rappresentazione dei concetti, possono collegare analisi giuridiche e rea-lizzazioni informatiche.

Page 26: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

6) La crittografia e l’informatica Le tecnologie informatiche liberano le informazioni dalla loro dimensione fisica, e così ne favoriscono la conoscibilità e la modificabilità: le informazioni digitali possono essere riprodotte istantaneamente e trasmesse a distanza a velocità immedia-ta, inoltre possono essere modificate a piacimento di chi interviene su di esse. Vi sono però dei casi in cui i soggetti sono in-teressati a limitare la conoscibilità di certe informazioni, a mantenere riservati certi messaggi; in altri casi i soggetti sono in-teressati all’autenticità ed all’integrità dei documenti informatici che invano o che gli provengono (quando inviamo un testo vogliamo essere certi che il destinatario lo riceverà nella sua integrità, e quando riceviamo un testo vogliamo essere sicuri che si tratta del testo che ci è stato inviato da chi ne appare essere il mittente e senza interventi da parte di terzi). Ciò vale in particolare, ma non solo, per i testi che documentano fatti giuridicamente rilevanti (ad esempio un’offerta contrattuale). Esi-stono tecnologie informatiche per soddisfare tali esigenze, la più importante delle quali è la crittografia (essa ha trovato numerose applicazioni informatiche, alcune delle quali, come la firma digitale, hanno grande rilevanza per il diritto). La crittografia, dal greco “kryptos” (“nascosto”) e “graphia” (“scrittura”), è la disciplina che si occupa della cifrazione (o codifica) e della decifrazione (o decodifica) dei testi. Le tecniche crittografiche consentono di trasformare un testo leggibi-le (testo in chiaro) in un testo non più comprensibile al lettore (testo cifrato), e di risalire dal testo cifrato al testo in chiaro. La crittografia esiste da più di 2.000 anni, già Giulio Cesare usò un semplice metodo crittografico per trasmettere i messag-gi segreti. All’inizio del ‘900 si cominciò a ricorrere a dispositivi meccanici per la crittografia: un esempio particolarmente significativo è rappresentato da Enigma, la macchina usata per le comunicazione nell’esercito tedesco durante la seconda guerra mondiale, i cui messaggi furono decifrati con i contributi dei matematici polacchi ed inglesi, e grazie al calcolatore Colossus. I calcolatori consentono di eseguire algoritmi per la cifrazione/decifrazione dei testi molto complessi, tali algoritmi compio-no la cifrazione/decifrazione sulla base di parametri detti chiavi. Una volta tradotti tali algoritmi in un programma informa-tico, potremo affidare direttamente al computer la cifrazione o la decifrazione di un messaggio. Esistono due tipi di sistemi crittografici:

- sistemi a chiave simmetrica, che usano la stessa chiave sia per la cifrazione sia per la decifrazione del messaggio. In questi sistemi chi è un grado di compiere una delle due operazioni, cifrazione o decifrazione, è necessariamente in grado di compiere anche l’altra operazione, poiché la chiave che usa è la stessa.

- sistemi a chiave asimmetrica, che usano due chiavi diverse e tra loro complementari, una per la cifrazione ed una per la decifrazione del messaggio. In questi sistemi le operazioni di cifrazione e di decifrazione sono indipendenti, infatti chi conosce solo una delle due chiavi non può svolgere entrambe le funzioni. La crittografia asimmetrica consente di realizzare i sistemi a chiave pubblica, nei quali ciascuno dei soggetti che si scambiano informazioni ha la titolarità di una diversa coppia di chiavi: una chiave della coppia, la chiave privata rimane segreta e conosciuta solo al titolare, mentre l’altra chiave della coppia, la chiave pubblica è resa pubblica-mente accessibile e conoscibile a tutti coloro che intendono comunicare con il titolare. Questi sistemi consentono i garantire tanto la riservatezza delle comunicazioni, quanto l’autenticità e l’integrità dei messaggi.

Alcuni anni fa le tecniche crittografiche più avanzate erano riservate agli usi militari e ne era vietata la comunicazione al pubblico. Si temeva infatti che la disponibilità di queste tecniche avrebbe messo a rischio la sicurezza nazionale, poiché es-sere avrebbero consentito alle reti criminali o spionistiche di comunicare liberamente, sottraendosi alle indagini di polizia. Le esigenze delle comunicazioni elettroniche e la facile disponibilità di software per la crittografia hanno però reso, negli anni successivi, impraticabile tale divieto ed oggi i potenti sistemi crittografici sono accessibili a tutti. Le tecniche crittografiche possono essere usate per l’invio di messaggi segreti, in quanto anche se il messaggio viene inter-cettato esso non potrà essere letto se non se ne conosce la chiave di decifrazione. I sistemi a chiave asimmetrica offrono maggiori garanzie di sicurezza rispetto ai sistemi a chiave simmetrica. Nei sistemi a chiave simmetrica è necessario che entrambe le parti posseggano la stessa chiave, pertanto prima che le parti possano comu-nicare usando la chiave condivisa è necessario che esse si scambino tale chiave, e chi è in grado di intercettare le comunica-zioni tra le parti potrà ottenere la conoscenza della chiave intercettando il messaggio in cui essa è trasmessa, e grazie ad essa potrà decifrare le comunicazioni successive. Nei sistemi a chiave asimmetrica, invece, il destinatario del messaggio rende nota una delle sue chiavi (che svolge quindi la funzione di chiave pubblica) ed invita il mittente ad usarla nell’invio dei mas-saggi a lui rivolti; anche se il terzo riesce ad intercettare un messaggio diretto al destinatario e conosce la chiave pubblica dello stesso, non potrà decifrare il messaggio, perché a tale fine è necessaria la chiave privata del destinatario, che questi ha mantenuto segreta non comunicandola ad alcuno. La crittografia asimmetrica può essere usata anche per garantire l’autenticità e l’integrità del messaggio. Il mittente può cifrare il testo usando la propria chiave privata ed inviare al destinatario sia il testo cifrato sia il testo in chiaro da cui il testo cifrato è stato tratto. Il destinatario del messaggio può quindi decifrare il testo cifrato usando la chiave pubblica del mittente: se la decifrazione del testo cifrato dà un risultato identico al testo in chiaro ricevuto il destinatario può avere sia la certezza che il messaggio è stato inviato dal titolare della chiave privata corrispondente alla chiave pubblica usata per la decifrazione, sia la certezza che quel messaggio non è stato modificato da terzi. Poiché le due chiavi del mittente operano in coppia, se il testo cifrato fosse stato ottenuto usando una chiave diversa dalla chiave privata del mittente, dal testo cifrato non si sarebbe

Page 27: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

potuti risalire al testo originario usando la chiave pubblica del mittente, e se il testo in chiaro fosse stato modificato da terzi esso non coinciderebbe con il risultato della decifrazione del testo cifrato. La firma digitale, basata sulla crittografia asimmetrica, è la tecnologia che meglio garantisce l’autenticità e l’integrità dei documenti elettronici. La tecnologia della firma digitale usa la doppia chiave nel modo sopra descritto, con una particolarità: la cifrazione asimmetrica non viene applicata a tutto il testo in chiaro, ma solamente ad un’abbreviazione di questo, la sua impronta (digest), estratta automaticamente a partire dal testo in chiaro. La formazione della firma digitale segue quindi una sua procedura:

- il mittente crea l’impronta del testo in chiaro, utilizzando una procedura informatica denominata funzione di hash, la quale garantisce l’univocità dell’impronta (ciò significa che da testi diversi la funzione di hash estrae sempre im-pronte diverse).

- il mittente cifra l’impronta usando la propria chiave privata, ottenendo così la firma digitale del testo in chiaro, la quale viene inviata al destinatario assieme al testo in chiaro. Ogni testo su cui una persona apponga una firma digita-le ha una diversa firma digitale, che risulta dalla codifica dell’univoca impronta di quel testo con la chiave privata del mittente.

- il destinatario applica al testo in chiaro ricevuto la funzione di hash, estraendone una nuova impronta. A questo pun-to egli decifra l’impronta cifrata ricevuta con il messaggio, mediante la chiave pubblica del mittente.

- il destinatario può verificare l’autenticità e l’integrità del messaggio accompagnato dalla firma digitale in questo modo: egli confronta l’impronta estratta dal testo in chiaro con quella ottenuta attraverso la decifrazione. Se le due impronte sono identiche significa che il messaggio è stato codificato con la chiave privata del mittente e non è stato modificato da alcuno.

L’obbiettivo della firma digitale è di fornire al destinatario la garanzia che il messaggio proviene effettivamente da chi ap-pare esserne il mittente. Non esistono soluzioni tecnologiche capaci di prevenire tutti i possibili abusi delle firme digitali. La garanzia che una firma digitale appartenga realmente a chi appare esserne il titolare è fornita da un certificatore (cioè un’autorità di certificazione). Il certificatore fornisce al titolare della firma digitale un certificato, cioè un documento elet-tronico che attesta la sua identità, la chiave pubblica attribuitagli ed il periodo di validità del certificato stesso. Il titolare del-la firma allega il certificato ai messaggi firmati, e sulla base di questo il destinatario del messaggio può rivolgersi al certifi-catore, attraverso il software per il riconoscimento della firma digitale, per verificare l’identità del mittente.

CAPITOLO 5: Internet Le tecnologie informatiche hanno fornito la base per la più grande invenzione degli ultimi decenni: Internet, la rete globale. 1) Internet, la rete globale Internet è una rete di computer che si estende su tutto il pianeta ad accesso pubblico, attualmente rappresentate il prin-cipale mezzo di comunicazione di massa. Con la parola Internet facciamo riferimento a diversi elementi di una realtà com-plessa:

- i collegamenti tra i calcolatori, ossia l’intreccio delle linee di collegamento fisiche (cavi ottici, linee telefoniche, ponti radio, ecc) sulle quali viaggiano i segnali elettronici (bit).

- le macchine che governano il viaggio dell’informazione su tali linee di collegamento (si tratta di calcolatori spes-so destinati esclusivamente a questo compito, i quali indirizzano i messaggi verso la loro destinazione e controllano il funzionamento delle apparecchiature elettroniche della rete).

- le regole (protocolli e standard) che stabiliscono come debbano essere formati i dati destinati a viaggiare sulla rete, e come i sistemi della rete debbano interagire (sono le regole condivise che consentono l’interoperabilità tra diverse apparecchiature e diversi programmi, tra diversi hardware e di versi software).

- i software di rete, cioè i programmi informatici che, nel rispetto dei protocolli e degli standard, gestiscono i mes-saggi, indirizzandoli verso la loro destinazione ed elaborandoli in modo appropriato.

- i calcolatori connessi in rete (tutti i calcolatori che entrano a fare parte di Internet grazie ad un collegamento di re-te).

- le entità virtuali esistenti nella rete, come siti, servizi, giochi, ambienti virtuali, applicazioni, ecc che risultano dai processi di elaborazione realizzati dai calcolatori connessi in rete.

- le persone e le organizzazioni che usano i calcolatori della rete. - le istituzioni che si occupano delle gestione e dello sviluppo di Internet.

A differenza di altre conquiste tecnologiche e scientifiche, rimaste a lungo limitate ad una parte dell’umanità, Internet si è rapidamente estesa fino ad abbracciare una porzione significativa della popolazione mondiale. Internet quindi:

- favorisce l’interazione, e ciò deve essere inteso in senso ampio, infatti la dimensione globale di Internet non si li-mita all’assorbimento passivo delle informazioni, ma ogni nodo della rete può essere sia fruitore sia fornitore di in-formazioni.

- è globale e favorisce la globalizzazione, poiché grazie ad essa le distanze diventano irrilevanti nella comunicazio-ne, cosicché interazioni personali e strutture organizzative possono essere distribuite su tutta le Terra.

- è pervasiva, nel senso che riguarda ogni settore dell’attività umana.

Page 28: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

2) L’evoluzione di Internet La formazione di Internet si è compiuta nell’arco di pochissimi anni. Gli inizi degli studi che diedero origine ad Internet risalgono ad alcune ricerche avviate negli anni ’60, dalle quali emerse l’idea di un collegamento di calcolatori in rete. Fino a quei tempi i calcolatori, pochi ed estremamente costosi, erano collega-ti mediante cavi a terminali privi di capacità autonoma di elaborazione, e dai terminali collegati ad un calcolatore gli utenti potevano accedere solamente a quel calcolatore. Mediante la creazione di reti di calcolatori ci si proponeva di far sì che il singolo utente potesse accedere a più calcolatori, non più solo a quello collegato al suo terminale, e che si potessero compie-re elaborazioni consistenti nella condivisione di risorse (macchine, memorie, dati, ecc) residenti sui diversi calcolatori. Nell’ambito di ARPA (Agenzia per i progetti di ricerca avanzati, un ente collegato al Dipartimento della Difesa degli Stati Uniti con la funzione di curare lo sviluppo delle tecnologie di interesse militare) fu dato avvio, anche grazie alla colla-borazione delle università americane più avanzate nella ricerca informatica, allo sviluppo di ARPAnet, la rete progenitrice di Internet. Tale rete collegò dapprima quattro università americane, per poi estendersi ad altre università e centri di ricerca. Le motivazione di ARPAnet erano diverse ed ancora oggi si discute su quale fosse l’ispirazione fondamentale. Si afferma spesso che alla sua origine vi sia stato un obbiettivo militare, cioè quello di consentire l’accesso a risorse informatiche anche nell’ipotesi in cui uno o più calcolatori o collegamenti fossero divenuti inutilizzabili. ARPAnet adottava la tecnica della commutazione a pacchetti, un nuovo modo di utilizzare le linee di comunicazione, che rappresentava un fondamentale progresso rispetto alle tecnologie adottate in precedenza (ad esempio, i collegamenti telefo-nici o i collegamenti via radio). L’ordinaria rete telefonica utilizza la tecnica della commutazione di linea: una linea telefo-nica rimane a disposizione della sola comunicazione tra i due telefoni collegati per tutta la durata della chiamata (in questo modo le capacità della linea sono sfruttate poco, per i soli dati inviati nel corso della chiamata, cioè le parole pronunciate dalle due persone). La tecnica della commutazione a pacchetti consente invece di utilizzare una linea per più comunicazioni contemporaneamente. Questo risultato si ottiene suddividendo ogni messaggio in pacchetti, i quali contengono una porzione del messaggio e le indicazioni necessarie per indirizzare il pacchetto a destinazione, e quando tutti i pacchetti sono giunti a destinazione il messaggio è ricomposto, riunendo tutti i pacchetti nell’ordine appropriato. Perché un messaggio suddiviso in pacchetti possa viaggiare dal punto di invio al punto di destinazione e poi essere ricostruito nella sua integrità, bisogna che ogni pacchetto contenga le informazioni necessarie: l’indicazione del punto di partenza e del punto di arrivo desiderato, la posizione di uno specifico pacchetto rispetto agli altri pacchetti componenti il messaggio, e le informazioni di controllo me-diante le quali verificare l’integrità del messaggio. Queste indicazioni debbono essere specificate in modo tale da essere de-cifrabili automaticamente. Esse sono di regola incluse in intestazioni che formano la prima parte del pacchetto, producendo i dati, cioè la porzione del messaggio collocata nel pacchetto stesso. I pacchetti che viaggiano su Internet vengono chiamati datagrammi. Affinché le informazioni di cui abbiamo detto possano essere decifrate automaticamente nel punto di arrivo, è necessario che esse siano specificate secondo regole comuni, applicate sia da parte del software mittente sia da parte del software ricevente: queste regole devono costituire un protocollo condiviso. Un protocollo di rete consiste nella defini-zione delle regole che diverse apparecchiature elettroniche devono rispettare per poter dare luogo alle funzionalità preposte alla loro comunicazione. I protocolli di rete costituiscono la lingua comune con cui i computer connessi ad Internet si interconnettono e comunicano tra loro, indipendentemente dalla loro architettura hardware o software: grazie alla convergenza su un protocollo comune è possibile realizzare la connessione e la comunicazione di macchine e sistemi etero-genei, basta che tutti si conformino alle regole di comunicazione condivise. ARPAnet adottava la tecnologia della commutazione a pacchetti, ma era ancora una singola rete; lo sviluppo di Internet ri-chiedeva una architettura che consentisse il collegamento tra reti diverse, ciascuna delle quali potesse rimanere autonoma nelle proprie scelte organizzative e tecnologiche. Negli anni ’70 furono definiti i protocolli fondamentali di Internet, chiamati TCP ed IP:

- il protocollo TCP (Transmission Control Protocol), che regola il trasporto dei pacchetti nella rete (invio, scam-bio, ricezione).

- il protocollo IP (Internet Protocol), che regola l’indirizzamento dei pacchetti nella rete. L’idea fondamentale nello scambio di informazioni su Internet è che le operazioni che deve compiere la rete debbano essere ridotte al minimo, affidando tutte le attività importanti ai punti terminali della rete stessa, cioè al calcolatore del mittente ed a quello del destinatario. Le apparecchiature che governano il traffico della rete, i router, si limitano a far avanzare i pac-chetti verso la loro destinazione (in questo modo la funzione delle apparecchiature della rete viene semplificata, e la rete ac-quista una maggiore efficienza). I protocolli TCP ed IP definiscono un’infrastruttura dove ogni messaggio può viaggiare da ogni nodo ad ogni altro nodo, senza controlli intermedi. Ogni messaggio è suddiviso in pacchetti di bit, del cui contenuto la rete non si occupa; ognuno di questi pacchetti è racchiuso in una busta digitale (costruita secondo le regole del protocollo IP) che riporta tutte le informazioni necessarie per trasmettere il pacchetto alla sua destinazione. I pacchetti viaggiano spo-standosi di nodo in nodo, seguendo cammini non prestabiliti: il percorso di un pacchetto è determinato dalle condizioni del traffico della rete, essendo i pacchetti diretti secondo algoritmi che ottimizzano l’utilizzazione della rete, evitandone la con-gestione. La trasmissione di un pacchetto da un nodo a quello successivo è compiuta da quegli appositi calcolatori che sono i router, i quali si limitano a ricevere il pacchetto inviato dal nodo precedente ed a inviarlo in avanti verso un nodo più vicino alla destinazione, racchiuso nella propria busta digitale. Solamente quando i pacchetti giungono al calcolatore di destinazio-ne, le buste digitali sono aperte ed i pacchetti sono riuniti e controllati.

Page 29: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

Questa indifferenza rispetto ai contenuti trasportati costituisce la neutralità della rete: questa caratteristica rappresenta an-zitutto un’importante garanzia di innovazione decentrata, nel senso che la rete può essere usata per qualsiasi nuova soluzione tecnologica o nuovo modello economico in quanto la sua organizzazione non impone vincoli agli utenti. La neutralità della rete ha inoltre implicazioni sociali e politiche: comporta l’assenza di discriminazioni rispetto al contenuto del messaggio tra-sportato e rispetto alla natura del mittente (tale neutralità verrebbe meno qualora la rete fosse predisposta in modo da dare precedenza ai messaggi forniti da certe categorie di mittenti, ad esempio certe imprese commerciali, o rifiutasse di trasmette-re i messaggi che contengono certi contenuti). Recentemente, autorevoli voci hanno affermato la necessità di superare la neutralità della rete. Offrendo a pagamento condi-zioni preferenziali (ad esempio una maggiore velocità sulla rete) ai pacchetti che presentino certe caratteristiche si otterreb-bero risorse che potrebbero essere utilizzate per potenziare le infrastrutture di Internet. Grazie all’abbandono della neutralità della rete, si passerebbe dalla situazione attuale, nella quale tutti si debbono accontentare di un servizio modesto, ad una nuova situazione, nella quale alcuni (chi è disposto a pagare) potrebbero ottenere un servizio migliore, senza che peggiori il servizio offerto agli altri. Altre autorevoli voci sono contrarie all’abbandono della neutralità della rete. Si teme che ciò com-porterebbe gravi pericoli per lo sviluppo di Internet e per l’economia della rete: potrebbe comportare un peggioramento del servizio per chi non può pagare il prezzo richiesto per prestazioni superiori a pagamento, potrebbe condurre a violazioni del-la concorrenza (chi domina il mercato potrebbe ottenere condizioni migliori nella connessione e quindi una posizione privi-legiata), ecc. Inoltre si teme che l’abbandono della neutralità della rete metterebbe a rischio la libertà di espressione e la de-mocrazia su Internet: potendo trattare in modo diverso le comunicazioni on-line a seconda dell’emittente o del contenuto del messaggio, i fornitori di connettività, e le autorità politiche attraverso di essi, avrebbero la possibilità di controllare l’uso di Internet da parte dei cittadini e di scegliere quali comunicazioni favorire e quali ostacolare. I protocolli TCP ed IP si propongono di governare non solo la comunicazione all’interno di una rete, ma anche la comunica-zione tra reti eterogenee: i messaggi che viaggiano all’interno di una rete, una volta uniformati ai due protocolli, possono es-sere trasmessi ad altre reti, e quindi emerge la possibilità della formazione di una rete di reti. Gli anni ’80 videro la forma-zione, negli USA, di numerose reti conformi ai protocolli TCP ed IP. Alle reti statunitensi si aggiunsero poi reti TPC-IP rea-lizzate in altri Paesi. Una tappa importante nello sviluppo di Internet fu la creazione di una connessione ad altissima veloci-tà: Internet venne così ad assumere progressivamente l’attuale configurazione a più livelli, nella quale le reti locali sono connesse a reti di ampia dimensione, le quali sono connesse alle grandi infrastrutture per i collegamenti intercontinentali. All’interno delle reti locali i calcolatori possono continuare ad utilizzare protocolli diversi da TCP ed IP, sarà il router che collega la rete locale ad Internet ad occuparsi delle necessarie conversioni (nonostante questa possibilità, TCP ed IP sono frequentemente adottati anche nelle reti locali). I messaggi che viaggiano attraverso Internet sono destinati a svolgere funzioni determinate, connesse con particolari appli-cazioni attive sui calcolatori connessi: si tratta dei servizi di rete, come la posta elettronica, l’accesso a pagine web, la chat, la telefonia su Internet, ecc. I messaggi, pertanto, dovranno contenere le informazioni necessarie per la particolare applica-zione a cui sono riferiti, ed i calcolatori devono trattarli nel modo richiesto da tale applicazione (anche se essi utilizzano per quell’applicazione un software diverso da quello del mittente). I messaggi, al fine di raggiungere Internet o pervenire ai cal-colatori a cui sono destinati, devono compiere un tratto sulle linee telefoniche o su una rete locale (prima di affrontare questi tratti debbono essere ampliati con le indicazioni necessarie a tale fine). Si possono distinguere cinque strati nell’architettura di Internet:

- strato dell’applicazione. Questa busta contiene le indicazioni riguardanti l’applicazione a cui il messaggio è desti-nato (ad esempio, nel caso della posta elettronica l’indicazione dell’indirizzo e-mail).

- strato del trasporto (definito tal protocollo TCP). Questa busta contiene le indicazioni necessarie per il trasporto del pacchetto in rete.

- strato della rete (definito dal protocollo IP). Questa busta contiene le indicazioni necessarie per l’indirizzamento del pacchetto in rete.

- strato del collegamento dati. Questa busta contiene le indicazioni necessarie affinché il pacchetto giunga da Internet al nostro calcolatore (specificate ad esempio dal protocollo Ethernet, attinente al collegamento mediante una rete locale, o dai protocolli PPP o SLIP, attinenti al collegamento tramite reti telefoniche).

- strato fisico. Gli starti più importanti nel funzionamento di Internet sono lo strato del trasporto e lo strato della rete. In conformità ai di-versi protocolli che caratterizzano ciascuno strato, specifiche informazioni sono aggiunte ai pacchetti in cui il messaggio viene suddiviso. Il pacchetto giunto tramite Internet al nostro calcolatore può essere quindi paragonato ad una lettera imbu-stata più volte: le informazioni richieste dal protocollo attinente ad uno strato inferiore (più esterno) sono apposte all’esterno del contenuto predisposto secondo il protocollo dello strato superiore (più interno). Secondo questo modello architetturale, definito incapsulamento, ogni busta racchiude proprio come una capsula la busta dello strato superiore, e può essere tratta-ta, in conformità al proprio protocollo, prescindendo dal proprio contenuto. L’adozione dei protocolli TCP ed IP favorisce la libera circolazione delle informazioni, all’insegna della neutralità della rete rispetto ai contenuti veicolati. La mancanza di controlli intermedi significa che la rete, fin dal suo inizio, ha avuto la propen-sione a diventare un mezzo di comunicazione globale.

Page 30: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

Internet è potuta diventare il luogo in cui coesistono e comunicano diverse culture. Quattro principali ispirazioni ideali hanno contribuito a formare la rete:

- la cultura tecnico-meritocratica, caratterizzata dai valori della scoperta tecnologica e dalla condivisione della co-noscenza.

- la cultura hacker, caratterizzata dai valori dalla creatività e dalla cooperazione. - la cultura virtual-comunitaria, caratterizzata dai valori della libertà di comunicazione ed associazione. - la cultura imprenditoriale, caratterizzata dai valori del denaro, del lavoro e del consumo.

Agli inizi, quando Internet era usata solo da un numero limitato di persone, spesso inserite nella sua stessa costruzione, le componenti tecnico-meritocratiche ed hacker erano le principali ispiratrici della rete. Negli anni successivi, crebbero altre comunità virtuali, come quella virtual-comunitaria ed imprenditoriale. Grazie ad Internet persone che hanno certi interessi possono coltivarli assieme, la rete comporta una drastica riduzione dei costi relativi alla produzione e distribuzione dell’informazione. Sono le attività commerciali a caratterizzare maggiormente lo spirito di Internet negli ultimi anni. 3) Gli standard e il governo della rete Al fine della comunicazione informatica sono stati creati, fin dalla nascita di Internet, degli appositi standard condivisi (di cui i protocolli TCP ed IP sono solo un esempio). Uno standard è un’insieme di regole e di convenzioni che hanno lo scopo di rappresentare una base di riferimento od un modello codificato per la realizzazione di tecnologie tra loro compatibili; uno standard di Internet è una specificazione stabile, ben compresa, tecnicamente competente, che gode di un sostegno pubblico significativo e che è utile in alcune o in tutte le parti di Internet. Al fine di regolare gli scambi su Internet, esistono standard per i più diversi aspetti. Alcuni esempi: la formazione dei pac-chetti ed il dialogo tra i sistemi (funzione svolta dai protocolli TCP ed IP) o particolari tipi di applicazioni (come la posta e-lettronica) od il formato dei documenti, ecc. Il processo di formazione di uno standard si articola in diversi momenti:

- la fase preparatoria. Questa procede secondo diversi stadi, nei quali le successive versioni dello standard, via via più mature e verificate, sono sottoposte all’esame critico della comunità di Internet ed al giudizio degli organi tecni-ci a cui compete valutare se lo standard abbia raggiunto la maturità necessaria per passare allo stadio successivo (i documenti che riportano le versioni dello standard sono resi pubblici e prendono il nome di richieste di commenti).

- l’adozione dello standard dall’ente competente. - la pubblicazione dello standard. Con la pubblicazione, lo standard è proposto agli sviluppatori di software per

Internet, che lo potranno adottare per la creazione di nuovi software. L’adozione dello standard è volontaria, non vi sono sanzioni contro chi si dissoci;; essa si basa sul valore tecnico del-lo standard e sull’aspettativa che esso, in forza della sua adozione quale standard di Internet, sarà seguito general-mente o almeno da un numero ampio di sviluppatori ed utenti. La “vincolatività” degli standard risulta infatti dalla circostanza che ciascuno ha bisogno di adottare comportamenti coerenti con i comportamenti altrui, al fine di poter partecipare alla comunicazione ed all’interazione: se il mio software non corrisponde allo standard (cioè non invia messaggi codificandoli secondo lo standard e non interpreta i messaggi in arrivo) sarò io stesso a soffrirne, essendo incapace di comunicare in rete;; all’opposto, la mia adozione dello standard sarà tanto più fruttuosa quante più per-sone utilizzano ed utilizzeranno quello stesso standard. La diffusione dello standard si basa quindi sull’effetto di re-te: la scelta individuale di seguire un certo standard è giustificata dal vantaggio che il singolo utente trae dal fatto che lo standard sia generalmente adottato o dall’aspettativa che lo sarà (l’interesse personale è sufficiente a condurre gli individui a convergere sugli standard più importanti). Tuttavia, questo meccanismo rende possibile la contraddizione tra razionalità collettiva e razionalità individua-le: la prima richiederebbe che gli utilizzatori adottassero congiuntamente lo standard ottimale (cioè quello che con-duce ai vantaggi maggiori), mentre la seconda esige che ciascuno segua qualsiasi standard egli preveda sarà adottato dagli altri a prescindere dal suo valore comparativo.

L’adozione di uno standard deriva dalla sua approvazione da parte di comitati di esperti imparziali, in seguito ad estesi di-battiti nella comunità di Internet, sulla base della validità tecnica dello standard stesso. La decisione del comitato competen-te rende lo standard adottato rilevante per tutta la comunità di Internet: ogni sviluppatore è indotto ad adottarlo, nell’aspettativa che gli altri sviluppatori faranno lo stesso. Accanto alla “normatività” convenzionale degli standard (gli standard non sono norme in senso proprio, poiché la loro eff i-cacia si basa sull’interesse individuale ad adottare comportamenti coerenti con i comportamenti altrui), la comunità di Internet ha prodotto anche norme in senso stretto, regole sociali: si tratta di credenze condivise che certi modelli di com-portamento debbano essere seguiti da ogni singolo membro della comunità (nell’interesse della comunità o per raggiun-gere scopi comuni ai suoi membri), anche quando il comportamento prescritto sia contrario all’interesse particolare del sin-golo. Tali credenze normative sono solitamente combinate a sanzioni informali, consistenti nel giudizio negativo delle co-munità interessata, un giudizio che può condurre nei casi più seri all’espulsione di chi contravvenga la norma. La combinazione di protocolli-standard convenzionali e di regole sociali è stata sufficiente per governare Internet ai suoi i-nizi. Il diritto aveva allora una funzione marginale: stabiliva i diritti di proprietà sull’hardware (il software era spesso di libe-

Page 31: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

ra disponibilità) della rete ed i diritti fondamentali (libertà di parola, di comunicazione, di iniziativa privata, ecc) consentiva-no di sfruttare in modo decentrato e creativo le possibilità offerte dall’infrastruttura della rete. Negli ultimi anni, in seguito alla crescita dell’importanza sociale ed economica di Internet, la normatività spontanea della rete è stata affiancata da norme giuridiche. L’incontro del diritto con Internet, però, ha dato luogo ad opinioni divergenti. Da un lato vi sono le posizioni libertarie o separatiste, secondo le quali Internet crea uno spazio nuovo virtuale e globale, se-parato rispetto allo spazio oggetto del potere dei governi, fisico e nazionale. Alle attività compiute all’interno di Internet non andrebbero quindi applicate le discipline giuridiche. Da un altro punto di vista, vi sono invece numerose richieste di una di-sciplina giuridica di Internet. Si tratta di voci provenienti dai governi, interessati a controllare la rete a fini di polizia (pre-venzione del crimine e del terrorismo, censura di alcuni tipi di informazioni illegali, ecc). Altre voci in tal senso provengono dalla comunità degli affari, che hanno richiesto ed ottenuto facilitazioni per il commercio elettronico, la protezione dei mar-chi e dei segni distintivi, un’energica tutela della proprietà intellettuale. Infine, altre voci hanno richiesto la protezione della privacy on-line, e più un generale la garanzia che Internet rimanga un ambiente nel quale esercitare in sicurezza i diritti civi-li, sociali e culturali. Secondo i protocolli TCP e IP, ogni calcolatore è identificato da un numero della lunghezza di 4 byte (32 bit), definito indi-rizzo IP. Solitamente tale numero è espresso in una forma più facilmente leggibile e memorizzabile, convertendo ogni byte in un numero decimale. Le prime cifre dell’indirizzo IP identificano la rete a cui il calcolatore appartiene, mentre le ultime cifre identificano un particolare calcolatore all’interno di quella rete. Un calcolatore può avere un proprio indirizzo IP permanente (è così per i calcolatori permanentemente collegati alla rete stessa), oppure può ricevere ogni volta che si collega in rete un diverso indirizzo IP temporaneo, che torna disponibile dopo il collegamento e potrà essere assegnato a un nuovo utente (è così per i calcolatori che utilizzano Internet mediante collega-mento telefonico o via radio). L’assegnazione di un particolare indirizzo IP è una operazione solitamente incontroversa: un numero vale l’altro ed al richiedente è assegnato il primo numero libero tra quelli disponibili nella rete a cui egli appartiene. A partire dagli anni ’80 si sentì l’esigenza di usare un diverso sistema di riferimento, che usasse identificatori più facilmente memorizzabili e tali da richiamare la funzione svolta mediante un certo sito o l’identità del suo titolare: nacquero così i nomi di dominio (domain name). Un nome di dominio si costituisce combinando più parole separate da punti: esso corri-sponde all’indirizzo IP del calcolatore. Nell’analisi del nome si parte dalla fine:

- l’ultima parola è un suffisso che indica la nazionalità dell’ente a cui il nome appartiene o il tipo di attività svolto dall’ente stesso (nel caso di un nome privo di suffisso nazionale).

- la parola che precede il suffisso indica l’ente a cui fa capo il dominio, la quale può essere ancora preceduta da ulte-riori specificazioni qualora il dominio afferisca ad una ripartizione all’interno di quell’ente.

Un nome di dominio identifica un dominio, cioè un gruppo di indirizzi IP. Per identificare un particolare calcolatore appar-tenente a quel dominio, bisogna anteporre al nome di dominio un’ulteriore specificazione, cioè il nome dell’host (il calcola-tore collegato ad Internet) che desideriamo contattare. Aggiungendo al nome di dominio il particolare nome di host (ho-stname) che contraddistingue, all’interno del dominio stesso, il calcolatore a cui vogliamo far riferimento otteniamo un no-me di dominio completamente qualificato, che indica in modo univoco quel particolare calcolatore. Aggiungendo ad un nome di dominio completamente qualificato il prefisso www (world wide web) richiamiamo il servizio web svolto da quel calcolatore. Premettendo il nome di un servizio direttamente al dominio ci colleghiamo al calcolatore deputato a svolgere quel servizio all’interno del dominio. Esiste un’infrastruttura chiamata Sistema dei nomi di dominio (DNS, Domain Name System) che si occupa di tradurre i nomi di dominio completamente qualificati in indirizzi IP. Tale infrastruttura consta di una rete di calcolatori, i server DNS, che svolgono la funzione di una sorta di elenco telefonico: quando il nostro browser (il programma per navigare in rete) de-ve accedere ad un calcolatore di cui abbiamo indicato il nome di dominio, esso invia il nome di dominio ad un server del DNS, che risponde inviando il corrispondente indirizzo IP. L’innovazione consistente nell’affiancare i nomi di dominio agli indirizzi IP numerici ha un rilievo tecnologico limitato (si tratta solo della creazione e gestione di un elenco utilizzato automaticamente), ma ha un grande impatto giuridico. Infatti i nomi di dominio sono diventati ben presto oggetto di controversie: la prepotenza di chi, utilizzando un nome quale segno distintivo commerciale, ne pretendeva l’uso esclusivo anche nel mondo virtuale, oppure il comportamento approfittatore di chi registrava nomi di dominio corrispondenti a segni distintivi altrui allo scopo di richiedere un compenso al titolare del se-gno distintivo in cambio del trasferimento del nome di dominio, ecc. Oltre a TCP ed IP, esistono numerosi protocolli di Internet, destinati a fornire funzioni ulteriori:

- il protocollo TELENET (TELecommunication NETwork, rete di telecomunicazione), che consente di interagire con un calcolatore remoto nello stesso modo in cui si opererebbe da un terminale dotato di video e tastiera collegato al calcolatore remoto mediante cavo.

- il protocollo FTP (File Transport Protocol, protocollo per il trasferimento dei file), che consente di scambiare e manipolare file. Chi utilizza questo protocollo accede al sistema di file (le cartelle ed i file che queste contengono) del calcolatore remoto, e può prelevare o depositare file, cancellarli, creare nuove cartelle, ecc (a seconda dei per-messi di cui dispone).

- il protocollo SMTP (Simple Mail Transfert Protocol, protocollo semplice per il trasferimento di posta), che ri-guarda la posta elettronica.

Page 32: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

Ogni comunicazione inviata in rete da un particolare calcolatore è etichettata con l’indirizzo IP del calcolatore mittente. Di conseguenza, è sempre possibile individuare l’indirizzo utilizzando il quale è stata compiuta una certa operazione di rete (lo scaricamento di un file, l’invio di un messaggio di posta, ecc);; questo può consentire a sua volta l’individuazione della per-sona che ha compiuto quella particolare operazione. Spesso pensiamo che le attività svolte in rete siano anonime e che possiamo accedere alla maggior parte dei siti senza di-chiarare la nostra identità. Questo anonimato, normalmente, è solo un’illusione: quando operiamo su Internet, infatti, tutti gli accessi da noi compiuti presso un certo server sono registrati nel web-log (diario di bordo del web) del server, ossia nel file, aggiornato dinamicamente, che riporta la sequenza delle operazioni compiute su quel server. Nel web-log vengono registra-ti: l’indirizzo IP associato al calcolatore che ha effettuato l’accesso, il tempo dell’accesso, la pagina web visitata ed il browser utilizzato. Si è discusso se l’informazione registrata in un web-log possa considerarsi un dato personale: anche se l’indicazione che una certa persona abbia compiuto in rete certe attività è un’informazione personale, il web-log non consente di collegare imme-diatamente la descrizione dell’attività al suo fruitore, in quanto esso si limita ad associare quell’attività ad un indirizzo IP. L’indirizzo IP consente di risalire al calcolatore mediante il quale l’attività in questione è stata compiuta: nel caso di un cal-colatore con IP statico basterà individuare il calcolatore dotato di quell’IP, mentre nel caso di un calcolatore con IP dinamico bisognerà rivolgersi al fornitore di accesso (per esempio, Telecom o Wind) che potrà indicare il numero di telefono a cui è stato associato quell’IP nel lasso di tempo in cui è stato effettuato l’accesso registrato nel web-log e si individuerà così il calcolatore, o almeno l’utenza telefonica utilizzata, e da questo si potrà risalire ad una determinata persona, cioè colui che si pensa abbia usato il calcolatore stesso. Le informazioni registrate nel web-log di un sito sono insufficienti ad identificare un determinato calcolatore: il meccanismo dell’allocazione dinamica fa sì che uno stesso IP possa essere assegnato a diversi calcolatori in momenti successivi, e che uno stesso calcolatore possa ricevere IP diversi;; ciò impedisce, in particolare, di ricostruire la storia dell’interazione di un determinato utente con il sito, in quanto i diversi accessi di una stessa persona vengono effettuati con IP diversi. La soluzione comunemente adottata per raggiungere un risultato di sicura identificazione del calcolatore che interagisce con un determinato sito consiste nell’utilizzare i cookie (dolcetti o biscotti, in inglese). Un cookie per il web, detto HTTP coo-kie (ossia cookie per il protocollo HTTP), è un insieme di dati inviati dal sito e memorizzati dal browser in un file che risiede sul calcolatore dell’utente. Quando un calcolatore si collega per il prima volta ad un certo sito, il sito gli invia un cookie, caratterizzato da un proprio identificatore univoco, poi ogniqualvolta il calcolatore si ricollega a quel sito, il cookie precedentemente inviato viene rispedito al sito, il quale quindi sa che il nuovo accesso è stato compiuto proprio dal calcola-tore al quale aveva precedentemente inviato il cookie. I cookie sono semplici dati, ma sono tuttavia problematici per quanto riguarda la protezione della privacy: il cookie consente al sito che l’abbia inviato di unire tutti gli accessi compiuti con un certo calcolatore, e quindi di ricostruire la storia delle attività compiute da possessore di quel calcolatore. Si capisce come in questo modo si possa ricostruire il profilo di una persona. Sono particolarmente pericolosi per la privacy i cosiddetti cookie provenienti da terzi, cioè quelli inviati non dal server corrispondente alla pagina a cui siamo collegati ma dai server in cui si trovano elementi (immagini, banner pubblicitari, ecc) visualizzati in tale pagina. Collocando più banner in siti diversi, l’inserzionista potrebbe controllare l’interazione di una persona sui diversi siti, unificando tutte le informazioni. I browser normalmente consentono all’utilizzatore di scegliere come rapportarsi ai cookie: è possibile respingere tutti i cookie o solo quelli di terzi, e cancellare tutti i cookie che abbiamo già ricevuto o solo alcuni di essi. Tale facoltà è garantita anche dalla nostra disciplina della protezione dei dati, cioè dal Codice della Privacy, che ammette l’uso dei cookie per determinati scopi legittimi relativi alla memorizzazione tecnica per il tempo strettamente necessario alla trasmissione della comunica-zione o a fornire uno specifico servizio richiesto dall’abbonato o dall’utente solo con il consenso dell’interessato. Ai tradi-zionali cookie (HTTP cookie) si sono recentemente affiancati nuovi tipi di dati inseriti nel calcolatore di chi accede a siti web, al fine di tracciarne il comportamento on-line: in particolare ricordiamo i flash cookie, inseriti nel calcolatore dell’utente dal software Adobe Flash Player, presente su quasi tutti i calcolatori. Il contenuto e la funzione dei flash cookie può essere analogo a quello dei cookie tradizionali, ma l’interfaccia del browser non ci consente di scegliere se accettare i flash cookie o di eliminarli dal nostro computer. Siti malevoli possono utilizzare i flash cookie per continuare a tracciare il comportamento dell’utente anche dopo che questi abbia eliminato un cookie mediante il proprio browser: il sito invia due coppie, un normale HTTP cookie ed un flash cookie, e qualora l’utente cancelli l’HTTP cookie quest’ultimo viene ricreato sulla base del corrispondente flash cookie. Le prime applicazioni importanti di Internet furono: collegamento a calcolatori remoti ed accesso a file remoti (calcolatori e file situati su calcolatori materialmente collocati in porzioni dello spazio lontane dal luogo di accesso dell’utente), e servizio di posta elettronica. Un salto di qualità fu realizzato con la creazione del World-Wide Web (WWW, la ragnatela globale). Il Web non è un software, ma un enorme insieme di documenti, unificati dagli standard usati per la loro identificazio-ne, creazione e consultazione. I tre standard che hanno consentito l’avvio del Web sono i seguenti:

- URL (Uniform Resource Locator, localizzatore uniforme di risorse), un tipo di identificatore per gli oggetti del Web presenti in rete, che designa in modo univoco tali oggetti, specificando come essi possano essere automatica-mente individuati e richiamati. Gli URL hanno la caratteristica di indicare la localizzazione della risorsa da essi i-dentificata, cioè il relativo indirizzo di rete, ed il protocollo da usare per richiamarla: pertanto gli URL possono esse-re risolti automaticamente, cioè sulla base dell’URL il nostro browser è in grado di richiamare automaticamente l’oggetto individuato dall’URL stesso.

Page 33: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

- HTML (HyperText Markup Language, linguaggio per la marcatura dell’ipertesto), il linguaggio per predisporre documenti ipertestuali.

- HTTP (HyperText Transfer Protocol, protocollo per il trasferimento dell’ipertesto), il protocollo che disciplina l’interazione tra il calcolatore client, che richiede pagine Web, ed il calcolatore server, che le fornisce.

Grazie a questi standard sono stati costruiti gli strumenti software per la consultazione e lo sviluppo del Web: - i software per la navigazione in rete (i browser), quali consentono di spostarsi dall’una all’altra pagina del Web,

visitando l’ipertesto globale (una pagina Web può infatti contenere un link, cioè un collegamento ipertestuale, ad altre pagine Web, il quale è solitamente indicato a video dal fatto che una o più parole sono sottolineate oppure scritte di un colore diverso, solitamente il blu). Il Web si ispira al modello dell’ipertesto, un sistema informatico che consente all’utente di visualizzare i documen-ti e di spostarsi automaticamente dal documento visualizzato ad altri documenti ad esso collegati. Chi crea una pagi-na Web è libero di inserire in essa qualsiasi contenuto e di inserire dei link a qualsiasi pagina Web di qualsiasi sito (senza la necessità di accordarsi con chi ha creato tale pagina o gestisce il relativo sito), e gli standard Web sono in-dipendenti da ogni particolare hardware o software.

- i software per la realizzazione di siti Web. Fino agli anni ’80 Internet si configurava come un’iniziativa statunitense, prevalentemente sotto il controllo pubblico. Tutta-via, già nella seconda metà di questi anni, aveva avuto inizio la creazione di reti in altri Paesi. A partire dagli anni ’90, Internet fu aperta agli operatori commerciali, che svilupparono proprie reti. Di conseguenza, oggi non esiste alcun soggetto particolare che possa qualificarsi come proprietario unico o principale di Internet, né alcun potere politico la cui autorità si estenda all’intera rete: la proprietà delle infrastrutture della rete è ripartita tra numerosi enti pubblici e privati, e la rete si e-stende ormai a tutte le Nazioni del mondo. Conseguentemente, il governo di Internet si è separato sia dalla proprietà delle infrastrutture della rete, sia dal controllo delle autorità politiche nazionali, ed è stato affidato a diversi organismi, formatisi nel corso degli anni per rispondere alle esigenze attinenti allo sviluppo ed al funzionamento di Internet. La nascita degli or-ganismi di Internet è talvolta connessa con iniziative di soggetti pubblici statunitensi; tuttavia, tali organismi sono riusciti ad acquistare una progressiva autonomia basata sulla loro funzione tecnica, che ha trovato un successivo riconoscimento giuridico. Grazie a tale autonomia essi hanno potuto mantenere le proprie funzioni anche quando la rete è divenuta globale: si tratta di enti privati (associazioni o società commerciali senza scopo di lucro) che perseguono, con autonomia rispetto al-le autorità politiche nazionali, interessi collettivi attinenti al funzionamento ed allo sviluppo della rete. Le strutture per il governo di Internet possono suddividersi in due gruppi:

- le istituzioni finalizzate allo sviluppo tecnologico ed alla definizione/perfezionamento degli standard. Lo sviluppo delle tecnologie di Internet fa capo ad ISOC (Internet Society, società di Internet), con sedi in Virginia ed in Svizzera, un’organizzazione la cui partecipazione è aperta a tutte le persone interessate a contribuire allo svi-luppo di Internet. Le scelte sono affidate ad organi collegiali prevalentemente tecnocratici (ciò formati utilizzando la competenza tecnica come criterio per la selezione del personale), strutturati in modo da garantire la presenza di competenze tecniche e di specialisti imparziali, accanto alla rappresentanza dei diversi interessi implicati nello svi-luppo di Internet. Quello di ISOC è un modello organizzativo adottato anche dalle altre principali istituzioni di Internet. Ad ISOC fa capo IETF (Internet Engineering Task Force, task force destinata all’ingegneria di Internet), l’organizzazione più importante per quanto riguarda la definizione degli standard. Essa è un’organizzazione virtuale, nel senso che non ha personalità giuridica né sede fisica. IETF comprende numerosi gruppi di lavoro che si occupa-no dei diversi standard di Internet, la partecipazione ai gruppi di lavoro è aperta, cioè chiunque può associarsi a tali gruppi, ed avviene mediante Internet. IESG (Internet Engineering Steering Group, gruppo per la direzione dell’ingegneria di Internet) è l’organizzazione che si occupa di sovraintendere l’attività dei gruppi di lavoro di IETF. Essa valuta, in particolare, i progressi nella maturazione degli standard e la validità dei risultati raggiunti. Anche IAB (Internet Architecture Board, comitato per l’architettura di Internet) partecipa alla definizione degli standard, essa si occupa delle questioni di carattere più generale. A queste strutture si è aggiunto negli ultimi anni un nuovo importante organismo attivo nel campo della standardiz-zazione, si tratta di W3C (Wold-Wide-Web Consortium, consorzio per la ragnatela globale). W3C ha personalità giuridica ed una struttura associativa, nel senso che ha sedi fisiche (negli USA, in Europa ed in Giappone) e perso-nale stabile. W3C effettua studi che mirano a realizzare un unico Web, esteso al mondo intero (one-Web), cioè una piattaforma aperta nella quale informazioni e servizi siano a tutti accessibili, sia facilitata l’elaborazione automatica delle informazioni e sia garantita l’affidabilità degli scambi. W3C si occupa anche degli studi sul web semantico.

- le istituzioni finalizzate alla gestione ed all’assegnazione di indirizzi e nomi. Il funzionamento di Internet richiede la disponibilità di identificatori univoci, sia indirizzi numerici sia nomi di do-minio. ICANN (Internet Corporation for Assigned Names and Numbers, società di Internet per l’assegnazione di nomi e numeri) è una società commerciale, con sede in California, a cui spetta il compito di coordinamento delle funzioni riguardanti l’assegnazione di quegli identificatori univoci che sono gli indirizzi numerici ed i nomi di do-minio. Le attività di ICANN sono decentrate, poiché in ogni continente si trova una struttura, detta RIR (Regional Internet Registry, registro regionale di Internet), competente per l’assegnazione di indirizzi numerici; ICANN affi-da a ciascun RIR grandi quantità di indirizzi, che quest’ultimo provvederà a collocare in blocchi presso ciascun for-

Page 34: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

nitore di servizi Internet (ISP, cioè Internet Service Provider), il quale a sua volta si occuperà di assegnare gli in-dirizzi ai propri utenti. Per quanto riguarda i nomi di dominio, l’assegnazione dei nomi generici (suffissi gov, com, org, ecc) è stata delega-ta da ICANN ad una società denominata Network Solutions Inc. (NSI), mentre l’assegnazione di nomi con suffisso nazionale (it, eu, uk, ecc) è svolta da enti situati nelle diverse nazioni interessate, chiamati naming authority e regi-stration authority. ICANN ha definito criteri uniformi per la risoluzione delle controversie attinenti all’assegnazione dei nomi di domi-nio. Ad esempio, per ottenere un nome di dominio generico (privo del suffisso della nazione) bisogna accettare la clausola arbitrale che affida la soluzione di eventuali dispute ad un collegio arbitrale, e le decisioni di quest’ultimo sono applicate direttamente da ICANN. Nella disciplina dei nomi di dominio si manifesta apertamente l’autonomia della regolazione di Internet rispetto al diritto statale, autonomia che riguarda non solo la formazione di regole ma anche la loro applicazione nella decisione di controversie e l’esecuzione delle decisioni prese sulla base di tali rego-le. Anche per i nomi assegnati dalla Registration Authority italiana (suffisso it) è possibile attivare una procedura arbitrale, ma la soggezione all’arbitrato è in Italia facoltativa, nel senso che la sottoscrizione della clausola arbitrale non è condizione necessaria per ottenere il nome (il ricorso alla procedura arbitrale italiana richiede quindi il con-senso di entrambe le parti, pertanto essa è raramente utilizzata).

4) Il Web semantico Il termine Web semantico fa riferimento all’inserimento nel Web di informazioni comprensibili da parte del calcola-tore. Il Web attuale corrisponde solo in piccola misura all’idea del Web semantico. Gli oggetti presenti sul Web contengono per lo più informazioni comprensibili solo all’uomo (siano esse testi, file multimediali, canzoni, film, ecc), che il calcolatore si limita a visualizzare nel formato richiesto. Nel modello del Web semantico, invece, le pagine del Web debbono contenere anche informazioni comprensibili da parte del calcolatore, cioè informazioni che possono essere elaborate automaticamente. Il Web semantico si ripromette di superare i limiti del Web presente, facilitando l’accesso all’informazione e l’effettuazione di varie attività mediante Internet; i documenti potranno includere le informazioni richieste per varie attività che li riguarda-no, in particolare quelle attinenti al commercio elettronico o al governo elettronico. Lo sviluppo del Web semantico rientra nell’ambito di W3C, che ha promosso la definizione e l’applicazione di standard in-tesi a consentire lo sviluppo di tecnologie per il Web semantico. Gli standard del Web semantico che attengono agli strati inferiori sono:

- lo standard Unicode, che indica come rappresentare, mediante un unico numero binario e perciò in modo univoco e riconoscibile dal calcolatore, ogni carattere di qualsiasi alfabeto oggi in uso.

- lo standard degli URI (Uniform Resource Identifiers, identificatori uniformi delle risorse), che indica come deno-minare in modo non ambiguo tutte le risorse accessibili sul Web.

Gli standard del Web semantico che attengono agli strati superiori sono: - XML (eXtensible Markup Language, linguaggio estensibile per la marcatura), un metalinguaggio che consente di

definire etichette per esprimere la struttura dei propri documenti e per includere ulteriori informazioni in tali docu-menti.

- RDF, un linguaggio che consente di includere nei documenti enunciati sugli oggetti rilevanti e le loro proprietà. - le ontologie, che consentono di specificare concetti e relazioni concettuali e di compiere le inferenze corrispondenti. - la logica (le regole), che permette di esprimere informazioni complesse, utilizzabili nei ragionamenti. - la fiducia, che comprende i modi per assicurare la riservatezza, l’autenticità, l’integrità e l’affidabilità.

Oggi il Web offre un’immensa quantità di informazione giuridica, possiamo dire che è diventato la principale fonte di co-gnizione del diritto. Tuttavia, l’uso del Web per conoscere il diritto è complicato da alcuni fattori:

- i documenti giuridici sono disponibili in formati diversi e non sempre leggibili con il software presente nel nostro calcolatore.

- i documenti giuridici sono reperibili utilizzando i motori di ricerca, le cui prestazioni sono solitamente buone per quanto riguarda la capacità di richiamo (poco silenzio) ma abbastanza scadenti per quanto attiene alla selettività (molto rumore) ed all’affidabilità.

Tradurre il progetto Web semantico in ambito giuridico significa fare in modo che ciascuno, usando un qualsiasi tipo di dispositivo, possa ottenere dal Web informazioni giuridiche affidabili. La realizzazione del Web semantico può consentire di accrescere l’usabilità dell’informazione giuridica, facilitandone il reperimento automatico e consentendo l’elaborazione au-tomatica dei dati inclusi nei documenti giuridici. In particolare sarebbe opportuno avere a disposizione:

- standard condivisi per l’identificazione delle risorse giuridiche, grazie ai quali ogni atto giuridico, prodotto da qualsiasi autorità, possa essere univocamente identificato e ritrovato.

- standard per la strutturazione dei documenti giuridici. - standard, basati su RTF, per associare ai documenti giuridici dichiarazioni di vario tipo (sui contenuti,

l’autorità emanante, i tempi, ecc). - ontologie giuridiche. - linguaggi per la rappresentazione delle norme giuridiche in forma logica.

Page 35: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

- metodi per assicurare l’affidabilità dell’informazione giuridica e la sua conservazione. 5) Il Web 2.0 o Web riscrivibile Il termine Web 2.0 fa riferimento al crescente coinvolgimento degli utenti del Web nella creazione del Web stesso e nelle infrastrutture informatiche che consentono tale partecipazione. Potremmo dire che il Web è divenuto riscrivibile, nel senso che tutti possono partecipare alla sua dinamica evolutiva: i contenuti prodotti dagli utenti occupano una parte cre-scente del Web ed attraggono l’interesse degli utenti stessi, almeno quanto se non di più dei contenuti forniti dall’industria culturale. Nell’era del Web riscrivibile, Internet non è più solo l’infrastruttura mediante la quale si può accedere alla conoscenza, co-municare o svolgere attività economiche ed amministrative, essa è anche il luogo nel quale le persone possono esprimersi, impegnarsi nella produzione di conoscenza, partecipare alla cultura e contribuire al dibattito sociale e politico. Ciò si realiz-za mediante diverse infrastrutture e strumenti software, che rendono possibili le diverse dimensioni del Web: condividere documenti di ogni tipo (testi, fotografie, filmati, musica, ecc), realizzare siti individuali dove sviluppare il proprio diario pubblico (blog), commentare i contributi altrui, produrre contenuti intellettuali in modo cooperativo, partecipare a reti socia-li, ecc. Nel Web 2.0 gli utenti della rete hanno cominciato a riscrivere la rete stessa, arricchendola con i propri contenuti. È vero che era possibile caricare contenuti in rete e renderli pubblicamente accessibili già prima dell’avvento della rete 2.0, tuttavia la predisposizione di pagine Web ed in generale la creazione di contenuti digitali ed il loro trasferimento on-line presupponevano competenze che la maggior parte degli utenti del Web non possedeva e richiedevano un impegno al di là della disponibilità degli stessi. Il Web 2.0 trova la propria premessa in nuovi strumenti informatici che consentono a tutti gli utenti del Web di contribuire alla rete:

- migliori strumenti (software open source, funzionalità disponibili on-line, ecc), accessibili a prezzi ridotti o gratui-tamente, per realizzare creazioni intellettuali.

- strumenti per trasferire in rete, con estrema facilità e senza costo, i contenuti prodotti. - strumenti per inserire direttamente in rete nuovi contenuti, collegandoli ai contenuti già disponibili (rispondendo ad

un messaggio su un blog, commentando un filmato, ecc). Grazie a queste nuove possibilità si è verificata una rapidissima crescita della quantità dei contributi generati dagli utenti. L’impresa informatica nel Web 2.0, il modello Google: L’innovazione del Web 2.0 consiste nello sfruttare l’intelligenza collettiva, cioè nel comprendere, gestire e rispondere ad enormi quantità di dati prodotti dagli utenti. In seguito a tali nuove possibilità cambia la natura economica dell’impresa in-formatica. L’impresa tipica degli anni ’60 e ’70 era IBM, la grande produttrice di hardware che vende o noleggia ai propri clienti le macchine per il calcolo ed i relativi dispositivi periferici. L’impresa tipica degli anni ’80 e ’90 era invece Microsoft, la produttrice di programmi informatici, di cui distribuisce il codice oggetto con licenza d’uso. L’impresa tipica del Web 2.0 è Google, che non offre né apparecchiature né prodotti software, ma offre servizi. Google, fondata da Larry Page e Sergey Brin (al tempo due studenti), ha ottenuto un enorme successo grazie alla realizza-zione dell’omonimo motore di ricerca. Tale motore di ricerca è stato affiancato da numerosi altri servizi, come la piattafor-ma per la condivisione di filmati YouTube, la posta elettronica G-Mail, le indicazioni geografiche e gli indirizzi di Google-Maps, le immagini geografiche di Google-Earth (visualizzabili mediante un client installato sul dispositivo dell’utente), il notiziario Google-News, i testi di Google-Books. I servizi sono forniti gratuitamente all’utilizzatore, poiché i proventi di Google derivano in gran parte dalla pubblicità. Non fornendo software, Google non ha bisogno di adottare misure tecnologiche o giuridiche volte a prevenire duplicazioni indesiderate: il software risiede nei server di Google, dove risiedono anche i dati di cui quel software si avvale. Gli utenti sono coinvolti in diverso modo nelle attività di Google: fruiscono dei suoi servizi e forniscono i dati per svolgere quei servi-zi. Google estrae dalla rete Web le informazioni che gli sono necessarie per far funzionare il proprio motore di ricerca: esso indicizza le pagine Web associando i termini contenuti in ogni pagina all’indirizzo della rete di tale pagina, e determina la rilevanza dei risultati delle ricerche, quindi l’ordine o ranking secondo il quale i risultati sono presentati agli utenti, sulla ba-se della struttura del Web e delle precedenti attività degli utenti. Un celebre algoritmo chiamato PageRank, originariamente sviluppato da Larry Page, attribuisce rilevanza ad ogni pagina a seconda del numero di link di cui è destinataria e della rile-vanza delle pagine da cui provengono i link; un ulteriore criterio di rilevanza di una pagina è la frequenza con la quale gli utenti hanno acceduto ad essa nel passato. Ritornando alle funzionalità di Google possiamo dire che, più in generale, Google estrae dal Web le informazioni che gli consentono di offrire i suoi servizi (per esempio, preleva dalle pagine Web dei giornali le informazioni per compilare il proprio notiziario quotidiano, oppure ricorre all’iniziativa degli utenti per riempire di contenuti le proprie raccolte di filmati). I proventi di Google derivano essenzialmente dalla pubblicità, mediante il meccanismo degli AdWords (parole per la pub-blicità). Agli utenti che compiano una ricerca su Internet utilizzando il motore di ricerca Google o che effettuino una ricerca all’interno di una piattaforma fornita da Google (ad esempio, YouTube), sono fornite due liste di risultati. Sul lato sinistro dello schermo compaiono i risultati naturali della ricerca, mentre sul lato desto vengono mostrati i link di natura pubblicita-ria che rinviano a messaggi commerciali o ai siti di venditori on-line. Questo secondo ordine di risultati si spigano conside-rando che gli inserzionisti interessati ad una pubblicità mirata possono acquistare parole per la pubblicità, le AdWords ap-punto, da Google: un inserzionista può cioè indicare le parole il cui utilizzo nella ricerca attiverà la visualizzazione (nel la parte destra dello schermo) del proprio link pubblicitario e l’ammontare di quanto egli è disposto a pagare quando un utente

Page 36: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

clicchi su quel link. In questo modo gli inserzionisti partecipano ad una vera e propria asta, che determina se il loro link sarà visualizzato ed eventualmente in quale posizione (chi offre di più otterrà una posizione più elevata nella lista dei link pub-blicitari). La posizione del link pubblicitario non è però determinata solamente dall’esito dell’asta, ma anche dalla qualità del messaggio pubblicitario ad esso collegato, misurata da Google sulla base di un insieme di fattori (ad esempio, quante volte il link è stato cliccato, la rilevanza dei contenuti collegati al link rispetto all’AdWord acquistata, la qualità delle pagine collegate, ecc). Le raccolte di contenuti on-line: La formazione del Web 2.0 è stata resa possibile dalla disponibilità di piattaforme per la condivisione di contenuti, nelle quali l’utente può liberamente trasferire i propri contenuti rendendoli accessibili al pubblico. La pubblicazione dei contenuti è un’operazione facile, rapida e gratuita, alla portata anche degli utenti più inesperti. Esistono numerose piattaforme per la condivisione di diversi tipi di contenuti, per fare alcuni esempi: le pubblicazioni acca-demiche di SSRN, i filmati di YouTube, le fotografie di Flickr, ecc. Analizziamo i primi due esempi:

- SSRN (Social Sciences Research Network) contiene contributi nel campo delle scienze giuridiche e sociali, libe-ramente e gratuitamente scaricabili. Una volta registratosi presso il sito, l’autore può pubblicare on-line i propri con-tributi, rendendoli accessibili a tutti. L’autore può limitarsi ad inserire nel sito il sommario del proprio contributo prima di pubblicare la versione definitiva su una rivista scientifica, anche se di solito gli autori mettono on-line il te-sto completo (nel primo caso l’autore può ottenere da altri utenti di SSRN indicazioni e commenti utili per comple-tare il proprio articolo e correggerlo da eventuali difetti).

- YouTube è il più popolare tra i siti per la condivisione di filmati e tracce musicali on-line. Fu creato nel 2.005, co-nobbe una rapidissima popolarità, e fu acquistato da Google nel 2.006. Tutti possono accedere ai filmati su YouTu-be, in più chi si registri presso il sito può anche caricare un numero illimitato di filmati. Di regola i filmati non pos-sono essere scaricati, cioè non se ne può trasferire una copia sul proprio calcolatore, e possono essere visualizzati solo all’interno della piattaforma. Gli utenti che accedono ad un filmato possono inserire commenti su di esso, gli stessi possono inoltre segnalare video sconvenienti o illegali, sollecitandone la rimozione.

Le raccolte di materiali on-line hanno condotto a problemi giuridici, attinenti in particolare al diritto d’autore ed alla prote-zione dei dati:

- problemi di diritto d’autore nascono dalla pubblicazione on-line di contenuti protetti senza il consenso del titolare dei diritti (ad esempio si tratta di stabilire se accanto a chi abbia caricato il video possa considerarsi responsabile an-che il gestore della piattaforma, la cui infrastruttura ha reso possibile la distribuzione abusiva).

- problemi di protezione dei dati nascono in un duplice direzione (considerando sempre l’esempio di prima): da un la-to si tratta del trattamento non autorizzato o comunque illegale dei dati riguardanti le persone che hanno caricato i filmati on-line o li hanno visualizzati, dall’altro lato si tratta del trattamento dei dati riguardanti le persone raffigura-te nel filmato (le immagini di persone contenute nel filmato sono dati personali quando consentano l’identificazione di tali persone).

- ulteriori problemi giuridici attengono all’eventuale distribuzione di contenuti illeciti (ad esempio, incitazioni nell’odio etnico e razziale, incitamento a commettere reati, ecc).

Le reti sociali: un sito di rete sociale (social network site) può essere definito come un servizio basato sul Web che consente agli individui di avvalersi principalmente di tre funzioni:

- la costruzione di un proprio profilo pubblico o semipubblico all’interno di un sistema circoscritto. Questa funzio-ne contraddistingue l’aspetto dell’identità: gli utenti della rete creano profili che li rappresentano, grazie alla com-binazione di informazioni personali di vario genere.

- la condivisione delle connessioni, cioè specificare una lista di altri utenti con i quali condividere una connessione. Questa funzione contraddistingue l’aspetto relazionale: attraverso il sito si mantengono e si sviluppano contatti con altre persone, e le connessioni contribuiscono anche alla formazione dell’identità sociale dell’individuo (il fatto di essere amico di certe persone e di partecipare a certe iniziative indica aspetti della sua personalità).

- l’attraversamento della rete delle connessioni, cioè esaminare ed attraversare la propria lista di connessioni e le liste fatte da altri all’interno del sistema. Questa funzione contraddistingue l’aspetto della comunità: gli utenti della rete sociale possono identificare la forma della loro comunità ed in particolare il ruolo che essi stessi hanno al loro interno.

Esistono numerose reti sociali, dotate di funzionalità diverse ed utilizzate in diverso grado in diverse aree geografiche. Oggi la rete maggiormente diffusa su scala globale è Facebook. Facebook ebbe origine nel 2.005 presso l’Università di Harvard, nella quale esisteva la consuetudine di distribuire ai nuovi studenti, al fine di facilitare la conoscenza reciproca, un volume che riportava le foto di tutti i nuovi iscritti. Mark Zuckerberg, uno studente di informatica, ebbe l’idea di informatizzare il volume ed inoltre di promuovere la sua produzione ad opera degli utenti (non più ad opera dell’amministrazione universita-ria), così essi stessi avrebbero fornito la propria foto e le informazioni con le quali presentarsi ai colleghi. Con la collabora-zione di alcuni compagni Mark realizzò un sito atto a svolgere questa funzione e lo mise a disposizione degli studenti di Harvard. Il successo fu rapidissimo: nel giro di pochi mesi la maggior parte degli studenti di tale università si registrò presso il sito, che fu quindi messo a disposizione di altre università e poi aperto alla generalità degli utenti (oggi Facebook è usato da circa 500 milioni di persone). Facebook è stato caratterizzato da una rapida evoluzione, arricchendosi di funzioni aggiun-

Page 37: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

tive: gli utenti possono inviarsi messaggi utilizzando un’applicazione per la messaggistica interna alla piattaforma, ogni pro-filo è dotato di una bacheca sulla quale gli amici possono inserire i loro messaggi, gli utenti possono informare i propri amici delle proprie iniziative, si possono immettere album fotografici, ecc. Si potrebbe ritenere che Facebook realizzi nel modo più pieno il diritto alla privacy sull’informazione, individualisticamente inteso come il diritto all’autodeterminazione informativa, cioè il diritto di ciascuno di scegliere con chi condividere i propri dati personali ed in quali forme. Rimane tuttavia irrisolto il conflitto tra privacy individuale e dinamiche comunicative nelle reti sociali, infatti una volta che qualcuno abbia aperto il proprio profilo ad altri diventa difficile se non impossibile control-lare l’ulteriore utilizzo che questi facciano delle informazioni a cui hanno avuto accesso. La disciplina delle reti sociali ri-chiede quindi un difficile bilanciamento tra privacy da un lato e libertà di informazione, di comunicazione e d’espressione dall’altro. I blog: La parola blog, derivante da web-log (diario di bordo del web), indica un tipo di sito Web generalmente gestito da una per-sona o da un ente in cui l’autore pubblica on-line, come in una sorta di diario,i propri pensieri, opinioni, riflessioni, conside-razioni ed altro. È un modello diffusosi con estrema rapidità negli ultimi anni, caratterizzato dalla rapidità di aggiornamento e dall’interattività con i lettori. I blog vengono prodotti grazie a piattaforme on-line che facilitano la redazione e l’aggiornamento di pagine Web (anche all’utente privo di conoscenze tecniche), consentono di pubblicare brevi messaggi (post) solitamente presentati nell’ordine cronologico invertito (dai più recenti ai più risalenti), permettono ai lettori di essere informati tempestivamente sugli aggiornamenti del sito (la pubblicazione di nuove pagine e massaggi) e di dialogare con l’autore inserendo i propri commenti. La pratica del blog ha determinato due fondamentali innovazioni nell’uso della rete:

- l’accresciuta dinamicità. Anche prima dei blog esistevano numerosi siti personali, nei quali una o più persone pre-sentavano sé stesse e mettevano a disposizione del pubblico materiali di vario genere, tuttavia questi siti erano ten-denzialmente statici o comunque caratterizzati da periodi di stabilità interrotti da occasionali o periodiche modifi-che. I blog, invece, sono di regola dinamici, in essi nuove informazioni sono pubblicate di continuo.

- l’accresciuta interattività. Anche prima dei blog era possibile comunicare con il titolare del sito, inviandogli mes-saggi di posta elettronica o sfruttando gruppi di discussione collegati al sito, tuttavia di regola i materiali presentati sul sito personale erano opera del titolare del sito, mentre l’interazione si sarebbe svolta al di fuori di esso. I blog, invece, consentono ai lettori di associare commenti alle pagine ed ai messaggi dell’autore, commenti che sono vi-sualizzati sul blog ed ai quali l’autore od altri lettori possono rispondere. Il blog diventa quindi il luogo di dialogo tra l’autore ed i lettori. L’autore del blog può regolare tale dialogo, limitandolo ad alcune persone od esercitando un controllo preventivo sui messaggi inviati, anche se nella maggior parte dei blog è concessa la massima libertà (nel senso che l’autore si limita ad eliminare successivamente i messaggi che ritiene sconvenienti). L’interattività del blog è potenziata da alcune funzionalità. Ricordiamo anzitutto la tecnologia del Web-feed (som-ministrazione del Web), che consente di ricevere automaticamente gli aggiornamenti delle pagine Web. Un Web-feed è un documento in XML, associato ad una pagina Web, che indica le modifiche subite dai contenuti di tale pa-gina. L’utente interessato agli aggiornamenti dovrà registrarsi presso il Web-feed (normalmente ciò si ottiene clic-cando su un’apposita icona) e dotarsi di un software capace di leggere i Web-feed (oggi i browser più diffusi sono dotati di questa funzione). Il software si collegherà ai Web-feed presso i quali l’utente si sia registrato, e comuniche-rà all’utente le modifiche dei relativi siti, fornendogli anche i link ai nuovi contenuti. Benché i Web-feed possano essere utilizzati anche per altri tipi di pagine Web, essi sono particolarmente rilevanti per i blog, data la dinamicità di questi.

Il blog può avere carattere confidenziale, ed essere rivolto ad una cerchia ristretta di soggetti; è allora una sorta di diario con il quale l’autore condivide le proprie esperienze ed i propri interessi con amici e conoscenti, ai quali può, se lo desidera, re-stringere l’accesso. Altre volte il blog ha una destinazione più ampia, rivolgendosi a quanti debbano essere aggiornati con riferimento ad una certa attività. Infine, alcuni blog sono rivolti alla generalità degli interessati, che può essere più o meno ampia a seconda della tematica affrontata o della popolarità dell’autore. Benché i blog nascano da iniziative particolari, non coordinate tra di loro, essi sono ricchi di interconnessioni, infatti il crea-tore di un blog normalmente inserisce nel blog stesso dei link che conducono alle pagine di altri blog che egli ritiene signifi-cativi per i propri lettori. Attraverso l’interconnessione dei singoli blog emerge la cosiddetta blogosfera, cioè la rete compo-sta dai blog e dalle loro molteplici interconnessioni, nella quale si possono compiere ricerche utilizzando software specifi-camente destinati a questo scopo (i motori di ricerca per blog). I wiki e Wikipedia: Un wiki è un sito Web che permette la facile creazione e modifica di un numero qualsiasi di pagine interconnesse mediante un browser Web che usa un linguaggio di marcatura semplificato o un editore di testi WYSIWYG (What You See Is What You Get). La parola “wiki” deriva dalla lingua hawaiana, nella quale “wiki” significa “rapido”, e quindi tale parola allude alla rapidità di scrittura e collaborazione consentita da questa tecnologia. Le pagine dei wiki sono solitamente redatte usando un linguag-gio di marcatura più semplice e limitato dell’HTML, vengono poi tradotte automaticamente in HTML, ed in questo formato inviate al browser che le visualizzerà ai lettori. Una funzione essenziale dei wiki è il controllo delle modifiche: è possibile esaminare tutte le modifiche subite da un testo, ed individuare con precisione chi ha effettuato la modifica ed in quale tem-

Page 38: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

po. I wiki offrono anche strumenti per la gestione delle versioni di un testo: è possibile risalire alla versione del testo prece-dente ad una qualsiasi modifica. I wiki sono strumenti perfetti per il lavoro cooperativo, per la collaborazione decentrata di comunità aperte di autori: essi so-no rivolti alla creazione di opere comuni, nelle quali il contributo di ciascuno diventa indistinguibile dal contributo altrui. Più autori possono intervenire sul medesimo testo, controllandone l’evoluzione nel tempo. Un wiki può essere accessibile solo ad alcune persone (a quanti collaborano al progetto cui il wiki è destinato) oppure può essere aperto al pubblico (qua-lunque utente registrato, e talvolta anche l’utente non registrato, può intervenire modificando il contenuto delle pagine). Si potrebbe immaginare che questa seconda modalità di gestione dovrebbe condurre alla distruzione del contenuto informativo del wiki, in seguito agli interventi di autori incapaci o di atti di vandalismo;; invece, l’esperienza ha mostrato che gli inter-venti incompetenti o malintenzionati sono relativamente rari e comunque i successivi interventi di revisori competenti e be-nintenzionati pongono ad essi rimedio in breve tempo, nella maggior parte dei casi. Grazie alla tecnologia dei wiki h potuto svilupparsi la più grande e più letta enciclopedia oggi esistente, Wikipedia, presente in 200 lingue diverse (Wikipedia è il 3° sito maggiormente frequentato del Web). Wikipedia nacque dal fallimento di un progetto precedente, denominato Nupedia, un’enciclopedia on-line alla quale tutti potevano proporre i propri contributi, la cui pubblicazione era però subordinata ad un processo di revisione e controllo affidato ad esperti retribuiti. L’organizzatore del progetto, Jimmy Wales, di fronte allo scarso numero di contributi ottenuti a fronte dei costi elevati, dovette abbandonare il progetto. Egli venne però a conoscenza della tecnologia dei wiki, e nel 2.000 decise di avviare un nuovo progetto di enci-clopedia, Wikipedia, basato su tale tecnologia, nel quale sia la redazione delle voci sia i controlli fossero completamente de-centrati ed affidati alla generalità degli interessati. Chiunque poteva scrivere una nuova voce e chiunque poteva intervenire modificando una voce preesistente; a tale fine era necessario registrarsi presso il sito di Wikipedia, ma non vi erano controlli e quindi chiunque desiderasse rimanere anonimo poteva farlo creandosi un’identità fittizia. Secondo il senso comune, un progetto siffatto doveva essere destinato ad un immediato fallimento: persone ragionevoli e competenti non avrebbero forni-to gratuitamente il proprio lavoro per la faticosa costruzione delle voci, ed anche se qualcuno l’avesse fatto il suo contributo sarebbe presto stato distrutto da incompetenti e vandali. Contrariamente a queste aspettative, Wikipedia ebbe un enorme successo, conoscendo una crescita rapidissima sia nel numero dei contributi disponibili sia nel numero dei contributori e dei lettori. All’edizione inglese (di gran lunga la più ampia) si sono affiancate altre edizioni in numerose lingue. Si è osservato che la qualità dei contributi è generalmente elevata, comparabile a quella delle migliori enciclopedie commerciali (non man-cano le inesattezze, ma esse vengono di solito prontamente individuate e corrette). Le motivazioni di tale partecipazione vo-lontaria e non retribuita sono varie: l’interesse per i temi trattati dalle voci, la volontà di contribuire alla creazione di un’opera che renda la conoscenza accessibile liberamente e gratuitamente a tutta l’umanità, ecc. La collaborazione tra i re-dattori delle voci è facilitata da una regola di neutralità, che prevede la formulazione di tutte le diverse opinioni sulle que-stioni controverse (lo scopo non è quello di scrivere gli articoli da un singolo punto di vista, ma è di rappresentare tutte le prospettive su una certa questione). La produzione paritetica di contenuti: Le esperienze appena ricordate, accanto a quella del software open source, sono alcune tra le molte che esemplificano il fe-nomeno della produzione paritetica di contenuti informativi. Secondo Yochai Benkler, lo studioso statunitense che più di ogni altro ha approfondito l’analisi di questo fenomeno, la produzione paritetica si realizza mediante attività cooperative che non sono costruite sull’esclusione asimmetrica tipica della proprietà, invece gli sviluppi dei processi produttivi sono condi-visi in una forma istituzionale che li lasci egualmente disponibili in modo che tutti li possano usare secondo la propria scelta individuale. Benkler osserva che fino ad oggi si riteneva che le attività produttive si potessero organizzare secondo due modelli: il mer-cato (dove le persone si scambiano beni e servizi guidate nelle proprie scelte dai prezzi) e l’azienda (detta anche pianifica-zione, dove le persone operano nell’ambito di una struttura gerarchica guidate dai comandi dei superiori). Ogni economia sviluppata possiede entrambe le forme di organizzazione, affidando alcuni aspetti della produzione all’una, altri all’altra. Se-condo Benkler, la produzione paritetica costituisce una terza via, che si distingue sia dal modello degli scambi di mercato sia dal modello gerarchico dell’azienda: chi partecipa ad iniziative produttive di questo tipo non segue né i segnali forniti dai prezzi, né le indicazioni dei superiori gerarchici. A favore di questo nuovo modo di produzione basato sulla produzione paritetica, secondo Benkler, vi sono importanti ragioni economiche:

- faciliterebbe l’individuazione delle persone più adatte a svolgere un certo compito, individuazione che è lascia-ta agli stessi interessati, evitando le difficoltà ed i costi inerenti alla ricerca dei soggetti a cui affidare un certo lavo-ro. Esempi: in un progetto di software libero o in Wikipedia chi si ritiene capace di sviluppare un certo modulo o di scrivere una certa voce, è completamente libero di farlo, autoselezionandosi per lo svolgimento di tale compito, ed il suo contributo sarà accettato se gli altri riterranno di accoglierlo in seguito a revisioni e controlli paritetici.

- consentirebbe, in quanto basato sulla condivisione ed il libero accesso alle risorse informative, alle persone più in-teressate e competenti nell’usare una certa risorsa di farlo senza richiedere il permesso di alcuno , evitando i costi inerenti alla contrattazione per l’accesso alle risorse e le rendite monopolistiche.

Poiché le risorse da usare in comune sono beni informativi (informazioni), il loro utilizzo è non rivale, e quindi la loro gene-rale accessibilità non ne determina l’eccessivo sfruttamento ed il deterioramento. La motivazione per impiegare le proprie energie nello sviluppo di prodotti a cui tutti possano accedere liberamente può venire, secondo Benkler, dalla combinazione di due motivazioni (oltre che dall’altruismo): il piacere derivante dalla creazione e l’appropriazione indiretta (cioè i vantaggi economici che il creatore può trarre in seguito alla libera accessibilità delle proprie opere).

Page 39: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

Non sempre la produzione paritetica può trovare piena applicazione. In molti casi altri modelli economici possono meglio soddisfare importanti esigenze: quelle dei creatori (il bisogno di essere retribuiti adeguatamente per il proprio lavoro), quelle dei loro committenti (garanzie di professionalità e disponibilità), quelle proprie di progetti permanenti e di ampia scala (di-sponibilità di strutture amministrative permanenti). Una dialettica simile a quella sviluppatasi rispetto al software ha caratterizzato anche il dibattito politico e giuridico circa la regolazione della produzione e dell’uso di altri tipi di opere d’ingegno: filmati, musica, opere letterarie, ecc. Come per il sof-tware, tale disciplina è stata ispirata all’idea che solo impedendo gli usi non autorizzati si potessero garantire sufficienti pro-fitti all’impresa culturale. Ricordiamo in particolare come la nostra disciplina sul diritto d’autore stabilisca una durata molto lunga per i diritti di sfruttamento economico (che durano fino a 70 anni dalla morte dell’autore) e preveda utiliz-zazioni libere ristrette. La stessa legge sul diritto d’autore prevede anche sanzioni per l’uso non autorizzato di contenuti protetti:

- sanzioni penali per chi distribuisca in rete contenuti protetti a fine di lucro, cioè per trarne un guadagno. - sanzioni penali più lievi per chi distribuisca in rete contenuti protetti a fine di profitto, cioè per ottenere un qualsiasi

beneficio patrimoniale (incluso il mero risparmi di spesa, il non-costo). - sanzioni amministrative per chi si limiti a riprodurre contenuti protetti (a scaricarli dalla rete).

Come nel campo del software, così anche in quello delle opere digitali numerose opinioni hanno rilevato come una discipli-na eccessivamente restrittiva sia scarsamente applicabile ed inoltre possa favorire gli oligopoli esistenti, limitare l’accesso ai contenuti culturali ed impedire le attività creative (ostacolando l’accesso alle opere d’ingegno). Accanto alle richieste di una riforma del diritto d’autore, sono emerse iniziative volte a far sì che lo stesso diritto d’autore possa essere usato per amp liare l’accesso alle opere ed il loro uso creativo. Il successo dell’esperienza open source e l’ampio uso della licenza GPL hanno suggerito di estendere lo stesso modello anche ad altre opere d’ingegno: ne è risultato il modello delle licenze creative commons. Si tratta di un sistema di licenze semplice e flessibile, che consente all’autore interessato a rendere liberamente accessibili le proprie opere di specificare a quali esclusive egli intenda rinunciare. In tutte le licenze creative commons l’autore autorizza tutti a riprodurre e distribuire l’opera per fini non commerciali (senza scopo di lucro), e richiede che ogni copia dell’opera e delle opere derivate tratte da essa rechino l’indicazione del suo nome, cosicché la sua pa-ternità sia sempre riconosciuta. L’autore può, se lo desidera:

- ampliare la libertà dei terzi offrendo loro l’ulteriore libertà di modificare l’opera, creando opere derivate basate su di essa.

- assoggettare tale libertà di modifica alla clausola condividi allo stesso modo (share alike) che corrisponde al copy-left del software open source. In questo modo anche le opere derivate ottenute modificando l’opera soggetta a questa clausola dovranno essere distribuite con la medesima licenza creative commons, conferendo le stesse libertà ai loro utilizzatori.

- consentire anche usi non commerciali. Le licenze creative commons non sono un modello utilizzabile in ogni occasione. In particolare questo modello giuridico può essere inadatto per gli autori che traggono il proprio sostentamento dalla commercializzazione delle proprie opere. Que-sto modello, tuttavia, può trovare numerose applicazioni, non solamente nell’ambito della produzione paritetica: ad esempio, esso è frequentemente utilizzato per i contributi scientifici, i cui autori normalmente sono interessati soprattutto alla circola-zione delle proprie opere (piuttosto che al modesto risultato economico che potrebbero trarre dalla loro distribuzione com-merciale) e godono di regola di altre fonti di reddito. Le imprese che forniscono le piattaforme del Web impiegano un consistente numero di dipendenti ed operano a scopo di profitto, offrendo agli individui ed ai gruppi la possibilità di comunicare, di accedere ad opere d’ingegno e di crearne di nuove. Di regola le piattaforme funzionano in questo modo:

- l’impiego della piattaforma è concesso gratuitamente, e le attività che generano reddito sono quelle connesse: la pubblicità sui siti è fornita a fronte di un corrispettivo da parte degli inserzionisti.

- gli utenti mettono a disposizione gratuitamente i loro contenuti, cioè senza percepire corrispettivi dal gestore della piattaforma.

Quando le diverse piattaforme competono per attirare gli utenti, esse finiscono per offrire loro un più ampio panorama di scelte ed opportunità. Per questo motivo può attuarsi una sinergia: gli individui generano una crescente quantità di contenuti ed i fornitori generano migliori servizi per accogliere ed aggregare quei contenuti. In questo modo i bisogni individuali pos-sono realizzarsi in un’economia capace di sostenersi e svilupparsi in un quadro di autorganizzazione/autoregolamentazione. Bisogna tuttavia notare che non sempre si attua la coincidenza tra gli interessi degli utenti e la ricerca del profitto:

- le imprese che offrono servizi ed in particolare piattaforme per contenuti creati dagli utenti potrebbero utilizzare i dati personali dei propri utenti in forme illecite (per esempio, tali dati potrebbero essere trasferiti a terzi contro o senza la volontà degli utenti, come accade nel caso del trasferimento dei dati ad operatori commerciali che li use-ranno a fini pubblicitari).

- gli utenti non sono più in grado di eliminare le loro informazioni personali che hanno fornito al gestore della piattaforma, una volta che tali informazioni siano state trasferite.

- il trasferimento dei dati su una piattaforma on-line comporta una perdita di controllo da parte dell’utente, anche quando questi abbia la possibilità di rimuovere i dati dalla piattaforma; questi dati, infatti, possono essere stati prelevati da altri soggetti, che possono usarli in modi non previsti e non desiderati. Da qui scaturisce l’esigenza di

Page 40: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

elaborare nuove soluzioni tecnologiche e giuridiche che consentano a chi abbia trasferito dati personali su piatta-forme Web di far sì che quei dati possano essere cancellati dal Web nel suo insieme, e non solo dal sito Web nel quale sono stati caricati. Questo diritto alla cancellazione, all’oblio, del soggetto a cui si riferiscono i dati si contrap-pone al diritto all’informazione di chi abbia ottenuto quei dati e li ritenga rilevanti, per questo motivo adeguate solu-zioni richiedono un difficile bilanciamento dei diritti e degli interessi in gioco.

Si è recentemente osservato che il crescente uso delle piattaforme on-line può favorire una crescente frammentazione del Web, cioè la sua suddivisione in diverse sottoreti sempre più separate le une dalle altre (sia negli strumenti software sia nella cerchia degli utenti). Gli utenti di talune piattaforme tendono infatti a rimanere all’interno della piattaforma, usando i servizi che essa offre, perfettamente integrati nella piattaforma stessa. La medesima tendenza si verifica nell’accesso al Web me-diante dispositivi mobili, i quali si presentano sempre più come piattaforme integrate per l’uso dei servizi di Internet;; per e-sempio, chi usa un iPhone di regola non accede ai servizi del Web mediante un motore di ricerca generalista (come Google), ma vi accede mediante piccoli programmi informatici detti App (da Application), che lo collegano direttamente ai siti di in-teresse (le App sono spesso gratuite, ma sono approvate da Apple e distribuite esclusivamente attraverso il negozio on-line di Apple). Gli ultimi anni sono stati caratterizzati da alcuni importanti sviluppi, contraddistinti dalla connessione tra Interne e la realtà, tra la dimensione virtuale e la dimensione fisica. Oggi il calcolatore può prelevare informazioni dall’ambiente (mediante ap-positi sensori) ed eventualmente operare nell’ambiente stesso. L’interazione automatica tra calcolatore ed ambiente acquista una nuova dimensione nell’era presente, grazie all’unione di due fattori: l’inserimento di calcolatori dotati di sensori in di-spositivi di ogni genere (telefonini, automobili, apparecchiature domestiche, ecc) ed il collegamento di questi dispositivi ad Internet (e quindi anche tra di essi). L’interazione oggi più diffusa tra strumenti informatici e realtà si attua nei servizi basa-ti sulla localizzazione (il nostro smartphone è in grado sia di indicarci il percorso tra due luoghi sia di rilevare la nostra po-sizione nel percorso). Si parla di:

- realtà aumentata, per indicare la visione della realtà ottenuta combinando la raffigurazione di un oggetto tratta dal-la realtà con elementi tratti dal mondo virtuale associato a quell’oggetto su Internet.

- Internet delle cose, per indicare lo sviluppo di Internet conseguente alla connessione in rete degli oggetti materiali. - intelligenza ambientale, per indicare l’inserimento nell’ambiente fisico di dispositivi automatici dotati della capaci-

tà di elaborare informazioni ed intelligenza, nonché di comunicare. Questi dispostivi inseriti nell’ambiente governa-no macchine di vario genere, facendo sì che l’ambiente stesso si adatti automaticamente alle esigenze dell’uomo (ad esempio, esistono oggi abitazioni od elettrodomestici automatici od intelligenti).

Gli sviluppi appena illustrati sollevano non pochi problemi giuridici, in particolare attinenti alla protezione della vita privata ed alla tutela delle libertà individuali. Sta infatti emergendo la possibilità di realizzare un controllo totale sulle persone, ca-ratterizzato dal fatto che ogni nostro comportamento può essere rilevato, classificato ed aggiunto ai nostri profili, potremmo essere manipolati da sistemi automatici a conoscenza delle nostre tendenze e debolezze. Per prevenire questi sviluppi è ne-cessario realizzare un quadro giuridico idoneo a garantire che la fusione tra il mondo virtuale e quello fisico si sviluppi nel rispetto dei valori umani. 6) La documentazione giuridica e Internet La prima tesi, i sistemi centralizzati degli anni ’60 e ’70: Tra gli anni ’60 e ’70 alcuni sistemi per la documentazione giuridica automatica furono creati sia in Europa sia nell’America del Nord, negli USA tali iniziative furono sviluppate prevalentemente da imprese private mentre in Europa si attivarono so-prattutto soggetti pubblici. Tali sistemi avevano inizialmente una copertura ridotta, limitata solitamente alle decisioni dei giudici supremi, ma successivamente essi si estesero a contenuti ulteriori, includendo la legislazione ed i regolamenti ammi-nistrativi. La creazione di tali sistemi si basava sull’idea di realizzare in ogni Paese un singolo sistema nazionale centraliz-zato per la documentazione giuridica, nel quale tutte le fonti del diritto fossero registrate elettronicamente e rese disponi-bili per la ricerca. La storia di questo genere di sistemi comprende successi e fallimenti, ma solo pochi di essi sono sopravvissuti fino ai giorni nostri (ad esempio il sistema italiano Italgiure, che regista le massime dei più importanti tribunali, continua ancora oggi la propria attività, accrescendo progressivamente i propri contenuti). La prima antitesi, i molteplici sistemi isolati degli anni ’80: Benché i PC potessero accedere a banche di dati remote mediante collegamenti di linee telefoniche, negli anni ’80 la docu-mentazione giuridica si spostò prevalentemente su basi documentali disponibili sui PC, le quali potevano essere usate più facilmente e senza i costi ed i ritardi del servizio telefonico remoto. Questo cambiamento nella documentazione giuridica fu consentito principalmente da due fattori:

- un nuovo dispositivo di memorizzazione, dotato di capacità enormemente superiore rispetto a quella dei supporti allora disponibili. Si tratta del compact disk (CD, disco compatto), leggibile mediante un lettore ottico collegato al od inserito nel PC e consultabile mediante un software risedente sullo stesso PC.

- la disponibilità di elaboratori di testi semplici ed economici. Fino agli anni ’70 i calcolatori non erano ancora usati nella redazione di documenti, in quanto mancavano software per la redazione di testi sufficientemente econo-mici ed agevoli da utilizzare, i documenti originali erano redatti in forma cartacea e dovevano poi essere ridigitati al

Page 41: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

fine di renderli disponibili elettronicamente. All’inizio degli anni ’80, invece, si resero disponibili sui PC elaboratori di testi economici e di facile impiego, il cui uso si estese presto alla redazione di documenti giuridici mediante cal-colatore (ad esempio, in molti ordinamenti negli anni ’80 si iniziò a distribuire un’edizione elettronica della Gazzet-ta Ufficiale).

La prima sintesi, i sistemi universalmente accessibili ma plurali degli anni ’90: La sintesi tra la tesi degli anni ’70 (la realizzazione di un unico sistema nazionale per la documentazione giuridica, inclusivo di tutte le fonti ed accessibile a tutti tramite un collegamento remoto) e l’antitesi degli anni ’80 (la distribuzione di copie di-verse di banche dati, da utilizzare su PC accessibili individualmente) si è compiuta negli anni ’90, mediante la rivoluzione di Internet. Tale sintesi consiste nell’accesso a tutte le fondi di documentazione giuridica mediante un unico sistema tecnologico distribuito, il Web. Abbiamo assistito negli ultimi anni ad iniziative molteplici ed eterogenee: assemblee legislative, uffici giudiziari, pubbliche amministrazioni, autorità indipendenti, ecc hanno realizzato propri siti Internet nei quali rendono di-sponibili informazioni giuridiche di vario genere, inoltre numerosi professionisti del diritto, in particolare avvocati, hanno iniziato a trasferire fonti del diritto sul Web. Pertanto, oggi sono disponibili sul Web numerose copie di molte fonti del dirit-to: leggi, regolamenti, sentenze, atti amministrativi, ecc, senza dimenticare che l’informazione giuridica sul Web si estende anche al dibattito dottrinale ed a discorsi che riguardano il diritto come articoli di giornale e dichiarazioni politiche, ed un certo interesse meritano anche i blog giuridici. La sintesi di Internet ha portato ad una grande crescita nella quantità delle in-formazioni giuridiche disponibili sul Web, una crescita da cui hanno tratto profitto gli studiosi del diritto, i pratici ed anche i comuni cittadini. A fronte di questa crescita quantitativa c’è però da dire che non è comunque facile ritrovare nel Web l’informazione giuridica di cui abbiamo bisogno. La nuova tesi, un sistema informativo giuridico centralizzato per l’era di Internet: L’informazione giuridica su Internet è caratterizzata dalla frammentazione: essa è fornita da enti diversi e suddivisa in molti siti, ma questi siti non seguono standard comuni per quando riguarda la presentazione dei documenti, il loro aggiornamento, le tecniche per la ricerca, ecc. Facilitare la cognizione del diritto nell’era di Internet significa porre rimedio a questa fram-mentazione, un risultato che può essere perseguito in due modi diversi, secondo due indirizzi antitetici:

- la tesi, consistente in un nuovo modello di sistema di documentazione omnicomprensivo e centralizzato, affidato all’iniziativa pubblica ed il cui funzionamento sia integrato con lo svolgimento delle procedure legislative, giudizia-rie ed amministrative.

- l’antitesi, consistente nello sviluppo decentrato di sistemi informativi giuridici, al di fuori della pubblica ammini-strazione, sulla base della libera disponibilità (assicurata dall’iniziativa pubblica) di documenti giuridici in formato elettronico.

La tesi consiste nel creare un database-madre centralizzato che contiene tutti i documenti giuridici, di qualsiasi tipo, dal quale si trarranno i diversi output in diversi formati (tale base di dati dovrebbe essere predisposta ed aggiornata mediante un processo editoriale centralizzato). In particolare la base di dati madre dovrebbe fornire gli output seguenti: una base di dati per i professionisti che offre prestazioni elevate e più ampi contenuti, una gazzetta ufficiale con la nuova legislazione, com-pilazioni del diritto vigente, tutti testi ufficiali in versione originale, ecc. Questo modello offre i seguenti vantaggi:

- affidabilità dell’informazione giuridica (che sarebbe estratta dalla base di dati ufficiale). - coerenza formale delle diverse fonti (che proverrebbero dalla stessa base di dati e sarebbero state predisposte secon-

do la medesima procedura editoriale). - riduzione del rumore nelle ricerche giuridiche (per le quali si interrogherebbe la base di dati ufficiale, anziché i mol-

ti siti disponibili su Internet). La nuova antitesi, l’accesso a risorse giuridiche distribuite: L’antitesi rispetto alla soluzione centralizzata consiste nel fornire più punti di accesso a risorse giuridiche condivise. Tali risorse, rappresentate da archivi di documenti giuridici, risiederanno normalmente sui sistemi informativi delle autorità che le hanno prodotte, sistemi che saranno accessibili in rete. Diversi fornitori di contenuti giuridici (pubblici o privati, commer-ciali o non) potranno accedere a tali risorse, e le potranno elaborare e distribuire nei modi che ritengono opportuni. Una vol-ta che le autorità pubbliche abbiano reso accessibili i testi giuridici, altri attori posso occuparsi della distribuzione di quei te-sti e del loro arricchimento con informazioni ulteriori. Lo Stato può intervenire sostenendo le autonome attività di tali attori, operanti in regime concorrenziale, piuttosto che gestendo direttamente i sistemi di documentazione giuridica. Questo modello offre i seguenti vantaggi:

- diversità dei servizi di informazione giuridica e concorrenza dei fornitori. - decentralizzazione ed autonomia (poiché ogni ente potrebbe organizzare il proprio sistema documentale secondo i

propri bisogni e le proprie capacità tecnologiche). La nuova sintesi, l’adozione di standard condivisi: Nel corso degli ultimi anni è emersa una terza soluzione, che consente di conservare i benefici di entrambi gli indirizzi. La sintesi è basata sulla produzione e gestione di documenti giuridici secondo standard condivisi. L’aspetto unificatore non

Page 42: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

consiste più nella creazione di un unico database ma nell’adozione di uno standard comune, il quale dovrà specificare come i documenti giuridici possano ricevere degli identificatori di nomi univoci (gli URI). Gli stessi organi che hanno adottato atti giuridici (atti legislativi, amministrativi o giudiziari) dovrebbero registrarli in docu-menti elettronici ufficiali rispettosi dello standard condiviso. Quei documenti potrebbero essere memorizzati in database di-stribuiti o centralizzati, essere riutilizzati ed elaborati, essere integrati con ulteriori informazioni (ad esempio, i documenti legislativi potrebbero essere arricchiti di riferimenti a commenti dottrinali). Il progetto italiano Norme in Rete (oggi non più esistente) ha rappresentato un esempio significativo della gestione dei documenti giuridici basata su standard condivisi. Sul-la base della definizione di uno standard comune, è stato realizzato un sistema che prevedeva la collaborazione di tutti gli enti che adottano atti normativi (Parlamento, Governo e ministeri, autorità indipendenti, autonomie locali, ecc). In questo modello si suppone che ogni autorità produttrice di norme registri i propri documenti in una base di dati separata, ma che li strutturi secondo lo standard condiviso, e li renda accessibili su Internet. Speciali strumenti software detti spider (ragni) visi-tano quotidianamente le basi di dati, e ne estraggono le informazioni con cui costruire un indice centrale. Il modello di Nor-me in Rete è stato parzialmente tradotto in realtà, ed una notevole quantità di documenti giuridici era stata resa disponibile presso il sito del progetto; Norme in Rete non mirava solamente a distribuire informazione giuridica al pubblico, ma anche a rendere disponibili documenti normativi a case editrici ed altri soggetti interessati al riuso ed alla ridistribuzione del docu-mento. Norma in Rete, pur avendo raggiunto notevoli risultati si è arrestato. Il governo oggi in carica (2.010) ha infatti volu-to affidare la missione della gestione informatica delle fonti ad una propria iniziativa, il progetto Norma Attiva, destinato a fornire pubblico accesso alle fonti del diritto, ed in particolare a tutta la normativa vigente.

CAPITOLO 6: L’intelligenza artificiale I due principali modelli impiegati nello sviluppo dei sistemi di intelligenza artificiale sono:

- il modello fondato sulla rappresentazione implicita della conoscenza in reti neurali e sulla sua elaborazione mediante l’attivazione di tali reti

- il modello fondato sulla rappresentazione esplicita della conoscenza e sulla sua elaborazione mediante ragio-namento.

1) L’intelligenza Manca una definizione univoca e condivisa di intelligenza. Solitamente si conviene che l’intelligenza si rivela nella capacità di svolgere funzioni come: adattamento all’ambiente o a nuove situazioni, apprendimento dall’esperienza, pensiero astratto, utilizzo efficiente di risorse limitate, comunicazione, ecc. L’intelligenza artificiale non si propone solamente di studiare la conoscenza, ma anche di costruirla. Come dallo studio dell’intelligenza umana si possono trarre utili indicazioni al fine della costruzione dell’intelligenza artificiale, così la costru-zione dell’intelligenza artificiale ci aiuta a cogliere la natura dell’intelligenza ed in particolare possiamo trarne ipotesi circa il funzionamento dell’intelligenza umana. Esistono due diversi modi, in relazione a due diverse dimensioni, di accostarsi allo studio dell’intelligenza artificiale:

- l’idea che l’intelligenza consista esclusivamente nel pensiero (rappresentazione della conoscenza e del ragiona-mento) si contrappone all’idea che essa includa anche l’interazione con l’ambiente (percezione ed azione).

- l’obbiettivo di riprodurre fedelmente le capacità intellettive dell’uomo (con tutti i loro limiti) si contrappone all’obbiettivo di realizzare sistemi capaci di razionalità (cioè di elaborare informazioni in modo ottimale) pre-scindendo dai limiti della razionalità umana.

È importante distinguere tra:

- intelligenza artificiale forte. Essa muove dalla convinzione che anche i calcolatori siano capaci di stati cognitivi e di pensiero, nel modo in cui ne è dotato l’essere umano, e conseguentemente si propone di costruire menti artificiali. Per questo indirizzo il calcolatore appropriatamente programmato è realmente una mente, cioè può capire ed avere stati cognitivi.

- intelligenza artificiale debole. Essa si propone di realizzare sistemi artificiali capaci di svolgere compiti complessi, sistemi che possono simulare aspetti dei processi cognitivi umani ma che non possono riprodurre quegli stessi pro-cessi, non possiedono una mente e non sono in grado di pensare.

Il dibattito circa la possibilità di sviluppare forme di intelligenza artificiale forte può essere fatto risalire al contributo di A-lan Turing. Per determinare se in capo ad un calcolatore si potesse determinare una forma di intelligenza artificiale forte e-gli lo sottoponeva ad un test definito gioco dell’imitazione: in questo test vengono interrogati due interlocutori, un essere umano ed un calcolatore, e l’interrogante dovrà essere in grado di stabilire, sulla base dei quesiti proposti e senza avere un contatto diretto con i due interlocutori, quale sia l’essere umano e quale invece il calcolatore. Attraverso questo test si avrà la prova che l’intelligenza artificiale è stata realizzata quando un sistema informatico riuscirà ad ingannare l’interrogante, fa-cendogli credere di essere una persona. Nessun sistema ha ancora superato il testi di Turing, ed anzi nessun sistema si è mai avvicinato a questo risultato. Dobbiamo tuttavia notare che il test di Turing solleva un certo problema legato alla sua validi-tà: ci possiamo chiedere se un sistema che, in ipotesi, riuscisse a superare il test sarebbe una vera intelligenza artificiale o

Page 43: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

invece sarebbe solo un mero idiota sapiente, che si milita a fingere di essere intelligente, che simula una mente senza posse-derla veramente. Vi è stato pertanto chi ha affermato l’impossibilità di realizzare sistemi informatici capaci di attività menta-le, di pensiero in senso proprio (in particolare questa tesi è stata sostenuto da John Searle). 2) Breve storia dell’intelligenza artificiale Il termine robot, oggi utilizzato per indicare le entità intelligenti artificiali capaci di azione ed interazione nel mondo fisico o in quello virtuale, trae origine da un’opera letteraria: gli esseri artificiali di cui parla l’opera, i robot, sono stati costruiti per servire gli uomini ma si ribelleranno ai loro padroni e ciò causerà la fine dell’umanità. La ricerca scientifica e tecnologica nel campo dell’intelligenza artificiale iniziò tra gli anni ’40 e gli anni ’50. La nascita dell’intelligenza artificiale viene solitamente ricondotta ad una celebre conferenza tenutasi a Dartmouth (New Hampshi-re, USA), che riunì per un mese alcuni tra i principali esperti della materia. Lo scopo esplicito della riunione era lo studio dell’intelligenza, partendo dall’ipotesi che ogni aspetto dell’apprendimento e dell’intelligenza possa essere descritto con una precisione tale che si possano costruire macchine un grado di simularli. La tesi fondamentale che ispirava gli studiosi riuniti a Dartmouth era l’ipotesi secondo cui l’intelligenza possa risultare dal funzionamento di un sistema che manipola strutture simboliche (per esempio, sequenze di parole o numeri) producendo altre sequenze simboliche. Secondo gli stessi autori, un sistema simbolico fisico ha i mezzi necessari e sufficienti per l’azione intelligente generale. Dato che ogni sistema di simboli fisici può essere realizzato mediante una macchina universale, e dato che i moderni calcolatori sono macchine universali, l’ipotesi che un sistema di simboli fisici sia capace di intelligenza implica che un calcolatore potrebbe dar vita all’intelligenza (una volta che fosse dotato di un software adeguato e di sufficiente memoria). Secondo questa corrente di pensiero non vi sarebbero limiti allo sviluppo dell’intelligenza automatica, si tratterebbe solo di sviluppare tecnologie hardware e soprattutto software adeguate. In entrambe queste direzioni ci sono stati notevoli progressi. Negli anni seguenti, la ricerca nel campo dell’intelligenza artificiale diede origine a numerosi risultati. Da un lato furono svi-luppati numerosi sistemi intelligenti, cioè capaci di affrontare compiti apparentemente tali da richiedere intelligenza (il gioco degli scacchi, la traduzione automatica dall’una all’altra lingua, ecc);; dall’altro lato furono realizzati alcuni strumenti che facilitavano significativamente la realizzazione di sistemi intelligenti. Questi successi condussero a previsioni esageratamente ottimistiche. Studiosi molto autorevoli si spinsero ad affermare che entro uno o due decenni sarebbero state rese disponibili macchine capaci di raggiungere l’intelligenza umana. Tuttavia, i l lento sviluppo delle applicazioni di intelligenza artificiale smentì queste previsioni, infatti passare da applicazioni sperimen-tali a sistemi utili per affrontare problemi reali si rivelò molto difficile. In particolare l’intelligenza artificiale non riuscì ad affrontare in modo soddisfacente i compiti cognitivi (come la comprensione del linguaggio o l’identificazione di oggetti nel-lo spazio) che l’uomo compie spontaneamente ed apparentemente senza sforzo. Negli anni successivi l’attenzione passò pertanto al tentativo di risolvere problemi riguardanti ambiti specialistici, nei quali la soluzione potesse essere ottenuta derivandola da un’ampia base di conoscenze riguardanti un particolare settore. Si tratta-va quindi di realizzare sistemi esperti capaci di risolvere in modo intelligente, cioè utilizzando un’ampia base di conoscen-ze, problemi che richiedessero una particolare competenza, come quella di cui è dotato un esperto umano. Si elaborarono tecniche per la rappresentazione della conoscenza in forme tali da renderla elaborabile automaticamente, ed in questo senso un certo rilievo ebbero i metodi per il ragionamento automatico ispirati alla logica (intesa come l’insieme dei metodi del ra-gionamento corretto). Tra gli anni ’70 e ’80 furono realizzati numerosi sistemi esperti, ed alcuni di essi conseguirono risul-tati significativi in diversi campi, come la diagnosi medica, l’analisi delle strutture molecolari o la progettazione di sistemi informatici. In questi anni iniziarono anche i primi studi in materia di intelligenza artificiale e diritto, e non mancarono i ten-tativi di realizzare sistemi esperti di diritto. Anche nell’ambito dei sistemi esperti ai primi entusiasmi fece seguito una pro-fonda delusione:

- si dovette constatare che i sistemi realizzati non erano in grado di sostituire la prestazione di un professionista esper-to, ma semmai di integrarne la competenza.

- emersero alcune difficoltà inerenti allo sviluppo ed alla maturazione dei sistemi esperti. In particolare, si constatava che era difficile e costoso rappresentare la conoscenza nella forma richiesta da un sistema esperto (assai più rigida e limitata rispetto al linguaggio umano) e mantenerla aggiornata, ed anche che non tutte le informazioni potevano es-sere espresse in questo modo e che, una volta ridotte in tale forma, le informazioni non potevano essere impiegate con la flessibilità di cui è capace l’intelligenza umana.

Vi è anche da dire che, da un certo punto di vista, la prospettiva dello sviluppo di sistemi esperti suscitava alcuni timori. Si temeva, cioè, che l’uomo nel consegnare l’uso delle proprie conoscenze ad un sistema informatico venisse a rinunciare al possesso di tali conoscenze, delegando le proprie attività intellettuali allo strumento elettronico. L’idea che la delega delle nostre funzioni mentali a enti materiali possa avere effetti pregiudizievoli per lo sviluppo umano merita considerazione, spe-cialmente con riferimento ai sistemi informatici intelligenti (cioè in grado di applicarsi da soli). Nei primi anni ’90 vi fu quindi una profonda crisi delle ricerche di intelligenza artificiale, il cosiddetto inverno dell’intelligenza artificiale, un clima di generale sfiducia nei confronti di questa disciplina. Sempre nei primi anni ’90 le ricerche di intelligenza artificiale hanno incontrato Internet, che da un lato richiedeva applica-zioni informatiche intelligenti e dall’altro offriva un’enorme quantità di informazione in formato digitale alla quale applicare

Page 44: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

le tecniche di intelligenza artificiale (ad esempio, le tecniche di intelligenza artificiale hanno trovato impiego nei motori di ricerca on-line). Dalla fine degli anni ’90 la ricerca è ripresa con rinnovato vigore e non sono mancati significativi risultati, anche operativi, in numerosi settori, tra i quali si possono ricordare:

- l’estrazione di informazioni da grandi masse di dati. - la selezione di informazioni rilevanti o l’eliminazione di quelle irrilevanti con tecniche intelligenti. - l’interpretazione degli esami medici e la consulenza medica. - la traduzione automatica. - i giochi virtuali. - la gestione di operazioni militari. - il riconoscimento di immagini e movimenti. - i robot fisici, utilizzati nell’esplorazione di regioni inospitali della Terra o dello Spazio ed anche nelle attività indu-

striali, nelle pulizie domestiche, ecc. - l’intelligenza ambientale.

3) Il modello connessionistico: le reti neurali Le reti neurali sono un modello di sistema informatico usato in alcuni ambiti dell’intelligenza artificiale, che riprodu-cono il funzionamento delle strutture del nostro cervello, i neuroni e le loro connessioni. L’idea fondamentale è che il comportamento intelligente non risulti solo e soprattutto dal ragionamento (pensiero consape-vole): l’intelligenza, intesa come la capacità di comportamento efficace e flessibile in contesti complessi, nascerebbe anche dall’adattamento all’esperienza. Si tratta quindi di fornire ad un calcolatore una rete neurale, cioè un modello informatico dei neuroni (le cellule che nel cervello elaborano le informazioni) e delle loro connessioni, ed algoritmi che determinano l’evoluzione della rete, ossia il suo adattamento all’esperienza. Da un lato vi sarà la specificazione di neuroni digitali, dei loro collegamenti, dei modi in cui essi operano ed interagiscono;; dall’altro lato vi saranno algoritmi che specificano come la rete debba essere modificata per adattarsi alle esperienze (se la rete da una risposta errata ad un certo input, essa sarà modifi-cata in modo che possa dare in futuro la risposta corretta). È importante ricordare che anche in questo caso il calcolatore o-pera sulla base di calcoli binari. La ricerca sulle reti neurali è ispirata all’idea che l’intelligenza possa ottenersi riproducendo l’hardware cerebrale (i neu-roni), piuttosto che riproducendo le funzioni astratte svolte da quell’hardware (il ragionamento). L’ipotesi, quindi, è che possiamo apprendere non solo acquisendo consapevolmente contenuti formati in un linguaggio, ma anche in modo del tutto inconsapevole, mediante la modificazione delle connessioni tra i nostri neuroni: il fatto che in certe condizioni si sia data la risposta giusta conduce ad una modifica di tali connessioni tale da far sì che la stessa risposta sia data in futuro nelle stesse condizioni o in condizioni analoghe, ed il fatto che in certe condizioni si sia data una risposta sbagliata conduce ad una mo-difica nelle connessioni neurali tale da evitare la ripetizione dell’errore in futuro. La struttura informatica utilizzata per riprodurre questo tipo di apprendimento è la rete neurale:

- i neuroni artificiali riproducono informaticamente la struttura dei neuroni presenti nel nostro cervello. - ogni neurone riceve segnali dai neuroni ad esso connessi, segnali che viaggiano seguendo determinati collegamenti. - ai collegamenti tra i neuroni sono assegnati pesi, cioè coefficienti in base ai quali i segnali passanti attraverso i col-

legamenti sono amplificati o ridotti. - il funzionamento di ogni neurone è stabilito da funzioni logico-matematiche. Il neurone, quando riceve determinati

segnali, verifica se questi segnali abbiano raggiunto il livello (la soglia) richiesta per la propria attivazione; se il li-vello non è stato raggiunto il neurone rimane inerte, mentre se il livello è stato raggiunto il neurone si attiva invian-do a sua volta segnali ai neuroni connessi con esso.

Combinando i neuroni otteniamo una rete neurale: - alcuni neuroni della rete ricevono input dall’esterno (ad esempio, da una base di dati, da una telecamera che riceva

immagini dall’ambiente, da una tavoletta sulla quale si tracciano disegni e caratteri, ecc). - alcuni neuroni della rete, detti neuroni nascosti, sono collegati solo con altri neuroni. - alcuni neuroni della rete inviano il loro output all’esterno della rete.

La tecnica più comune per addestrare una rete neurale consiste nel proporre alla rete una serie di esempi corretti, cioè una serie di coppie di input e di output, dove l’output indica il risultato corretto per l’input corrispondente. L’elaborazione degli esempi avviene nel modo seguente. Il sistema determina la propria risposta rispetto all’input indicato nell’esempio, e se la risposta differisce dall’output dell’esempio la rete si riorganizza combinando la propria configurazione (i collegamenti ed i pesi associati ad essi) in modo da poter dare la risposta corretta (la stessa indicata nell’esempio) di fronte alla riproposizione dello stesso input. Dopo un conveniente addestramento, la rete acquista l’abilità di dare risposte corrette non solo nei casi contenuti nell’insieme degli esempi, ma anche nei casi analoghi. In ambito giuridico, le reti neurali sono solitamente addestrate mediante casi giudiziari;; l’obbiettivo è allenare la rete in modo che essa possa riprodurre le risposte date dai giudici nei precedenti e rispondere analogamente nei casi simili. Tra le non molte applicazioni del modello delle rete neurale in ambito giuridico, si può ricordare il sistema Split-up, cui è stato affidato il compito di ripartire il patrimonio tra gli ex coniugi in seguito ad un divorzio. Gli autori del sistema furono

Page 45: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

indotti ad utilizzare la tecnica delle reti neurali in quanto, dall’analisi della legislazione e delle sentenze, non avevano rinve-nuto regole precise la cui applicazione logica ai fatti dei casi potesse condurre alle soluzioni adottate dai giudici. In materie di questo tipo i giudici sembrano infatti operare in base ad un’intuizione allenata piuttosto che secondo regole precise, si tratta di un’intuizione informata dalla conoscenza dei casi precedenti e dalle esperienze dello stesso decisore. Nella rete Split-up, i neuroni di input rappresentano i fattori rilevanti nella decisione dei casi in questione (i dati di input sono il contri-buto dei coniugi alla formazione del patrimonio e l’ammontare del patrimonio stesso), ed i neuroni di output indicano le possibili divisioni del patrimonio. Secondo gli autori del sistema, tale semplice rete, dopo essere stata allenata sottoponendo-le alcune centinaia di casi precedenti, sarebbe divenuta capace di riprodurre le decisioni dei casi passati e avrebbe acquistato la capacità di prevedere con sufficiente precisione le decisioni dei casi futuri. L’uso delle reti neurali nell’applicazione del diritto è stato finora assai limitato. Un’importante ragione di ciò sta nel fatto che le reti neurali, anche quando indicano soluzioni giuridiche plausibili, non offrono una giustificazione di tali soluzioni, nel senso che non indicano quali premesse conducano al particolare risultato proposto. Ciò è dovuto al fatto che la cono-scenza utilizzata da una rete neurale è implicita nella struttura della rete (nelle connessioni neurali e nei pesi associati ad es-se), non è formulata in proposizioni esplicite. Secondo il parere di Sartor, le reti neurali artificiali oggi disponibili hanno una capacità molto limitata nel ricevere e nell’elaborare le esperienze (esse sono assai semplici se paragonate alla complessità delle strutture neurali del cervello uma-no). Questi limiti consigliano una grande cautela nell’impiego di reti neurali, ma non ne escludono il possibile utilizzo per problemi circoscritti 4) Conoscenza esplicita e ragionamento Il calcolatore può essere dotato di algoritmi per il ragionamento, cioè algoritmi che consentano di passare da certe pre-messe alle conclusioni logicamente fondate su tali premesse (il passaggio da premesse a conclusioni, secondo schemi di ragionamento forniti dalla logica, prende il nome di inferenza). La verità/validità della conclusione tratta da un certo insieme di premesse mediante un’inferenza è garantita solamente dalla compresenza delle seguenti condizioni:

- la verità/validità delle premesse. - la correttezza dell’inferenza. - l’assenza di inferenze prevalenti contro l’impiego delle premesse o contro l’esecuzione dell’inferenza.

Anche quando compie ragionamenti il calcolatore si limita ad eseguire calcoli binari, ma in questo caso si tratta di comples-se combinazioni di tali calcoli effettuate secondo le indicazioni di un programma ragionatore, che danno luogo agli stessi processi di inferenza che effettua anche la nostra mente quando compie ragionamenti logicamente corretti. Possiamo quindi affermare che l’esecutore algoritmico si è trasformato in un ragionatore automatico; di conseguenza, la programmazione diventa programmazione logica, la quale consiste nell’esprimere la conoscenza (le premesse del ragionamento) in un lin-guaggio logico, cosicché il sistema possa compiere ragionamenti automatici basati sulla conoscenza. Un altro modello di sistema informatico usato nell’ambito dell’intelligenza artificiale è quello basato sull’utilizzo esplicito della conoscenza, mediante metodi per il ragionamento automatico (questo è anche il modello prevalente). A questo fine bisogna che il sistema informatico disponga di due componenti: una rappresentazione della conoscenza rilevante e metodi per il ragionamento automatico applicabili a tale rappresentazione. La caratteristica essenziale dei sistemi basati sulla conoscenza consiste nel fatto che il loro funzionamento, cioè il modo in cui affrontano i problemi loro affidati, si basa sull’utilizzo di una base di conoscenza. Tale base di conoscenza consiste in un insieme di informazioni specialistiche, attinenti all’ambito in cui tali sistemi debbono operare. I sistemi basati sulla conoscenza sono spesso identificati con i cosiddetti sistemi esperti, cioè i sistemi intesi a fornire fun-zionalità che richiedono una specifica competenza professionale. Un sistema basato sulla conoscenza è indubbiamente un sistema esperto, nel senso che esso svolge funzioni basate su conoscenze specialistiche che solo un esperto possiede. Ciò non significa però che esso sia un vero esperto, cioè che possa svolgere da solo un’intera prestazione professionale, com-prensiva di tutte le funzioni che si affiderebbero all’esperto umano. Questo obbiettivo non è realizzabile con le tecnologie disponibili oggi e nemmeno nel vicino futuro. Anche in un futuro più lontano un esperto automatico rimarrà privo delle ca-pacità cognitive legate alla condizione umana (ad esempio, la capacità di immedesimarsi nella posizione dell’altro, di co-glierne gli stati psicologici, i ragionamenti, i bisogni, e quindi di apprezzare pienamente gli interessi e valori in gioco). Si potranno invece affidare all’elaborazione automatica particolari fasi o momenti delle attività giuridiche che si affiancano e si integrano a quelli affidati all’uomo. Il tipo di ragionamento più frequente in ambito giuridico è l’applicazione di regole. Per regola, in questo contesto, non si intende un enunciato che qualifichi come obbligatorio, vietato o permesso un certo comportamento, ma un enunciato condi-zionale che collega un antecedente ed un conseguente consentendo di inferire il secondo dal primo (la fattispecie astratta è l’antecedente della regola e la conseguenza giuridica astratta ne è il conseguente). I sistemi basati su regole costituiscono il tipo più semplice e diffuso di sistema basato sulla conoscenza: tali sistemi contengono una base di conoscenza costituita da regole, ed un motore di inferenza che applica tali regole ai dati di fatto attinenti ai casi concreti (le informazioni attinenti ai casi possono essere fornite dall’utilizzatore umano del sistema od estratte da archivi informatici).

Page 46: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

L’importanza di tali sistemi (ideati a partire dagli anni ‘70) consiste nella possibilità di applicare un numero elevato di rego-le, addirittura decine di migliaia, tenendo conto dei collegamenti tra di esse, ed in questo modo essi possono colmare i limiti della memoria, dell’attenzione e della capacità combinatoria dell’uomo. Il modello del sistema basato su regole ha trovato applicazione in numerosi ambiti (concessione di crediti, determinazione di polizze assicurative, ecc). I risultati operativi ottenuti in ambito giuridico mediante sistemi basati sulla conoscenza furono inizialmente inferiori alle attese. Negli ultimi anni, però, queste iniziali delusioni sono state seguite da alcuni importanti successi, in particolare nell’ambito della pubblica amministrazione. La ragione fondamentale di questo cambiamento è da ritrovarsi soprattutto nell’avvento di Internet;; il Web rappresenta, infatti, un modo aperto dove un sistema può essere utilizzato da un numero il-limitato di utenti, e le funzioni di un sistema possono essere integrate con quelle offerte da altri sistemi. Le pubbliche amministrazioni e, più in generale, i soggetti che forniscono servizi pubblici hanno iniziato ad usare Internet per fornire informazioni ai cittadini (normalmente si tratta di materiale di presentazione dell’ente e delle sue funzioni, cui si accompagna la possibilità di scaricare documenti di vario genere, come testi normativi, manuali di istruzioni, moduli, ecc). I sistemi basati sulla conoscenza possono apportare un’importante progresso nell’uso di Internet da parte della pubblica am-ministrazione: essi non si limitano a fornire documenti, ma impiegano le regole associate ai documenti per agevolare lo svolgimento delle relative attività amministrative (ad esempio, stabilire quali obblighi e diritti spettino ai cittadini in base alla legge, stabilire se il cittadino possegga i requisiti per accedere ad un certo servizio pubblico, ecc). I sistemi basati sulla conoscenza non sono quindi esperti automatici in grado di sostituirsi al funzionario pubblico, ma piuttosto strumenti che forniscono un aiuto intelligente al richiedente del servizio o al funzionario che lo gestisce. Si tratta di un aiuto che può inte-grarsi con funzionalità informatiche ulteriori (ad esempio, la ricerca di documenti, la fornitura di moduli, la loro predisposi-zione automatica, ecc). I sistemi basati sula conoscenza possono essere utilmente impiegati solo grazie all’integrazione delle seguenti attività:

- l’attività dell’esperto informatico-giuridico che si occupa dell’inserimento, correzione e revisione (nel caso di er-rori o della necessità di tener conto di nuove informazioni) delle regole, assicurando che la base di conoscenza non contenga errori di diritto.

- l’attività del cittadino o del funzionario che inseriscono i dati sui casi concreti. - l’attività del sistema, che si occupa della derivazione delle conseguenze deducibili dalle regole in esso comprese e

dei dati di fatto ad esso forniti o a cui abbia accesso. I sistemi che applicano automaticamente regole preesistenti nella loro base di conoscenza trovano le maggiori applicazioni nell’ambito della pubblica amministrazione. Essi non sono in grado di affiancare il giurista nelle attività che formano la par-te centrale del suo pensiero, che consiste nell’affrontare i casi controversi. Vi è da notare che alla riduzione del ragionamento giuridico al modello sillogistico si oppongono alcune fondamentali carat-teristiche del diritto: le fonti del diritto spesso non forniscono norme sufficienti a disciplinare tutti gli aspetti del caso, com-prendono norme che si contraddicono o il cui contenuto rimane indeterminato. L’uso di sistemi basati su regole in ambito giuridico presupporrebbe l’accettazione del modello sillogistico del ragionamento giuridico, l’idea che il diritto si riduca a un’insieme di regole e che il ragionamento giuridico consista nell’applicazione meccanica di tali regole. Questo errore tecni-co determinerebbe l’inutilità pratica di tali sistemi: non rappresentando fedelmente il diritto ed il ragionamento giuridico, es-si sarebbero inutili ed anzi dannosi, conducendo necessariamente a risultati scorretti o irragionevoli. Parlando delle tendenze delle ricerche di informatica giuridica degli ultimi anni, possiamo illustrare una particolare direzio-ne di ricerca: il tentativo di sviluppare nuovi modelli formali dell’argomentazione giuridica. L’idea che sta alla base di queste ricerche è che sia possibile predisporre strumenti logici ed informatici capaci di affrontare la dialettica del ragiona-mento giuridico, superando i limiti del ragionamento sillogistico. A questo riguardo dobbiamo distinguere due diversi tipi di schema di ragionamento (e di corrispondenti inferenze):

- schemi conclusivi. Accettando le premesse di un’inferenza conclusiva ne dobbiamo necessariamente accettare an-che le conclusioni.

- schemi defeasible (rivedibili o ritrattabili). Pur accettando le premesse di un’inferenza defeasible possiamo re-spingerne le conclusioni. Un’inferenza defeasible è un argomento che si impone alla nostra ragione, ma solo in mo-do provvisorio, cioè solo a condizione che non emergano eccezioni, contro-esempi, argomenti contrari di importan-za preminente, ecc. Possiamo distinguere due modi in cui un ragionamento defeasible può essere contrastato: - il rebutting (contraddire), che consiste nell’opporre al nostro argomento A un contro-argomento B che contrad-dice la conclusione di A, perciò la conclusione di B nega, o comunque è incompatibile, con la conclusione di A. - l’undercutting (recidere), che consiste nell’opporre al nostro argomento A un contro-argomento B che nega la forza argomentativa di A, perciò B afferma che le premesse di A sono inidonee a fondarne la conclusione. L’accoglimento delle premesse di un argomento defeasible non è sufficiente a garantire l’accettabilità della sua con-clusione, a tale fine dobbiamo anche considerare se esistano contro-argomenti che contraddicano o recidano il no-stro argomento, e solo se tutti i contro-argomenti possono essere superati alla luce di considerazioni ulteriori la con-clusione dell’argomento risulta giustificata.

Il ragionamento giuridico consiste nella dialettica tra argomenti e contro-argomenti, e tale dialettica fa si che il ragiona-mento giuridico sia defeasible, in quanto le conclusioni che appaiono giustificate alla luce di certi argomenti possono essere

Page 47: Riassunto Sartor L Informatica Giuridica e Le Tecnologie Dell Informazione

rese inefficaci di argomenti ulteriori. L’idea fondamentale che caratterizza i tentativi di costruire modelli formali della dia-lettica giuridica è quella di affrontare situazioni nelle quali vi sono numerosi argomenti in gioco. Le logiche degli argomenti sono state usate per realizzare sistemi informatici che, anziché limitarsi a fornire una risposta univoca ai quesiti loro propo-sti, elaborino giustificazioni per la soluzione di punti controversi, suggeriscano argomenti possibili, valutino lo stato degli argomenti alla luce dell’architettura argomentativa complessiva risultate dalle informazioni fornite al sistema. La realizza-zione di tali sistemi richiede metodi che riproducano i passi tipici del ragionamento giuridico.