Lezione 13 2015-2016 Terza cibernetica, Intelligenza artificiale

Post on 15-Feb-2017

259 views 0 download

Transcript of Lezione 13 2015-2016 Terza cibernetica, Intelligenza artificiale

Tredicesima lezioneLa visione “Informatica” del Diritto(3) Cibernetica di terzo grado:intelligenza artificiale e soggettività artificiale

Dott. Avv. Federico Costantini[nome].[cognome]@uniud.itDipartimento di Scienze giuridiche

Corso di informatica giuridicaLaurea magistrale in GiurisprudenzaLaurea triennale in Scienze dei Servizi Giuridici Pubblici e Privati

Giardini -> Padiglione giapponese

Avvisole lezioni del 12 novembre 2015 e del 7 dicembre 2015 sono rinviate.

Questo è il calendario delle lezioni dedicate all’approfondimento):

Lezione DataRinviata giovedì 12 novembre 2015

14 lunedì 16 novembre 201515 giovedì 19 novembre 201516 lunedì 23 novembre 201517 giovedì 26 novembre 201518 lunedì 30 novembre 201519 giovedì 3 dicembre 2015

 Rinviata lunedì 7 dicembre 201520 giovedì 10 dicembre 2015

Giardini -> Padiglione giapponese

Sommario lezione odierna

1.- Premessa: l’intelligenza artificiale come «pericolo» per l’umanità

2.- La nozione di intelligenza artificiale

3.- l’uso dell’intelligenza artificiale nel diritto

4.- il problema della «soggettività artificiale»

5.- Conclusioni

Cibernetica Informatica giuridica Argomenti trattati

Prima cibernetica

Sistemi autopoietici “Società dell’informazione” come modello di convivenza di carattere tecnocratico.

Seconda cibernetica

Teoria della complessità Giustizia elettronicaLegimatica Amministrazione digitale“nichilismo giuridico”

Terza cibernetica

Soggettività artificiale Intelligenza artificiale e ragionamento giuridicoIntelligenza artificiale e responsabilità giuridica.Soggetto artificiale e sovranità (cenni alla “guerra cibernetica”)

4

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

5

L’intelligenza artificiale è un «pericolo per l’umanità»?

La lezione odierna prende spunto dall’attualità per porre una domanda di fondo.

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

Alcuni sostengono che lo sia, altri lo negano

6

Alcuni riferimenti prima di iniziare:

- Frankenstein (Mary Shelley 1818);- Der Golem (romanzo, Gustav Meyrink, 1915)- Metropolis (film, Frizt Lang, 1927)- 1984 (romanzo, George Orwell, 1948)- 2001: A Space Odyssey (film, Stanley Kubrick, 1968)- Blade Runner (film, Ridley Scott, 1982);- The Matrix-The Matrix Reloaded-The Matrix Revolutions (film, Wachowski Brothers,

1999-2003)

Si potrebbe dire che l’intelligenza artificiale non è un tema rilevante, perché «è solo fantascienza» …

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

7

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

Alcuni prendono però molto sul serio l’argomento e sono molto critici sull’uso massiccio di intelligenza artificiale …

9http://www.bbc.com/news/technology-30290540

Stephen Hawking

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

11http://futureoflife.org/misc/open_letter

Lettera aperta di scienziati preoccupati per i pericoli dell’Intelligenza artificiale

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

12http://www.technologyreview.com/news/536381/ai-doomsayer-says-his-ideas-are-catching-on/

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

http://www.theguardian.com/business/2015/nov/07/artificial-intelligence-homo-sapiens-split-handful-gods?CMP=fb_gu

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

Alcuni di recente si sono concentrati sull’effetto in termini di diseguaglianza sociale

Hartnett, Micheal, Creative Disruption: Merrill Lynch, Pierce, Fenner & Smith Incorporated, 2015, p. 12 http://www.bofaml.com/content/dam/boamlimages/documents/articles/D3_006/11511357.pdf

«The limiting case here would be general purpose robots that are effectivesubstitutes for human labor but at a fraction of the cost. In that case, widespread unemployment could be an outcome – it depends on whether there develops a large enough sector in the economy where humans have a comparative advantage. This could be the arts and entertainment, or personal care services, or areas that involve deeper analytical thinking that is not amenable to existing forms of AI. The transitions from agriculture to manufacturing, and then manufacturing to services, were feared by some to result in mass unemployment. What happened instead is that some old jobs gradually disappeared as technological progress supplanted them, while new – often unanticipated – jobs arose in their place. This was not always ideal for individual workers, who may have found it very difficult or near impossible to make the kind of transitions needed to gain new work, but overall neither of these transitions caused a massive rise in unemployment. The same may well be true for the next transition».

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

15

Omohundro, Steve. "Autonomous technology and the greater human good." Journal of Experimental & Theoretical Artificial Intelligence 26, no. 3 (2014/07/03 2014): 303-315.

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

Alcuni comunque sostengono che tale tecnologia non potrà che portare benefici

16http://www.ted.com/talks/ray_kurzweil_get_ready_for_hybrid_thinking?language=en

In particolare Ray Kurzweil

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

17

In realtà anche chi esprime preoccupazione o perplessità, investe in direzione dello sviluppo dell’intelligenza artificiale, sostenendo che qualcun altro dovrebbe «fare qualcosa»:

- Elon Musk -> guida automatica delle automobili- Microsoft -> Cortana- Google -> Deepmind

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

18http://deepmind.com/

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

http://www.wsj.com/articles/toyota-to-invest-1-billion-in-artificial-intelligence-firm-1446790646

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

Di recente l’industria si sta orientando in modo consistente verso queste tecnologie

19

20

D’altra parte, se considerassimo la questione sotto il profilo meramente pratico, dovremmo rinunciare all’intelligenza artificiale… e inaugurare una nuova forma di «luddismo»

http://en.wikipedia.org/wiki/Luddite

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

21

In realtà per entrare nel merito del problema occorre capire cosa sia l’intelligenza artificiale.

Per fare ciò occorre riconoscere che l’argomento non è affatto nuovo e non nasce né con la fantascienza né con l’informatica.

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

22

Occorre approfondire il tema tentando di trovarne le radici della nozione contemporanea di intelligenza artificiale. Queste radici si trovano in una particolare visione del mondo.

«e così ci sarà un pensatore, che costruirà un cervello che sappia pensare esattamente».

«und so ein Hirn, das trefflich denken soll, / wird künftig auch ein Denker machen» J.W. Goethe, Faust II, 1831, atto II, vv. 6869-6870.

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

Di seguito si forniscono alcuni chiarimenti in ordine a due aspetti dell’intelligenza artificiale contemporanea:

(1) filosofico

(2) tecnico

23

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

Si può sostenere che nella nozione di «intelligenza artificiale» sono compresi quattro diversi temi:

(1) la creazione dell’intelligenza artificiale, ossia il tentativo da parte dell’uomo di creare un oggetto “pensante”, in modo da rispecchiarsi nel ruolo di Creatore;

(2) il riconoscimento di una soggettività giuridica all’intelligenza artificiale, quindi la attribuzione di una responsabilità giuridica alla macchina in quanto dotata di “autonomia”;

(3) la configurazione dello Stato come soggetto artificiale tecnologico, in forma di sistema autopoietico autocosciente;

(4) la partecipazione dell’individuo in una soggettività artificiale universale, surrogato tecnologico di Dio.

24

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

In questa lezione saranno approfonditi i temi (1), (2) e (3), mentre si può dire che il (4) è già stato toccato in relazione alla nozione di «infosfera».

(1) la creazione dell’intelligenza artificiale, ossia il tentativo da parte dell’uomo di creare un oggetto “pensante”, in modo da rispecchiarsi nel ruolo di Creatore;

(2) il riconoscimento di una soggettività giuridica all’intelligenza artificiale, quindi la attribuzione di una responsabilità giuridica alla macchina in quanto dotata di “autonomia”;

(3) la configurazione dello Stato come soggetto artificiale tecnologico, in forma di sistema autopoietico autocosciente;

(4) la partecipazione dell’individuo in una soggettività artificiale universale, surrogato tecnologico di Dio.

25

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

Di seguito si distinguono per comodità gli aspetti filosofici da quelli tecnologici.

Un conto è comprendere quali siano le premesse teoretiche, un altro conto è capire come si sia giunti alla tecnologia attualmente utilizzata.

26

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

Le premesse filosofiche dell’intelligenza artificiale

27

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

Cibernetica e «naturalismo»

- natura e «seconda natura»

- cibernetica come sintesi tra estremi apparentemente inconciliabli

naturale / artificialebiologico / elettronicoclassicità / modernità

pensiero / azioneverità / effettività

materiale / immaterialecorpo / anima

hardware / softwarefilosofia / scienza

28

La tecnologia come «seconda natura» dell’«uomo artificiale»

«l’uomo nuovo nasce, vive e muore in maniera diversa da quella degli altri uomini che furono prima di lui. Grazie alla fecondazione artificiale, può essere partorito da una donna rimasta vergine»

Vittorio Frosini, L'uomo artificiale. Etica e diritto nell'era planetaria, L'Alingua (Milano: Spirali, 1986), 8

«L’uomo d’oggi è venuto in possesso di quegli attributi, che nelle favole antiche sembravano propri ed esclusivi degli esseri soprannaturali: può salire al cielo in un carro di fuoco, può lanciare il fulmine e provocare un terremoto che distrugga un’intera città, può assistere a ciò che avviene a distanze remotissime e altri prodigi, a cui la tecnologia ci rende ormai avvezzi fin dall’infanzia, sicché hanno perduto il loro carattere prodigioso, la loro dimensione sovrumana rispetto all’uomo naturale conosciuto da tutte le generazioni precedenti»

Vittorio Frosini, La società tecnologica e i diritti di libertà," in Il diritto nella società tecnologica (Milano: Giuffrè, 1981), 195.

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

29

Ars reminiscendi

memoria artificiale

Ars combinatoria

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

Intelligenza artificiale

linguaggio artificiale

30

Ars reminiscendi

memoria artificiale

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

- Ars reminiscendi come «nuova scienza» rinascimentale

- l’accesso alla memoria artificiale come conoscenza «magica» (magia naturale)

- memoria artificiale come dimensione spirituale collettiva

- connessione tra memoria artificiale e reminiscenza platonica

-> per analogia con il Backup: ‘compressione’, ‘trasferimento’ e ‘decompressione’ della conoscenza

31

Ars combinatoria

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

linguaggio artificiale

- ars combinatoria come erede dell’Ars Magna di Raimondo Lullo

- la verità deriva dall’automatismo, che diventa simbolo di conoscenza inopponibile.

- lo strumento tecnico come oracolo

- l’artificialità del linguaggio come sua garanzia di purezza e rigore

- la codifica del linguaggio come metafora della segretezza della conoscenza che viene trasmessa attraverso di esso.

-> per analogia: la password per conoscere i segreti dell’universo

32

Ars reminiscendi

memoria artificiale

Ars combinatoria

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

Intelligenza artificiale

linguaggio artificiale

33

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

Le premesse tecnologiche dell’intelligenza artificiale

34

- ORIGINI:estate del 1956, convegno interdisciplinare Dartmouth Summer Research Project on

Artificial Intelligence, organizzato dalla Fondazione Rockfeller e svoltosi al Dartmouth College di Hannover, nel New Hampshire, con il contributo della RAND Corporation, della IBM e di altre corporations.

- NOZIONE:«insieme di concetti, metodi e strumenti volti alla rappresentazione formale della

conoscenza che si ha su un certo dominio di interesse per derivarne poi logicamente, mediante inferenza, risposte a quesiti e soluzioni di problemi caratteristici di quel dominio» Edward Feigenbaum

«scienza che consente di costruire macchine che eseguono compiti che considereremmo intelligenti se fossero svolti dall’uomo» Marvin Minsky

«studio dei processi computazionali che consentono alle macchine di percepire, ragionare, agire» P. H. Winston

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

35

«le macchine possono pensare?»ALAN MATHISON TURING, Computing Machinery and Intelligence, in «Mind» LIX, n. 236 (1950)

Quando le machine possono dirsi “intellligenti”?

-> test di Turing

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

36

CAPTCHA "Completely Automated Public Turing test to tell Computers and Humans Apart")

http://www.nucaptcha.com/demo

http://en.wikipedia.org/wiki/CAPTCHA

Le macchine stanno imparando a superare il TEST DI TURNNG quindi occorrono protezioni più elevate.

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

37

Utilizzo dell’intelligenza artificiale nel diritto

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

38

“Sistemi legali esperti”

(1) RBR - “Rules based reasoning” -> PROLOG dell’Imperial College.

(2) CBR - “Case Based Reasoning” -> HYPO dell’Università del Michigan.

(3) teoria dell’argomentazione -> GREBE di Karl Branting -> HELIC – II, Tokyo Institute of Technology

Rappresentazione del ragionamento giuridico <-> Metodo <-> Teoria del diritto

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

39

CARNEADE

https://github.com/carneades (Tom Gordon, Università di Berlino)

Il progetto prevede la formalizzazione di argomentazioni giuridiche.

A lato, la versione «RAW» di un argomento di esempio.

https://github.com/carneades/carneades-4/blob/master/examples/AGs/YAML/bachelor.yml

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

40

Il problema di fondo dell’applicazione della AI al diritto è la difficoltà di formalizzazione

Gödel, Kurt, Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, in «Monatshefte für Mathematik», 38 n. 1 (1931), pp. 173-198

-> Kurt Gödel in un breve articolo del 1931 dimostrò - formulando due teoremi - che la logica non può autofondarsi, o meglio, che essa non può che essere «incompleta».

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

41

La soggettività giuridica e l’«intelligenza artificiale»

Questo tema può essere affrontato in due modi:

(1) il problema della soggettività giuridica degli «agenti» dotati di intelligenza artificiale

(2) il problema dello Stato, soggetto giuridico per eccellenza, concepito come «intelligenza artificiale»

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

42

L’idea che anche l’intelligenza artificiale richieda di essere disciplinata dal diritto è presente in Isaac Asimov, come è noto:

Le tre “leggi della robotica”:

«(1) Un robot non può recare danno a un essere umano, né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.

(2) Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contrastino con la Prima Legge.

(3) Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima e/o la Seconda Legge».

La “legge zero”

«Un robot non può recare danno all’umanità, né può permettere che, a causa del proprio mancato intervento, l’umanità riceva danno».

(1) il problema della soggettività giuridica degli «agenti» dotati di intelligenza artificiale

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

43

Problemi:- cosa si intende per “umanità”?- cosa è “bene” per l’uomo?- ciò che è “bene” per l’umanità è bene sempre anche per l’uomo?

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

44

Applicazioni dell’intelligenza artificiale al diritto:- mercati finanziari- web agents

-> il “peculium” del diritto romano come tentativo di soluzione per affermare una limitata autonomia patrimoniale negli «agenti»

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

45

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

(2) Lo Stato come «intelligenza artificiale» e la «guerra cibernetica»

46

(Hobbes: Stato = «machina machinarum» -> naturalismo)

«Nature (the art whereby God hath made and governes the world) is by the art of man, as in many other things, so in this also imitated, that it can make an Artificial Animal. For seeing life is but a motion of Limbs, the begining whereof is in some principall part within; why may we not say, that all Automata (Engines that move themselves by springs and wheeles as doth a watch) have an artificiall life? For what is the Heart, but a Spring; and the Nerves, but so many Strings; and the Joynts, but so many Wheeles, giving motion to the whole Body, such as was intended by the Artificer? Art goes yet further, imitating that Rationall and most excellent worke of Nature, Man».

La natura dello “stato cibernetico”

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

47

«Intelligenza artificiale» = “Intelligenza Politica” + “Ragion di Stato”

Condivisione elettronica = libertà + democrazia

«Non si potrebbe dunque più raffigurare lo Stato secondo l’immagine tradizionale di un organismo vivente (…) esso è oggi inteso come un sistema di relazioni, che possono essere programmate diversamente sulla base di un sistema di informazioni e di decisioni, come avviene nei sistemi di automazione informatica» V. Frosini, Riflessi sociali dell’informazione, in AA. VV., Studi in onore di M.S. Giannini, vol. I, 351, Milano: Giuffrè, 1988

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

48

(1) il controllo totale sui cittadini:-> N.S.A. (National Security Agency) Untangling the Web: An Introduction to Internet Research, 28 febbraio 2007

(2) la “guerra elettronica”-> U.S.A., 2010: CYBERCOM;

-> N.A.T.O., 2008: CCD COE -> «Manuale di Tallinn»

-> Italia: D.P.C.M.. 24 gennaio 2013 Direttiva recante indirizzi per la protezione cibernetica e la sicurezza informatica nazionale (G.U. n. 66 del 19 marzo 2013).

Implicazioni della concezione cibernetica dello Stato

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

49

http://www.sicurezzanazionale.gov.it

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

50

Art. 2. Definizioni1. Ai fini del presente decreto si intende per: […]h) spazio cibernetico: l’insieme delle infrastrutture informatiche interconnesse, comprensivo di hardware, software, dati ed utenti, nonché delle relazioni logiche, comunque stabilite, tra di essi; i) sicurezza cibernetica: condizione per la quale lo spazio cibernetico risulti protetto grazie all’adozione di idonee misure di sicurezza fisica, logica e procedurale rispetto ad eventi, di natura volontaria od accidentale, consistenti nell’acquisizione e nel trasferimento indebiti di dati, nella loro modifica o distruzione illegittima, ovvero nel danneggiamento, distruzione o blocco del regolare funzionamento delle reti e dei sistemi informativi o dei loro elementi costitutivi;

l) minaccia cibernetica: complesso delle condotte che possono essere realizzate nello spazio cibernetico o tramite esso, ovvero in danno dello stesso e dei suoi elementi costitutivi, che si sostanzia in particolare, nelle azioni di singoli individui o organizzazioni, statuali e non, pubbliche o private, finalizzate all’acquisizione e al trasferimento indebiti di dati, alla loro modifica o distruzione illegittima, ovvero a danneggiare, distruggere o ostacolare il regolare funzionamento delle reti e dei sistemi informativi o dei loro elementi costitutivi;

m) evento cibernetico: avvenimento significativo, di natura volontaria od accidentale, consistente nell’acquisizione e nel trasferimento indebiti di dati, nella loro modifica o distruzione illegittima, ovvero nel danneggiamento, distruzione o blocco del regolare funzionamento delle reti e dei sistemi informativi o dei loro elementi costitutivi;[…]

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

51

Art. 11. Operatori privati1. Gli operatori privati che forniscono reti pubbliche di comunicazione o servizi di comunicazione elettronica accessibili al pubblico, quelli che gestiscono infrastrutture critiche di rilievo nazionale ed europeo, il cui funzionamento è condizionato dall’operatività di sistemi informatici e telematici, ivi comprese quelle individuate ai sensi dell’art. 1, comma 1, lett. d), del decreto del Ministro dell’interno 9 gennaio 2008, secondo quanto previsto dalla normativa vigente, ovvero previa apposita convenzione:a) comunicano al Nucleo per la sicurezza cibernetica, anche per il tramite dei soggetti istituzionalmente competenti a ricevere le relative comunicazioni ai sensi dell’art. 16 -bis , comma 2, lett. b) , del decreto legislativo n. 259/2003, ogni significativa violazione della sicurezza o dell’integrità dei propri sistemi informatici, utilizzando canali di trasmissione protetti; b) adottano le best practices e le misure finalizzate all’obiettivo della sicurezza cibernetica, definite ai sensi dell’art. 16 -bis , comma 1, lett. a) , del decreto legislativo n. 259/2003, e dell’art. 5, comma 3, lett. d) , del presente decreto;c) forniscono informazioni agli organismi di informazione per la sicurezza e consentono ad essi l’accesso alle banche dati d’interesse ai fini della sicurezza cibernetica di rispettiva pertinenza, nei casi previsti dalla legge n. 124/2007;d) collaborano alla gestione delle crisi cibernetiche contribuendo al ripristino della funzionalità dei sistemi e delle reti da essi gestiti.

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

52

Problemi:

- «Killer robots»

- Internet come territorio di guerra e regime degli utenti (combattenti? Civili? Ostaggi?)

- Utenti come “parte” dello “spazio cibernetico”, concepito in termini teologici.

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

53

La «singolarità tecnologica» -> l’etica “”planetaria” -> il computronium

Ray Kurzweil, La singolarità è vicina (Milano: Apogeo, 2008).

L’ideologia cibernetica ha come esito che l’uomo possa un giorno fondersi con l’intelligenza artificiale, divenendo parte di essa

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.

55

TAKE AWAY(1) per capire cosa è l’intelligenza artificiale occorre domandarsi cosa sia l’intelligenza e cosa sia l’artificialità. Si tratta di concetti non tecnici ma filosofici.

(2) per capire se l’intelligenza artificiale sia un pericolo occorre chiedersi cosa si intende per «umanità». Si tratta di un problema filosofico.

(3) A limitare l’uso dell’intelligenza artificiale non è sufficiente una prescrizione tecnica o una legge positiva, ma occorre compiere un discorso molto più ampio

1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.