Si può parlare di libertà delle macchine? Angelo Montanari Dipartimento di Matematica e...
-
Upload
fioralba-mattei -
Category
Documents
-
view
217 -
download
0
Transcript of Si può parlare di libertà delle macchine? Angelo Montanari Dipartimento di Matematica e...
Si può parlare di “libertà” delle
macchine?
Angelo Montanari
Dipartimento di Matematica e Informatica
Università degli Studi di Udine
SCUOLA SEFIR - Perugia, 13 aprile, 2012
Sommario
Libertà e macchine: la questione dell'intenzionalità Riduzionismo e intelligibilità delle macchine Le macchine informazionali
Un approccio comportamentista: il test di Turing La società della mente di Minsky Menti, cervelli e programmi: la stanza cinese di Searle
Alcuni risultati fondamentali in informatica La ricerca in bionica
Conclusioni
Libertà delle macchine?
La questione: “si può parlare di libertà delle macchine?” può
essere declinata in vari modi sostanzialmente equivalenti (il
riferimento privilegiato, ma non esclusivo, è ai sistemi di
intelligenza artificiale):
macchine e coscienza
macchine e intenzionalità
responsabilità delle macchine
La nozione di intenzionalità
Nella riflessione filosofica (Brentano, Husserl, Carnap), l'intenzionalità viene riconosciuta quale elemento
distintivo della coscienza (in generale, di ogni fenomeno psichico)
Per Brentano, l'intenzionalità è il carattere costitutivo di ogni
fenomeno psichico
Per Husserl, l'intenzionalità è il carattere costitutivo della coscienza e del rapporto soggetto (umano) - oggetto.
Compito della filosofia è descrivere la struttura immanente
con cui l'oggetto è intenzionato dalla coscienza
Una definizione
In generale, possiamo definire l'intenzionalità come il riferimento interno di un atto o di uno stato mentale a un determinato oggetto, ossia la connessione che l'atto o lo stato hanno, in virtù della loro identità, con un certo oggetto, indipendentemente dalla sussistenza di questo eventuale oggetto nella realtà esterna.
Esempio. Dell'identità di uno stato emotivo di speranza fa parte ciò che è sperato, indipendentemente dal fatto che si realizzi oppure no.
Intenzionalità e macchine
La questione: “si può parlare di libertà delle macchine?” può essere riformulata come: “si può dare intenzionalità nelle macchine?”
Questioni collegate/sottese: qual è il rapporto tra menti (persone umane) e macchine? Si può instaurare una corrispondenza tra stati mentali/cerebrali e stati di una
macchina? Possiamo parlare di (auto)coscienza delle macchine (ad esempio, rispetto al problema della responsabilità delle macchine)?
L'approccio riduzionistaAngelo Montanari, “Riduzionismo e non in Intelligenza Artificiale”,
Anthropologica, Annuario di Studi Filosofici, 2009, pp. 113-128.
L'approccio riduzionista
Riduzionismo: posizione di chi riconduce le proprietà di un'entità complessa (oggetto, sistema o organismo) alla “somma” delle caratteristiche delle sue singole componenti
Questione fondamentale: cosa vuole dire somma?
Per i riduzionisti, il modo in cui le caratteristiche delle componenti elementari concorrono alla determinazione delle caratteristiche del composto può essere definito in modo semplice e chiaro
Per chi si oppone al riduzionismo, la debolezza della posizione riduzionista si manifesta nella complessità delle interazioni fra le componenti, non riducibili alle proprietà delle singole componenti
Le forme del riduzionismo
Il riduzionismo è presente in forme diverse in discipline diverse, ma vi sono forti contaminazioni fra i vari
ambiti
Esempi. - Posizioni riduzioniste sviluppate a livello di riflessione
filosofica e di studi di psicologia, quali il funzionalismo e il comportamentismo, hanno pesantemente influenzato le linee di sviluppo della ricerca in cibernetica prima e IA poi
- Influenza della ricerca in neurofisiologia, in particolare delle tecniche di imaging funzionale, sui più recenti sviluppi dell'IA nell'ambito della bionica
Riduzionismo filosofico e riduzionismo scientifico
Il riduzionismo scientifico
Efficacia pratica dell'applicazione dello schema riduzionistico in ambito scientifico e ingegneristico
La possibilità di definire il comportamento di un sistema complesso in termini di proprietà ed interazioni delle sue componenti elementari è stato uno dei fattori chiave nello sviluppo di numerose discipline scientifiche
Esempio: la fisica
Una grandissima varietà di fenomeni viene ricondotta all'interazione di un insieme ridotto di particelle e campi di forze
Riduzionismo e macchine - 1
L'intelligibilità delle macchine, ossia la possibilità di descriverne in modo comprensibile le caratteristiche strutturali e funzionali e le tecniche di costruzione, è condizione essenziale per il loro sviluppo e il loro utilizzo
Solo l'esistenza di una spiegazione adeguata (razionale) del funzionamento di una macchina complessa consente, infatti, di predirne, nei limiti del possibile, il comportamento e di diagnosticarne gli eventuali guasti e malfunzionamenti
Riduzionismo e macchine - 2
La spiegazione mediante il paradigma riduzionista: l'analisi del sistema nel suo complesso viene ridotta all'analisi separata delle sue componenti elementari e delle loro interazioni
Efficace nel caso di macchine relativamente semplici, tale approccio diventa problematico in presenza di meccanismi di controllo (meccanismi di anticipazione e meccanismi di retroazione). Tali meccanismi possono essere visti come il tentativo di introdurre nella macchina un'opportuna rappresentazione dell'obiettivo (causa finale) per il quale la macchina è stata costruita
Le macchine informazionali
Macchine cibernetiche (o informazionali): macchine che incorporano sofisticati meccanismi di controllo
Esempio. I sistemi di intelligenza artificiale
E' problematico ricorrere ad uno schema riduzionista di tipo tradizionale per spiegare il funzionamento di tali macchine
Ciò nonostante, non viene meno il tentativo di assimilazione dell'uomo ad una particolare classe di macchine: uomo come macchina di natura meccanica; successivamente, uomo come macchina termodinamica prima e come macchina chimica poi; nel secolo scorso uomo come macchina informazionale
Un'osservazione
- Ragioni e problematiche relative all'uso di un linguaggio antropomorfo nella descrizione delle caratteristiche e del funzionamento di una macchina
- Ciò è particolarmente evidente nel caso dei sistemi di intelligenza artificiale (memoria, comprensione, apprendimento, ragionamento, ..), ma si è verificato in misura più o meno rilevante in molti altri casi
- Una possibile ragione: l'uomo come modello (cibernetica)
- Due approcci: simulazione vs. emulazione
Macchine informazionali e libertà
L'affermazione circa la possibilità di riprodurre artificialmente caratteristiche e comportamento dell'essere umano (sistemi di intelligenza artificiale) si presta a due letture speculari:
(i) se il comportamento di una macchina sarà assimilabile a quello dell'uomo, sarà possibile parlare di libertà, e responsabilità, delle macchine
(ii) se il comportamento dell'uomo sarà assimilabile a quello di una macchina, non sarà più possibile parlare (e, retrospettivamente, si è parlato inappropriatamente) di libertà, e responsabilità, dell'uomo (riduzionismo)
Alcune figure paradigmatiche
Illustreremo i passaggi fondamentali della riflessione sul rapporto tra macchine informazionali (sistemi di intelligenza artificiale) e uomo attraverso la descrizione del contributo di alcune figure paradigmatiche:
Alan M. Turing (Computing Machinery and Intelligence, in «Mind», volume 59, 1950, pp. 433-460)
Marvin Minsky (“The society of mind”, Simon and Schuster, 1986)
John R. Searle (“Minds, brains, and programs”, Behavioral and Brain Sciences, volume 3, 1980, pp. 417-424)
Il test di Turing
Il test di Turing (o gioco dell’imitazione): una macchina
può essere definita intelligente se riesce a convincere una
persona che il suo comportamento, dal punto di vistaintellettuale, non è diverso da quello di un essere
umano medio
Il test di Turing: dettagli - 1Il test si svolge in tre stanze separate. Nella prima si trova
l'esaminatore umano (A); nelle altre due vi sono
rispettivamente un'altra persona e il computer che si
sottopone al test. Dei due A conosce i nomi (B e C), ma
ignora chi sia la persona e chi il computer.
Sia B che C si relazionano separatamente con A attraverso un
computer. Via computer A può porre domande a B e C e
leggere le loro risposte. Compito di A è scoprire l'identità di B
e C (chi è la persona, chi è la macchina?) entro un
limite di tempo prefissato.
Il test di Turing: dettagli - 2A può effettuare qualunque tipo di domanda; il computer ovviamente cercherà di rispondere in modo tale da celare la propria identità. La macchina supera il test se A non riesce a identificarla nel tempo prefissato. Il test verrà ripetuto più volte, coinvolgendo anche esaminatori diversi, in modo da ridurre i margini di soggettività.Osservazioni.
1. astrazione da tutti gli elementi di contorno (in particolare, dalla
conformazione dei soggetti, dalle loro caratteristiche fisiche): un pensiero
disincarnato;
2. interpretazione operativa/comportamentale dell'intelligenza che si
manifesta attraverso la comunicazione linguistica (stretto legame tra
intelligenza e capacità linguistiche).
Alcuni anni dopo.. Minsky e Searle
Questione: possibilità/impossibilità di assimilare le capacità cognitive dell'uomo (la sua mente / il suo cervello) ad un sistema artificiale (una macchina)
Posizione riduzionista (Minsky): mente e cervello, descritti come una comunità di agenti interagenti, raggruppati in agenzie; possibilità di assimilare il cervello ad una macchina
Posizione anti-riduzionista (Searle): sistemi di IA visti come “macchine sintattiche”; impossibilità per tali sistemi di possedere un'intenzionalità, caratteristica distintiva degli esseri umani (e animali)
Il riduzionismo di Minsky
Obiettivo: spiegare l'intelligenza come una combinazione di cose più semplici
il cervello come macchina
Citando Minsky, “non vi alcun motivo per credere che il cervello sia qualcosa di diverso da una macchina con un numero enorme di componenti che funzionano in perfetto accordo con le leggi della fisica”
Rapporto mente-cervello
Rapporto tra mente e cervello: la mente è semplicemente ciò che fa il cervello (la mente come processo). Analogia con la distinzione tra programma e processo (programma in esecuzione) in informatica
Per spiegare la mente evitando la circolarità occorre descrivere il modo in cui le menti sono costruite a partire da materia priva di mente, parti molto più piccole e più semplici di tutto ciò che può essere considerato intelligente
Questione: una mente può essere associata solo ad un cervello o, invece, qualità tipiche della mente possono appartenere, in grado diverso, a tutte le cose?
La società della mente
Per Minsky, cervello come società organizzata, composta da una molteplicità di componenti organizzate in modo gerarchico, alcune delle quali operano in modo del tutto autonomo, la maggior parte in un rapporto alle volte di collaborazione, più spesso di competizione, con altre componenti
Intelligenza umana frutto dell'interazione di un numero enorme di componenti fortemente diverse fra loro, i cosiddetti agenti della mente, componenti elementari (“particelle”) di una (teoria della) mente
La nozione di agenzia
Questione: come può l'opera combinata di un insieme di agenti produrre un comportamento che ogni singolo agente, considerato separatamente, non è in grado di fornire?
La nozione di agenzia come superamento di posizioni di riduzionismo ingenuo difficilmente sostenibili (Minski contesta chi considera la fisica e la chimica modelli ideali di come dovrebbe essere la psicologia)
Un'agenzia è un insieme di agenti collegati fra loro da un'opportuna rete di interconnessioni
La gerarchia delle agenzie
L'antiriduzionismo di Searle
Assunto fondamentale: impossibilità per una macchina di manifestare l'intenzionalità che caratterizza gli esseri umani e, sia pure in forme diverse, gli animali
Intenzionalità: caratteristica che contraddistingue certi stati mentali, quali le credenze, i desideri e le intenzioni, diretti verso oggetti e situazioni del mondo
Per Searle, l'intenzionalità è un dato di fatto empirico circa le effettive relazioni causali tra mente e cervello, che consente (unicamente) di affermare che certi processi cerebrali sono sufficienti per l'intenzionalità
Intenzionalità e programmi
Per Searle, l'esecuzione di un programma su un dato input (istanziazione di un programma nella terminologia di Searle, processo nel linguaggio informatico comune) non è mai di per se stessa una condizione sufficiente per l'intenzionalità
la “dimostrazione”
Searle immagina di sostituire un agente umano al calcolatore nel ruolo di esecutore di una specifica istanza di un programma e mostra come tale esecuzione possa avvenire senza forme significative di intenzionalità
Un esperimento mentale
La struttura dell'esperimento mentale: una teoria della mente può essere confermata/falsificata immaginando che la propria mente operi secondo i principi di tale teoria e verificando la validità o meno delle affermazioni/previsioni della teoria
L'esperimento di Searle: Searle prende in esame i lavori sulla simulazione della capacità umana di comprendere narrazioni
Caratteristica distintiva di tale abilità: la capacità di rispondere a domande che coinvolgono informazioni non fornite in modo esplicito dalla narrazione, ma desumibili da essa sfruttando conoscenze di natura generale
La stanza cinese
L'esperimento in dettaglio - 1
Searle immagina che una persona venga chiusa in una stanza e riceva 3 gruppi di testi scritti in una lingua a lei sconosciuta (cinese), interpretabili (da chi fornisce i testi) rispettivamente come il testo di una narrazione, un insieme di conoscenze di senso comune sul domino della narrazione, e un insieme di domande relative alla narrazione.
Immagina, inoltre, che tale persona riceva un insieme di regole, espresse nella propria lingua (inglese), che consentano di collegare in modo preciso i simboli formali che compaiono nel primo gruppo di testi a quelli che compaiono nel secondo e un altro insieme di regole, anch'esse scritte in una lingua a lei nota, che permettano di collegare i simboli formali che compaiono nel terzo gruppo di testi a quelli degli altri due e che rendano possibile la produzione di opportuni simboli formali in corrispondenza di certi simboli presenti nel terzo gruppo di testi.
Le regole vengono interpretate (da chi le fornisce) come un programma e i simboli prodotti come risposte alle domande poste attraverso il terzo gruppo di testi. Quanto più il programma è ben scritto e l'esecuzione delle regole spedita, tanto più il comportamento della persona sarà assimilabile a quello di un parlante nativo (un cinese).
L'esperimento in dettaglio - 2
Immaginiamo ora uno scenario in cui la persona riceva il testo narrativo e le domande ad esso relative nella propria lingua (inglese) e fornisca le risposte in tale lingua, sfruttando la propria conoscenza di senso comune.
Tali risposte saranno indistinguibili da quelle di un qualunque altro parlante nativo, in quanto la persona è un parlante nativo. Dal punto di vista esterno, le risposte fornite in lingua cinese e quelle fornite in lingua inglese saranno egualmente buone; il modo in cui vengono prodotte è, però, radicalmente diverso.
A differenza del secondo caso, nel primo caso le risposte vengono ottenute attraverso un'opportuna manipolazione algoritmica di simboli formali ai quali la persona non associa alcun significato (simboli non interpretati). Il comportamento della persona è, in questo caso, del tutto assimilabile all'esecuzione di un programma su una specifica istanza (processo) da parte di un sistema artificiale.
Esito dell'esperimento
Risultato: la capacità (di un uomo/una macchina) di manipolare le informazioni ricevute secondo regole formali ben definite non è sufficiente a spiegare il processo di comprensione (non vi è nemmeno alcuna evidenza che essa debba essere una condizione necessaria) – “carattere non intenzionale, e, quindi, semanticamente vuoto, dei simboli elaborati da un sistema artificiale” (Diego Marconi)
Conclusione: i processi mentali non possano essere ridotti a processi di natura computazionale che operano su elementi formalmente definiti
Osservazione: confutazione della validità del cosiddetto test di Turing
Conseguenze
L'affermazione dell'irriducibilità dell'intenzionalità all'esecuzione di programmi su particolari input ha alcune importanti conseguenze:
• dall'IA forte all'IA debole (cauta/prudente)
• condizioni per un'intenzionalità artificiale
IA forte e debolePrima conseguenza: impossibilità di spiegare le
modalità con le quali il cervello produce l'intenzionalità attraverso il meccanismo dell'istanziazione di programmi
Contro un'interpretazione forte dell'IA: non vi è alcuna distinzione sostanziale tra mente umana e un computer opportunamente programmato
Per un'interpretazione debole dell'IA: strumento per lo studio delle capacità cognitive dell'uomo (formulazione precisa e verifica rigorosa di ipotesi su determinati aspetti di specifiche abilità cognitive attraverso sviluppo e validazione di opportuni modelli)
Un'intenzionalità artificiale?
Problemi (irrisolti): cosa differenzia il caso in cui la persona comprende il testo (inglese) da quello in cui non vi è alcuna comprensione (cinese)? Questo qualcosa può (se sì, come) essere trasferito ad un macchina?
Seconda conseguenza: ogni meccanismo in grado di produrre intenzionalità deve avere abilità di tipo causale pari a quelle del cervello
Ogni eventuale tentativo di creare un'intenzionalità artificiale non può ridursi allo sviluppo di un qualsivoglia programma, ma richiede la capacità di replicare le abilità causali tipiche della mente umana
Due approfondimenti
Legame tra intenzionalità e capacità di creare degli artefatti: l'intenzionalità si manifesta nella sintesi dei programmi, ma non si trasferisce al programma sintetizzato (al programma in sé)
Le ragioni dell'inadeguatezza dei sistemi artificiali / formali: impossibilità di sintetizzare un sistema corretto e completo in grado di catturare il processo di comprensione (lo stesso per le altre capacità cognitive)
Angelo Montanari, Alcune questioni di tecnoetica dal punto di vista di un informatico, Teoria XXVII/2, 2007, pp. 57-72
Questioni fondamentali e pratiche
Qual è l'impatto dei risultati fondamentali in informatica sui sistemi artificiali informatici (in particolare, sistemi di intelligenza artificiale)?
Algoritmi e complessità (in particolare, indecidibilità – la forma più radicale di complessità)
Avvertenza: difficoltà di derivare limitazioni pratiche da limitazioni di natura teoriche. Ogni affermazione circa l'impossibilità, per un sistema artificiale, di riprodurre uno specifico comportamento umano (ad esempio, emozioni) è almeno tanto difficile da sostenere quanto l'affermazione opposta
Alcune domande
Tesi: risultati fondamentali in informatica illuminano aspetti critici del funzionamento dei sistemi artificiali informatici
Questioni:
- possiamo sempre controllare/predire il comportamento di un sistema?
- possiamo sempre garantire la presenza di esseri umani nei cicli di controllo (control loop)?
- possiamo sempre confidare nelle credenze di un sistema?
- può un sistema portare a termine qualunque compito ad esso assegnato?
Problemi indecidibili
Limitazioni intrinseche dell'intelligenza algoritmica: ci sono problemi fondamentali in matematica e informatica per i quali non esistono algoritmi in grado di risolverli (Goedel, Turing, Church)
Osservazione: l'indecidibilità è una caratteristica del problema in se stesso, che non dipende dal modello computazionale al quale si fa riferimento: un problema è decidibile o indecidibile indipendentemente dalla macchina (astratta) prescelta per l'esecuzione degli algoritmi (macchina di Turing, macchina di von Neumann, lambda calcolo di Church, regole di produzione di Post, funzioni ricorsive di Kleene's, quantum computing, DNA computing)
Un esempio: il problema dell'arresto
Il problema dell'arresto per le macchine di Turing: data (una descrizione di) una macchina di Turing M e un possibile input x per essa, stabilire se l'esecuzione di M su x terminerà o meno
Il problema dell'arresto è indecidibile (semi-decidibile)
Completezza del problema dell'arresto
Un numero elevato di problemi in informatica può essere ridotto al problema dell'alt: qualora disponessimo di un algoritmo per risolvere (decidere) il problema dell'alt (problema di decisione), saremmo in grado di ottenere immediatamente un algoritmo per decidere ogni problema ricorsivamente enumerabile
Conseguenze
Come tali limitazioni intrinseche dell'intelligenza algoritmica influenzano lo sviluppo dei sistemi artificiali informatici?
La questione può essere affrontata sia da una prospettiva teorica (“filosofica”) sia da una prospettiva pratica
Intelligenza algoritmica vs. intelligenza umana
- se le identifichiamo, non c'è nessuna limitazione: le limitazioni dell'intelligenza artificiale sono le limitazioni dell'intelligenza umana
- se le distinguiamo, dobbiamo identificare esattamente le differenze e individuare le conseguenze di tali differenze
Sulla natura della conoscenza umana
La prima posizione è sostenuta, ad esempio, da Harel, che lega le limitazioni dell'intelligenza algoritmica ai limiti degli esseri umani in quanto esseri finiti
Nella prospettiva di Harel, i limiti della computazione sono i limiti della conoscenza umana in quanto ciò che gli esseri umani sono in grado di “computare” è ciò che possono derivare, passo dopo passo, usando procedure ben definite, a partire da ciò che già conoscono
Obiezione
L'affermazione di Harel ha il merito di sollevare la questione circa la natura della conoscenza umana e i sui legami con la computazione
Non spiega, però, come abbiamo ricavato ciò che “già sappiamo”. Per evitare la circolarità, l'acquisizione di conoscenza (l'apprendimento) non può essere ridotta al processo di derivazione di nuove conoscenze a partire da conoscenze esistenti mediante opportuni algoritmi
Il problema dell'apprendimento automatico
Acquisizione della conoscenza
Pattern validi di acquisizione della conoscenza
La scoperta che determinate conoscenze si possono derivare da conoscenze già possedute rappresenta esse stessa un effettivo aumento di conoscenza
Sicuramente, però, non è l'unico pattern valido di acquisizione della conoscenza
Questioni collegate: Quali sono le sorgenti della conoscenza? Quali sono i processi coinvolti nell'acquisizione della conoscenza? Quando e come è possibile concludere che la conoscenza acquisita è affidabile?
Il caso del machine learning
Dal momento che non possiamo fornire ad un sistema un insieme di conoscenze completo e immodificabile, a partire dal quale ogni altra conoscenza di interesse possa essere derivata mediante opportune procedure, in un unico passo iniziale, il sistema deve essere in grado di estendere in modo automatico, ed eventualmente rivedere, la propria conoscenza
Diversi approcci all'acquisizione della conoscenza (tecniche di apprendimento simbolico, reti neuronali, algoritmi evolutivi). Tutte sono fallibili (definizione del bias induttivo, scelta del training set)
Il problema del machine learning: possono i sistemi indurre regole generali, da usare per future predizioni, sulla base delle regolarità rilevate fino ad un certo punto?
Un punto di vista “pratico”
Le limitazioni dell'intelligenza algoritmica impediscono di avere un controllo completo sul comportamento di un sistema artificiale informatico
Non appena i compiti che il sistema deve eseguire diventano sufficientemente generali, il modello computazionale sottostante deve essere sufficientemente potente e, conseguentemente, non c'è modo di garantire che il sistema soddisfi le proprietà attese (teorema di Rice)
Potere computazionale e controllo
C'è un trade-off tra potere espressivo/computazionale di un sistema e livello di controllo del suo comportamento: ogni aumento del primo si traduce in una riduzione del secondo
Il problema della responsabilità: l'effettivo bilanciamento tra potere computazionale e controllabilità deve essere preso in considerazione ogni volta che dobbiamo stabilire la responsabilità delle azioni, e dei relativi effetti, intraprese da una macchina, specialmente in presenza di un gruppo composto da esseri umani e macchine che ha il compito di definire una strategia di intervento e di realizzarla
Esseri umani e cicli di controllo
L'interazione tra un sistema aperto e il suo ambiente (comunicazione asincrona) è spesso soggetta a vincoli temporali che non consentono di assicurare la presenza di un essere umano nei cicli di controllo
I sistemi devono essere in grado di prendere delle decisioni autonome (decisioni che non prevedono alcuna esplicita autorizzazione da parte di un essere umano), per prevenire un incidente/guasto o per circoscriverne gli effetti
Problemi intrattabili
Complessità dei problemi: l'indecidibilità è la forma più forte di complessità, ma non è l'unica
Problemi decidibili che non possono essere affrontati
Problemi intrattabili: esiste un'ampia classe di problemi decidibili la cui risoluzione è computazionalmente troppo “costosa” in termini di risorse di tempo e/o di spazio necessarie ad un algoritmo per risolverli
La complessità costituisce un ostacolo allo sviluppo di sistemi artificiali?
Le due facce della complessità
La complessità dei problemi non può essere ignorata
In negativo: esistono molti problemi intrattabili e molti problemi per la cui soluzione disponiamo unicamente di algoritmi cattivi (ad esempio, di complessità esponenziale), anche se non possiamo escludere l'esistenza di algoritmi buoni (algoritmi polinomiali)
In positivo: l'impossibilità di disporre di algoritmi polinomiali può essere sfruttata per garantire proprietà desiderate dei sistemi (ad esempio, la sicurezza di protocolli di comunicazione)
Conseguenze pratiche
Quali ricadute ha la complessità dei problemi sullo sviluppo di sistemi artificiali informatici?
Un possibile punto di vista: i problemi intrattabili non giocano alcun ruolo in tali sistemi e possono pertanto essere ignorati – difficile da sostenere
Un punto di vista alternativo: i modelli computazionali classici, alla base del calcolatore universale di Turing, non sono appropriati per tali sistemi
quantum computing e DNA computing sono alternative praticabili?
Nuovi scenari in IA
Gli sviluppi più recenti della ricerca in IA nei settori della robotica e soprattutto della bionica introducono nella discussione elementi del tutto nuovi
Non si dà intelligenza nell’uomo senza corporeità (la nostra interazione col mondo è mediata dagli organi di senso). La robotica: insieme delle teorie e delle tecniche per la costruzione e l’utilizzo dei robot
La bionica: uomo e macchina come sistema integrato (gli organismi cibernetici, i cosiddetti cyborg). Un nuovo tipo di protesi: dal recupero (artificiale) di funzionalità perdute all’introduzione di nuove funzionalità
Interazioni brain-actuated
Le interazioni brain-actuated usano i risultati delle
neuroscienze relativi alla caratterizzazione dell'attività
svolta dalle diverse aree di tessuto nervoso
Diverse modalità di indagine: dalla registrazione dei segnali elettrici generati a livello di singolo neurone (impianto chirurgico di elettrodi) all'analisi delle variazioni dell'attività metabolica relativa a specifiche aree del sistema nervoso (dispositivi di superficie)
Corrispondentemente, interazioni brain-actuated realizzate in modo invasivo (impianto chirurgico di elettrodi) o non invasivo (elettrodi di superficie che registrano segnali di elettroencefalogrammi)
Uno schema riduzionista
Le limitazioni dell'intelligenza algoritmica evidenziate
dall'argomento di Searle si applicano direttamente alla
robotica (non alla bionica)
I recenti risultati ottenuti nell'ambito della neurofisiologia,
utilizzati per la realizzazione di interazioni brain-actuated,
vengono letti da molti attraverso uno schema riduzionista
che assimila il mentale al cerebrale, riprendendo una
posizione già presente sia in Minsky sia in Searle
Stati mentali e stati cerebrali
L'esistenza di uno stretto legame tra l'attività mentale e
l'attività fisico-chimica del cervello è testimoniata da una
grande massa di dati sperimentali
Stati mentali e cerebrali possono essere identificati?
• (im)possibilità di circoscrivere le aree cerebrali coinvolte in una determinata attività mentale (logica della localizzazione)
• (ir)riducibilità delle attività mentali ad antecedenti fisico-chimici del cervello
Il mondo in prima persona
Come spiegare, (i) la costruzione di una rappresentazione mentale degli eventi fisici del mondo (ad esempio, nella percezione visiva cosciente) e (ii) il passaggio dall'evento mentale della decisione di compiere una determinata azione alle attività cerebrale e muscolare che la realizzano?
In generale, come cogliere l'intrinseca soggettività di ogni evento mentale (esempio, il dolore fisico)? La conoscenza degli stati elettrochimici del cervello, direttamente indagabili in terza persona, non riesce a descrivere in modo esauriente il mondo in prima persona
F. Tempia, Attività cerebrale e rappresentazioni mentali, in Scienze Informatiche e Biologiche. Epistemologia e Ontologia, Città Nuova, 2011, pp. 185-208.
Conclusioni
Si può parlare di “libertà” delle macchine (e degli esseri umani)?
Due forme di riduzionismo (più una):
• assimilazione della mente ad un calcolatore (critica di Searle)
• assimilazione dell'intelligenza umana all'intelligenza algoritmica
• assimilazione della mente al cervello (questione aperta)
(In)adeguatezza della nozione di proprietà emergente
il ruolo delle relazioni fra gli elementi presenti ad un certo livello di descrizione di un sistema e l'influenza che esse esercitano sui livelli superiori di descrizione del sistema, a loro volta caratterizzati da un insieme di elementi (in generale diversi) fra loro in relazione: Qual è la natura delle relazioni? Qual è il loro “substrato materiale”?