Intelligenza_Artificiale

download Intelligenza_Artificiale

of 5

Transcript of Intelligenza_Artificiale

  • 8/8/2019 Intelligenza_Artificiale

    1/5

    Marco Fabiani 560421

    INTELLIGENZA ARTIFICIALE

    -COSE LINTELLIGENZA ARTIFICIALE

    Il termine Intelligenza Artificiale (IA) viene utilizzato principalmente per definire una disciplinascientifica il cui scopo riguarda lindagine sui meccanismi soggiacenti alle facolt cognitive degli

    esseri umani (ad esempio il linguaggio, la capacit di risolvere problemi, la percezione) e la lororiproduzione mediante calcolatori opportunamente programmati.

    Nel corso degli anni sono stati realizzati numerosi dispositivi che, nelle intenzioni dei creatori,avrebbero dovuto raggiungere lobiettivo finale di ottenere una macchina in grado di pensareesattamente come un essere umano. Risultati del genere non sono stati ancora ottenuti, tuttaviaquesta disciplina riveste ugualmente un ruolo rilevante nello sviluppo di algoritmi, simulazioni,attivit ludiche e altre varie applicazioni.

    Il primo personaggio a dare il via, almeno in forma teorica, a questa disciplina fu il filosofo ingleseThomas Hobbes che, nel suo lavoro pi famoso, il Leviatano (1651), scrisse: ragionare non nientaltro che calcolare.Secondo Hobbes infatti, la mente umana era composta da particelle mentali che venivanomanipolate durante un qualsiasi tipo di ragionamento, in maniera molto simile ad un calcolonumerico fatto con un abaco.Con lo sviluppo tecnologico numerosi scienziati e matematici si dedicarono alla realizzazione dicalcolatori meccanici in grado di realizzare algoritmi via via sempre pi complessi (o almeno questaera la loro intenzione).

    Nel XVII secolo Blaise Pascal invent la Pascalina, una macchina in grado di eseguireautomaticamente addizioni e sottrazioni, per aiutare il padre, funzionario delle imposte, a gestire la

    propria contabilit.I pi famosi ed ambiziosi progetti di calcolatori meccanici vennero realizzati dal matematico

    Charles Babbage nel XIX secolo. La macchina differenziale prima, la macchina analitica poi,erano i due principali progetti da lui intrapresi: la prima (doveva servire per tabulare funzionipolinomiali) venne anche in parte costruita, ma gli ingranaggi disponibili a quel tempo non eranosufficientemente buoni per realizzare il modello. La seconda, un primo vero computer meccanico,non venne mai realizzata.LIA continua ad evolversi a livello teorico in maniera indipendente dagli sviluppi tecnologici, ma

    poi finalmente ritrova potenzialit applicative con la nascita dei primi calcolatori elettronici e, dopolera delle valvole, i primi linguaggi di programmazione con cui elaborare algoritmi.

  • 8/8/2019 Intelligenza_Artificiale

    2/5

    -IL TEST DI TURING E LA SVOLTA

    Nel 1950 Alan Turing, uno dei padri dellinformatica, pubblic un articolo sulla rivista Mind in

    cui defin la corretta via per realizzare un calcolatore intelligente: esso deve superare una sorta ditest (il test di Turing) che, in caso di successo, ne decreterebbe la capacit di pensare come unessere umano.Il test consiste nel seguente postulato: si considerano tre partecipanti, un uomo A, una donna B, euna terza persona C. Questultima tenuto separato dagli altri due e tramite una serie di domandedeve stabilire qual l'uomo e quale la donna. Dal canto loro anche A e B hanno dei compiti: A deveingannare C e portarlo a fare un'identificazione errata, mentre B deve aiutarlo. Affinch C non

    possa disporre di alcun indizio (come l'analisi della calligrafia o della voce), le risposte alledomande di C devono essere dattiloscritte o similarmente trasmesse. Il test di Turing si basa sul

    presupposto che una macchina si sostituisca ad A. Se la percentuale di volte in cui C indovina chisia l'uomo e chi la donna simile prima e dopo la sostituzione di A con la macchina, allora la

    macchina stessa dovrebbe essere considerata intelligente, dal momento che, in questa situazione,sarebbe indistinguibile da un qualsiasi essere umano.Il test di Turing stato pi volte riformulato in quanto semplici programmi erano riusciti a superarlo

    pur risultando palesemente inadeguati da essere considerati pensanti come un umano. Lesempiopi famoso riguarda il caso Eliza, un programma sviluppato nel 1964 da Joseph Weizenbaum ingrado di simulare lanalisi di uno psicoterapeuta di scuola rogersiana: gli psicoterapeuti di questascuola durante una seduta cercano di intervenire il meno possibile e, quando lo fanno, spesso silimitano a ripetere le affermazioni del paziente in forma di domanda.Questo permise di rendere il programma molto semplice, in quanto era sufficiente organizzarlo indue piani: il primo conteneva lanalizzatore di linguaggio, il secondo un copione, in modo darenderlo pronto a rispondere a svariati argomenti. Il trucco principale per era quello di rigirare lerisposte dei pazienti in forma di domanda e ripeterle, come in questo esempio:

    Ragazza: Gli uomini sono tutti ugualiEliza: In che senso?Ragazza: Trovano sempre il modo di tormentarciEliza: Pu farmi un esempio?Ragazza: Beh il mio ragazzo che mi ha fatto venire quiEliza. il suo ragazzo che lha fatta venire?Ragazza: Dice che sono depressaEliza: Mi dispiace sentire che depressa

    Ragazza: vero. Sono infeliceEliza: Pensa che il fatto di venire qui laiuter a non essere infelice?

    Come si pu notare, un programma simile pu superare il test di Turing, ma non dimostra affatto diessere in grado di pensare.Con la formulazione di questo test inizia una scissione tra sostenitori dellintelligenza artificialeforte e lintelligenza artificiale debole, continuando per ad avere in comune obiettivi, metodi e

    principi.

  • 8/8/2019 Intelligenza_Artificiale

    3/5

    -LIA MODERNA

    Dopo il 1962 circa, lIA cambia le sue priorit: gli scienziati che si occupano di questa disciplina

    non danno pi importanza allapprendimento, bens alla rappresentazione della conoscenza.Lelaborazione del linguaggio naturale, o NLP (Natural Language Processing) uno dei campi

    principali a cui mira la moderna IA, consiste nel processo di estrazione di informazioni semanticheda espressioni del linguaggio naturale tramite lelaborazione di un calcolatore elettronico.

    Nello specifico il processo di elaborazione viene suddiviso in pi fasi, in modo da simulare il pifedelmente possibile il meccanismo di elaborazione del linguaggio naturale da parte di un cervelloumano:

    - analisi lessicale: scomposizione di unespressione linguistica in token (frammenti distringhe separati da spazi, in questo caso sono parole)

    - analisi grammaticale: associazione delle parti del discorso a ciascuna parola nel testo- analisi sintattica: arrangiamento dei token in una struttura sintattica (ad albero)- analisi semantica: assegnazione di un significato alla struttura sintattica e quindi, di

    conseguenza, allespressione linguistica.

    Molti sforzi sono stati fatti in questo campo, oltre a investimenti consistenti, con ottimi risultatifinch lazione specifica su mondi ristretti, in modo che il vocabolario ad essi legato fosse ridottoe facilmente gestibile. I problemi nascono nel momento in cui il mondo viene esteso a tutta laconoscenza possibile immaginabile, dovuti principalmente ad ambiguit.Ad esempio le parole psca (il frutto) e psca (lattivit) vengono tipicamente scritte senzaaccento, quindi pesca: un elaboratore elettronico non pu conoscere a priori se si sta parlando difrutta o di pesci. Suddividendo gli argomenti in maniera specifica, lelaboratore pu riconosceremolto pi facilmente la differenza e seguire un filo logico del discorso correttamente.Da questa suddivisione in mondi ridotti iniziano a svilupparsi i primi sistemi esperti, softwarecapaci di risolvere problemi complessi in uno specifico campo emulando ragionamenti logici di unesperto del settore preso in considerazione.Essendo problemi molto complessi che, spesso, non possono essere risolti applicandomeccanicamente un algoritmo, viene introdotto nellIA un concetto molto importante: lincertezza.In sostanza un sistema esperto esamina un determinato problema e cerca di trovare un algoritmospecifico che possa restituirgli un risultato corretto: se non lo trova, il sistema inizier ad applicareuna serie di ragionamenti che possono effettivamente portare ad una soluzione probabile mafallibile. E come se andasse per tentativi, cosa che lo differenzia da un esperto umano (che

    invece sa risolvere un problema con un unico ragionamento corretto. O meglio, dovrebbe).

    -CARATTERISTICHE DELLIA OGGI E DIBATTITI FILOSOFICI

    Attualmente lIA tratta lindividuazione di modelli (appropriata descrizione del problema darisolvere) ed algoritmi (azioni da eseguire per risolvere il problema correttamente).

    Nello specifico le attivit di cui si occupa oggi lIA sono:

    - apprendimento automatico (machine learning), utile in contesti quali il gioco degli scacchi olandamento dei mercati finanziari

    - rappresentazione della conoscenza e ragionamento automatico

  • 8/8/2019 Intelligenza_Artificiale

    4/5

    - pianificazione- cooperazione tra agenti intelligenti (agenti in grado di fare la cosa giusta al momento

    giusto), sia software che hardware (ad esempio robot)- elaborazione del linguaggio naturale- simulazione della visione e dellinterpretazione di immagini

    Oltre a queste realistiche applicazioni, ancora molto incerte (manca una rigorosa teoria, moltospesso si risolvono i problemi per tentativi) ma decisamente soddisfacenti (di recente si sono visti

    prototipi di bambini robot, modelle robot, anche una colf robot), le menti pi brillanti di questoramo dellinformatica sono coinvolte in un dibattito filosofico: i computer possono pensare?Dato che manca una definizione rigorosa del termine intelligenza, una risposta chiara esoddisfacente non mai stata fornita, quindi ognuno pu elaborare una personale interpretazione. Ingenerale questo dibattito si divide in due grandi correnti (come gi detto in precedenza):

    - intelligenza artificiale forte, ritiene che un calcolatore, opportunamente programmato,possa raggiungere unintelligenza pari a quella umana

    - intelligenza artificiale debole, sostiene che un computer non sar mai in grado dieguagliare la mente umana.

    Unilluminante tesi a favore della seconda ipotesi viene da John Searle, filosofo statunitense,autore di un esperimento mentale chiamato stanza cinese: immaginiamo di prendere una personache non sappia una parola di cinese e di metterla in una stanza chiusa. Al suo interno si trova unmanuale (ideale ovviamente!) in italiano in cui viene spiegato con quali simboli rispondere nel casoin cui gli arrivasse dallesterno un particolare simbolo (ad esempio se arriva un bigliettino conscritto X bisogna rispondere con Y). A questo punto prendiamo un cinese (o qualcuno che conosca

    bene il cinese), mettiamolo fuori dalla stanza e facciamogli scrivere qualche frase in cinese in unbigliettino. Quando lui passer il bigliettino al tizio che si trova nella stanza (che deve rimanerechiusa, il cinese deve avere limpressione di comunicare con una scatola nera), egli saprrispondere correttamente grazie allipotetico manuale che ha trovato nella stanza. In realt perluomo chiuso nella stanza non capir nulla del discorso che viene fatto, ma nel frattempo il cinesesar realmente convinto di parlare con un suo connazionale.Con questo ragionamento Searle vuole dimostrare che, anche se un computer dovesse essere dotatodi tutte le regole possibili immaginabili per poter dialogare in tutte le lingue del mondo, non sarmai intelligente perch non capir mai quello che sta trasmettendo.

    Lintelligenza artificiale debole, favorita da questo genere di argomenti a sostegno, domina la scenafino alla fine degli anni 70, quando viene sviluppato il modello del connessionismo. Esso prevedeche la mente umana funziona in questo modo grazie alla sua struttura cellulare (una rete dimiliardi di neuroni collegati tra loro), introducendo cos lidea di reti neurali artificiali.

    Lidea di base quella di riprodurre una rete di neuroni biologica tramite una rete di calcolatoricollegati tra loro in pi strati (il primo comunica con il mondo esterno e filtra le informazioni versogli strati pi interni per poterli elaborare).Ovviamente oggi non ci sono i mezzi, n economici n tecnologici, per ricreare una mente umanatramite una rete neurale artificiale, tuttavia hanno trovato grande applicabilit in attivit dove i dati

    possono essere parzialmente errati o non esistono modelli analitici in grado di risolvere undeterminato problema, ad esempio vengono utilizzate in:

    - sistemi di riconoscimento di immagini e facciale- data mining (estrazione di una conoscenza a partire da grandi quantit di dati)- analisi finanziaria e meteorologica- pattern funzionali e/o strutturali in proteine e acidi nucleici (bioinformatica in generale)

  • 8/8/2019 Intelligenza_Artificiale

    5/5

    Alcuni sostenitori dellintelligenza artificiale forte legata al connessionismo ritengono che la veraintelligenza, semmai dovesse essere realizzata, non possa essere raggiunta da calcolatori, in quantoelementi statici che non possono interagire autonomamente con lesterno. Si suppone chelintelligenza umana possa essere emulata efficacemente solo da robot, in grado di ricevere stimoli afattori esterni (camminare, toccare) e quindi reagire di conseguenza.

    Inoltre lerrore pi tipico che si presentava durante i primi tentativi di realizzazione diunintelligenza umana, era dovuto alla struttura del mondo esterno: veniva sottovalutata la suacomplessit.Per istruire correttamente un robot necessario uno studio accurato di tutti i possibili casi in cui puincappare lautoma una volta gettato allaperto e lasciato al suo destino, una mole di dati enorme dainserire al suo interno.Lidea pi gettonata (e pi naturale, basti pensare ai bambini) quella di mettere il robot nellecondizioni di apprendere, caso per caso, come deve comportarsi per poter sopravvivere alle sfideche il mondo gli presenter.