INTELLIGENZA ARTIFICIALE: I PRIMI 50 ANNI -...

18
MONDO DIGITALE •n.2 - giugno 2004 1. UN NOME FORSE TROPPO IMPEGNATIVO O gni disciplina scientifica è animata da sogni e motivata da grandi progetti. Gra- zie ad essi si procede, conseguendo risultati forse differenti rispetto a quelli immaginati, ma spesso utili e in grado di conferire all’inte- ro programma un significato che sovente va al di là delle speranze e degli obiettivi origi- nali. Accade anche di conseguire, talora, ri- sultati inaspettati e originariamente impre- vedibili. Qual è il sogno dei ricercatori di intelligenza artificiale? Nella maggior parte dei casi si so- gna, cosa piuttosto ambiziosa in verità, di realizzare quello che di certo appare come il più inaccessibile tra i progetti scientifici: capi- re i principi e i meccanismi del funzionamento della mente umana allo scopo di riprodurre l’intelligenza umana su una macchina. L’espressione “Intelligenza Artificiale” (IA) descrive accuratamente questo sogno tradu- cendo correttamente l’obiettivo finale. Ma, forse, se gravati da un nome meno impegna- tivo, i ricercatori di IA si sarebbero imbattuti in minori difficoltà lungo il loro cammino. In effetti, l’espressione “Intelligenza Artificiale” ha innescato paure irrazionali, alimentate da certa letteratura e cinematografia fanta- scientifiche. Anche il sarcasmo proveniente da alcuni ambienti antiscientifici non ha gio- vato. Forse il campo avrebbe incontrato me- no ostilità se per esso fosse stata scelta la di- zione britannica – derivata da A. Turing - di Intelligenza delle Macchine” (IM), in quanto essa rammenta costantemente che, per quanto intelligenti, pur sempre di macchine si tratta. Forse, invece, un forte dibattito era ed è inevitabile in quanto costantemente l’IA (o IM) mette in ballo quella che è ritenuta la più esclusiva prerogativa degli esseri umani: l’intelligenza. Va aggiunto che la scelta di un’espressione tanto forte come “Intelligenza Artificiale” ha di certo generato aspettative eccessive, in particolare considerando le limitazioni della tecnologia con la quale gli artefatti in- telligenti andavano via via realizzati. D’al- tronde, qualcuno ha giustamente osservato che ogni volta che l’IA raggiunge un nuovo Circa 50 anni fa, durante un famoso seminario al Dartmouth College, veni- va ufficialmente introdotto il termine “Intelligenza Artificiale”. Vi era allora un’atmosfera di euforia tecnologica indotta dall’avvento del computer, una macchina in grado di manipolare simboli, e l’intelligenza artificiale sembra- va a portata di mano. Che cosa è successo dopo? L’articolo presenta al- cuni momenti particolarmente significativi della storia dell’IA,le principali aree di ricerca e le prospettive applicative. Luigia Carlucci Aiello Maurizio Dapor INTELLIGENZA ARTIFICIALE: I PRIMI 50 ANNI 3 3.6

Transcript of INTELLIGENZA ARTIFICIALE: I PRIMI 50 ANNI -...

M O N D O D I G I T A L E • n . 2 - g i u g n o 2 0 0 4

1. UN NOME FORSE TROPPOIMPEGNATIVO

O gni disciplina scientifica è animata dasogni e motivata da grandi progetti. Gra-

zie ad essi si procede, conseguendo risultatiforse differenti rispetto a quelli immaginati,ma spesso utili e in grado di conferire all’inte-ro programma un significato che sovente vaal di là delle speranze e degli obiettivi origi-nali. Accade anche di conseguire, talora, ri-sultati inaspettati e originariamente impre-vedibili.Qual è il sogno dei ricercatori di intelligenzaartificiale? Nella maggior parte dei casi si so-gna, cosa piuttosto ambiziosa in verità, direalizzare quello che di certo appare come ilpiù inaccessibile tra i progetti scientifici: capi-re i principi e i meccanismi del funzionamentodella mente umana allo scopo di riprodurrel’intelligenza umana su una macchina.L’espressione “Intelligenza Artificiale” (IA)descrive accuratamente questo sogno tradu-cendo correttamente l’obiettivo finale. Ma,forse, se gravati da un nome meno impegna-tivo, i ricercatori di IA si sarebbero imbattuti

in minori difficoltà lungo il loro cammino. Ineffetti, l’espressione “Intelligenza Artificiale”ha innescato paure irrazionali, alimentate dacerta letteratura e cinematografia fanta-scientifiche. Anche il sarcasmo provenienteda alcuni ambienti antiscientifici non ha gio-vato. Forse il campo avrebbe incontrato me-no ostilità se per esso fosse stata scelta la di-zione britannica – derivata da A. Turing - di“Intelligenza delle Macchine” (IM), in quantoessa rammenta costantemente che, perquanto intelligenti, pur sempre di macchinesi tratta. Forse, invece, un forte dibattito eraed è inevitabile in quanto costantemente l’IA(o IM) mette in ballo quella che è ritenuta lapiù esclusiva prerogativa degli esseri umani:l’intelligenza.Va aggiunto che la scelta di un’espressionetanto forte come “Intelligenza Artificiale”ha di certo generato aspettative eccessive,in particolare considerando le limitazionidella tecnologia con la quale gli artefatti in-telligenti andavano via via realizzati. D’al-tronde, qualcuno ha giustamente osservatoche ogni volta che l’IA raggiunge un nuovo

Circa 50 anni fa, durante un famoso seminario al Dartmouth College, veni-

va ufficialmente introdotto il termine “Intelligenza Artificiale”. Vi era allora

un’atmosfera di euforia tecnologica indotta dall’avvento del computer, una

macchina in grado di manipolare simboli, e l’intelligenza artificiale sembra-

va a portata di mano. Che cosa è successo dopo? L’articolo presenta al-

cuni momenti particolarmente significativi della storia dell’IA,le principali

aree di ricerca e le prospettive applicative.

Luigia Carlucci AielloMaurizio Dapor

INTELLIGENZA ARTIFICIALE:I PRIMI 50 ANNI

3

3.6

traguardo questo non è più annoverato tra isuoi risultati ma si trasforma in un prodottodell’informatica tradizionale: un destino in-grato per una disciplina che, in realtà, haconseguito molti successi e ha facilitato lavita di ognuno di noi. Una spiegazione di ta-le circostanza risiede nella constatazioneche l’IA parte da problemi scientifici chevengono affrontati, risolti e, quindi, inge-gnerizzati con gli strumenti dell’informatica.Un esempio abbastanza noto è costituitodai sintetizzatori vocali con cui si interagi-sce telefonicamente quando si chiama uncall center, per esempio, se si deve segnala-re i valori del contatore alla società fornitri-ce di elettricità. Oggi si considerano tali sin-tetizzatori come un utile prodotto dell’infor-matica. In passato, tuttavia, quello dei sin-tetizzatori vocali e, più in generale, dellaelaborazione del segnale vocale, era un pro-blema di interazione uomo-macchina a ra-gione collocato nella ricerca in IA.Il programma di fondo dell’IA, quello di co-struire macchine in grado di comportarsi co-me gli esseri umani, non è mai stato abban-donato e il test di Turing, basato sull’ideasecondo cui se il comportamento di unamacchina è indistinguibile da quello di unessere umano allora quella macchina puòessere considerata intelligente, viene oggiquotidianamente superato in molte circo-stanze, almeno in determinati e ben precisiambiti cognitivi. A semplificare (o complica-re?) le cose oggi interviene Internet. Leinformazioni, grazie a Internet, si trasferi-scono da un capo all’altro del pianeta intempo reale: quando si interagisce con unosconosciuto giocando a scacchi in rete, nonsi è in grado di stabilire se l’interlocutore siaun programma software o un essere umano.Così il test di Turing, nel particolare ambitocognitivo costituito dal gioco degli scacchi,appare perfettamente superato. In effetti,rete o no, per quanto riguarda il gioco degliscacchi ci sono programmi che riescono og-gi a battere i campioni del mondo. Nel 1997,Deep Blue, un sistema sviluppato dallaIBM, riuscì a sconfiggere l’allora campionedel mondo di scacchi, G. Kasparov, in un tor-neo regolare di sei incontri. Si trattò di unsuccesso clamoroso dell’IA. L’osservazionedello stile di gioco di Deep Blue già aveva

fatto constatare a Kasparov, l’anno prece-dente, quanto segue: “Posso percepire, nesento persino l’odore, un nuovo tipo di in-telligenza dall’altra parte del tavolo”. Unadichiarazione che farebbe credere di essereandati ben oltre il semplice superamentodel test di Turing.Nella situazione specifica, la supremazia deicalcolatori riguarda una data capacità cogniti-va: gli scacchi. Ma è chiaro che un computeresperto in quel gioco incontrerebbe difficoltàinsormontabili se si pretendesse che si cimen-tasse in un compito per noi assai semplice co-me quello di friggere un uovo. O se si tentassedi sostenere con lui un’amabile conversazione.Per limitarsi alle conversazioni con i compu-ter condotte in linguaggio naturale, le diffi-coltà sono effettivamente notevoli. Si può ri-cordare in proposito un famoso programmadegli anni Sessanta, ELIZA (scritto nel 1965da J. Weizenbaum), che simulava una sedutadallo psicanalista. Ecco un tipico dialogo trail programma e una ragazza:

UTENTE: Gli uomini sono tutti uguali.ELIZA: In che senso? UTENTE: Ci rompono sempre le scatole per

una cosa o per l’altra. ELIZA: Ti viene in mente un esempio spe-

cifico? UTENTE: Il mio ragazzo mi ha fatto venire qui. ELIZA: Il tuo ragazzo ti ha fatto venire qui? UTENTE: Dice che sono sempre depressa. ELIZA: Mi spiace che tu sia depressa.

E così via, senza fine. La strategia utilizzatada ELIZA per rispondere all’utente è talmenteingenua da non richiedere ulteriori commen-ti: anche se, va precisato a onor del vero,molti di noi sono inclini a sospettare che talo-ra gli psicanalisti veri si comportino allo stes-so modo. A parte gli scherzi, abbiamo certosorriso con condiscendenza a fronte di dialo-ghi come questo tra un computer e un utenteumano. Ma dalla metà degli anni Sessantaad oggi molto lavoro è stato fatto e si sonoconseguiti risultati assai più interessanti diquesto. ELIZA riveste, ormai, un interesse pu-ramente storico, perché oggi l’elaborazionedel linguaggio naturale scritto e parlato è di-ventata un’area matura e con molteplici ap-plicazioni.

M O N D O D I G I T A L E • n . 2 - g i u g n o 2 0 0 4

1

0

0

0

1

4

2. I PRIMI ANNI DI STORIA:IL PERIODO EROICO

È bene sapere che l’uomo ha tentato di co-struire artificialmente forme di vita intelligen-te assai più spesso di quanto comunementesi creda: già nel XVIII secolo Jacques de Vau-canson costruì un’anitra artificiale che nonera solo in grado di nuotare ma anche di in-goiare chicchi di grano (ovviamente non ne-cessari per il suo sostentamento). L’orolo-giaio svizzero Pierre Jacquet-Droz fabbricò al-cuni automi che sono oggi conservati nel Mu-seo di Arti e Storia di Neuchâtel tra cui un pic-colo scrivano, un bravo disegnatore, nonchéuna giovane e promettente musicista i cuimovimenti sono controllati da una serie dicodici memorizzati su alcuni dischi di metal-lo. È in grado, questa sorprendente ragazzi-na, di eseguire cinque melodie differenti uti-lizzando la tastiera di un vero organo a can-ne: durante l’esecuzione respira e simulauna certa emozione; chiude la sua esibizionecon una gentile riverenza e china il capo a se-guito degli applausi del pubblico.Il grande filosofo e matematico G. W. Leibnizera affascinato da un sogno: un giorno, pro-babilmente non lontano, un calculus ratioci-

nator sarebbe stato in grado di dirimere qua-lunque controversia intellettuale: si sarebbetrattato di un complesso sistema di meccani-smi in grado di affrontare ogni problema e dirisolverlo. L’idea di Leibniz godette, nei seco-li a seguire, di una notevole fortuna. Attraver-so i primi meccanismi in grado di effettuare leoperazioni più semplici dell’aritmetica, l’ideadi Leibniz condusse alla macchina di J. VonNeumann che, costituisce la base dei moder-ni calcolatori.Nel periodo che va dal 1930 al 1955 si assi-ste a un fiorire di idee e teorie che costitui-ranno le basi della odierna IA. Sono di que-sto periodo i lavori sulla logica, sulla calco-labilità (A. Turing e A. Church, in particolare)che sono stati di fondamento alla progetta-zione dei primi computer e base all’approc-cio simbolico all’IA. È di questo periodo(1943) il lavoro fondamentale di W. S. Mc-Culloch e W. H. Pitts in cui viene proposto unmodello di neurone che ha fatto poi da basea tutta la ricerca sulle reti neurali. Nel 1949,D. O. Hebb propone un meccanismo per ag-giornare la “forza” delle connessione traneuroni che è ancora oggi in uso ed è notocome “apprendimento hebbiano”.

M O N D O D I G I T A L E • n . 2 - g i u g n o 2 0 0 4

1

5

0

0

0

1

È del 1951 la costruzione da parte di M. Min-ski (insieme a D. Edmonds) del primo compu-ter neurale.Nel 1950, A. Turing pubblica un articolo,“Computing Machinery and Intelligence”, incui introduce il famoso test che poi prenderàil suo nome (test di Turing), l’apprendimentoautomatico, gli algoritmi genetici e l’appren-dimento per rinforzo. Nell’articolo previdemolti degli ostacoli che questi studi avrebbe-ro incontrato negli anni a causa della forte in-terferenza degli artefatti da essi prodotti conle funzioni cognitive degli esseri umani.La nascita ufficiale della disciplina è legata a J.McCarthy, che - allora docente al DartmouthCollege - organizzò un seminario di due mesinell’estate del 1956, invitando ricercatori inte-ressati alla teoria degli automi, alle reti neura-li e allo studio dell’intelligenza (M. Minski, T.More, A. Newell, N. Rochester, A. Samuel, C.Shannon, O. Selfridge, e H. Simon). I ricerca-tori presenti al seminario avevano interessiche andavano dallo sviluppo di sistemi di ra-gionamento automatico (A. Newell e H. Si-mon) a giochi quali la dama (A. Samuel).Il problema dell’IA non fu risolto in due mesi,come pare fosse tra gli obiettivi del seminario,ma i protagonisti del campo si conobbero egettarono le basi per una ricerca che, insiemea quella dei loro studenti, forgiò la disciplina ela caratterizzò per i successivi venti anni.Dopo il seminario si succedettero molti risul-tati scientifici e riflessioni filosofiche relativialla IA: nel 1957, A. Newell e H. Simon realiz-zarono il General Problem Solver (GPS), men-tre N. Chomsky pubblicava “Le strutture dellasintassi”, uno studio della linguistica che di-venterà un caposaldo nella progettazione del-la sintassi dei linguaggi di programmazione.I primi anni della ricerca in IA, fino alla finedegli anni Sessanta, sono stati caratterizzatida grande entusiasmo ma anche da grandeingenuità. Essi hanno visto un fiorire di “suc-

cessi”, nel senso che sono stati sviluppati eproposti in letteratura molti programmi e si-stemi che facevano cose impensabili perl’informatica tradizionale dell’epoca: i nuoviprogrammi di IA facevano inferenze (comenel GPS di A. Newell e H. Simon), giocavanoa dama (A. Samuel)1, risolvevano problemidi analogie (T. G. Evans) ed elementari pro-blemi di geometria (H. Gelernter), “capiva-no” semplici frasi in linguaggio naturale (P.Winston) e risolvevano problemi di integra-zione simbolica (J. R. Slagle). Si tratta deglianni in cui J. McCarhy ha progettato il LISP2

(List Processing), poi diventato e rimasto lin-guaggio di elezione per l’IA per i successividecenni, e l’Advice Taker, un programma chepermetteva di rappresentare conoscenza edi fare semplici inferenze. Sono gli anni incui J. A. Robinson ha introdotto il “principiodi risoluzione”, che sarà poi alla base dellaprogrammazione logica. Sono gli anni in cuiall’SRI International viene realizzato Shakey,il primo “robot cognitivo” per il quale sonostati sviluppati sistemi di pianificazione au-tomatica (STRIPS) e algoritmi euristici per lasoluzione automatica di problemi tuttora dilargo uso (l’algoritmo A*, introdotto da P. E.Hart, N. J. Nilsson e B. Raphael). Ma — comeil nome stesso denunciava (da shaky = tra-ballante) — Shakey era un sistema tutt’altroche robusto.In quegli anni sono stati introdotti gli esem-pi dei “micromondi”, diventati poi noti co-me toy problem. Si tratta anche degli anni incui, alle dichiarazioni entusiastiche e lungi-miranti sugli obiettivi grandiosi della disci-plina IA, corrispondevano programmi che ri-solvevano quiz del calibro di quelli dei gior-nalini di enigmistica: non c’era verso di po-terli utilizzare per risolvere problemi di di-mensioni realistiche perché spesso le solu-zioni proposte erano del tipo — parole diJ.McCarthy — “look ma, no hands”3

M O N D O D I G I T A L E • n . 2 - g i u g n o 2 0 0 4

1

0

0

0

1

6

1 Nel 1962, A. Samuel fece giocare un suo programma contro l’ex campione di dama del Connecticut. Il pro-gramma vinse l’incontro.

2 Il LISP nacque come un’estensione del linguaggio FORTRAN. Mentre il FORTRAN era stato progettato per ilcalcolo numerico, il LISP era dedicato all’elaborazione di informazione simbolica (cioè non numerica) e al-la rappresentazione e manipolazione di strutture di dati dinamiche.

3 “Guarda mamma, senza mani!”, gridano i bambini alla mamma per attrarne l’attenzione mentre, pedalan-do, tolgono le mani dal manubrio della bicicletta.

È di quegli anni lo sviluppo da parte di J. Wei-zenbaum del programma ELIZA, cui si è ac-cennato nel paragrafo precedente. ELIZA,che si comportava come uno psicoterapeuta,è diventato molto famoso e per anni è rima-sto il programma esemplare di ciò che l’IApuò fare. Forse gode di minor fama il fattoche Wizenbaum, che della sua creatura ELIZAben conosceva i limiti, turbato da tanto suc-cesso secondo lui immotivato, ha abbando-nato la ricerca in IA.Mentre da una parte fiorivano gli sforzi persviluppare programmi capaci di esibire com-portamenti intelligenti, dall’altra si sviluppa-va il dibattito sulla fattibilità o meno dell’in-telligenza artificiale. Nel 1960, J.R. Lucas as-serì che il teorema di incompletezza di Gödelimpedirebbe che una macchina possa risol-vere problemi che la mente umana, invece,sa come affrontare. Credette in tal modo dipoter trarre la conclusione che la mente nonè una macchina. Nel 1979, D. Hofstadter pub-blicò il celeberrimo “Gödel, Escher e Bach” incui, tra l’altro, si contrappose alle tesi soste-nute da Lucas mostrando che il teorema di in-completezza permetterebbe di prefiguraresistemi autoconsapevoli.Nonostante i successi conseguiti dalle primereti neurali artificiali, cui loro stessi avevanocontribuito, nel 1969, M. Minsky e S. Papertne evidenziarono i limiti nel libro “Percep-trons”: data l’autorevolezza degli autori, lapubblicazione del libro provocò una consi-stente contrazione dei finanziamenti per la ri-cerca nel campo delle reti neurali artificiali.La conseguente riduzione di interesse si pro-trarrà sino alla prima metà degli anni Ottan-ta, allorché la ricerca riprenderà vigore anchegrazie a un celebre articolo del 1982 di J. J.Hopfield.

3. L’INDUSTRIA DEI SISTEMIESPERTI E L’INVERNODELL’INTELLIGENZA ARTIFICIALE

Il sogno originale dei ricercatori di IA era quel-lo di individuare un formalismo per rappre-sentare conoscenza e un apparato deduttivocon poche regole di tipo del tutto generaleche permettessero di riprodurre i meccanismidel ragionamento umano. È in questo sensola proposta del GPS di A. Newell e H. Simon.

Ma presto questo approccio generalista rivelòi suoi limiti, e non solo per la intrinseca limita-tezza della potenza di calcolo a disposizionein quegli anni: la costruzione di una macchinache fosse intelligente in ogni campo apparvechiaramente come un progetto di difficile (senon impossibile) realizzazione. Già dalla se-conda metà degli anni Sessanta nella comu-nità di ricerca in IA si faceva strada una preoc-cupazione: i programmi sviluppati si limitava-no a semplici manipolazioni simboliche, nonavevano e non utilizzavano, di fatto, nessunacognizione di quello che stavano facendo enon avevano alcun modo per confrontarsi conla complessità (in genere esponenziale) deiproblemi che si incontravano nelle situazionipratiche. È di questi anni un vero ridimensio-namento degli entusiasmi: anziché persegui-re l’obiettivo di costruire un sistema capace diintelligenza generale e assoluta, che si mani-festerà poi nella soluzione di qualunque pro-blema, ci si accontenta piuttosto di costruiresistemi capaci di risolvere problemi in dominilimitati; la conoscenza su un settore limitatoviene rappresentata nel sistema e gli permet-te di comportarsi da esperto nel dominio inquestione. In tale periodo, si assiste alla na-scita (e al successo) dei “sistemi basati sullaconoscenza” o “sistemi esperti”.“Se sto male non vado al dipartimento di ma-tematica, dove so che ragionano molto bene,ma a quello di medicina, dove so che possie-dono e sanno utilizzare conoscenza medica”:era lo slogan lanciato da E. Feigenbaum, asottolineare l’importanza di costruire sistemiche incorporassero conoscenza del dominio

M O N D O D I G I T A L E • n . 2 - g i u g n o 2 0 0 4

1

7

0

0

0

1

e che poi ne facessero effettivo uso al fine diindividuare automaticamente in modo effi-ciente ed efficace una soluzione per i proble-mi posti al sistema, tipicamente problemidiagnostici. Più ragionevole e promettenteappariva, quindi, l’approccio che, anzichépretendere di catturare l’intelligenza in rego-le generali in grado di risolvere qualunqueproblema, si focalizzasse piuttosto sulla ca-pacità di affrontare singole problematichemediante tutto ciò che si conosceva sull’ar-gomento: utilizzando regole, conoscenzestrutturali, principi di ragionamento, trucchidel mestiere, sarebbe certo stato possibileottenere risultati molto pregnanti. Con i si-stemi esperti si mostrò che programmi ingrado di conservare e organizzare le cono-scenze concernenti ambiti ben precisi e ri-stretti, e di dedurre quanto non esplicitamen-te dichiarato, erano in grado di individuare lesoluzioni di problemi complessi fino a quelmomento non aggredibili con tecnologieinformatiche.In quegli anni sono stati sviluppati sistemiesperti per numerose applicazioni: dalla bio-chimica, alla prospezione geologica, alla dia-gnosi medica, alla progettazione di configura-zioni complesse, alla finanza. Molti di questisistemi sono stati usati con notevole succes-so da parte dei loro realizzatori: tra i più noti sicitano R1, sistema sviluppato al CMU per la Di-gital, che permetteva di automatizzare compi-ti che avrebbero richiesto molto personale

qualificato. Va poi menzionato PROSPECTOR,un sistema esperto in prospezioni geologichesviluppato all’SRI International che portò, nel1979, la ricerca in IA per la prima volta sullaprima pagina sul New York Times: un “compu-ter program”, segnalava l’autorevole quoti-diano, era riuscito a localizzare un giacimentodi molibdeno nel nord ovest degli Stati Uniti.Si trattava di un giacimento che i geologi ipo-tizzavano esistere, ma in 20 anni non eranoriusciti a localizzare.Oggi è possibile asserire che i sistemi esperticostituiscono un indiscutibile successo del-l’IA, anche se il nome è stato abbandonato infavore di nomi più “neutri” quale, ad esem-pio, “sistemi di supporto alle decisioni”.L’entusiasmo per i successi dei sistemiesperti ha portato al fiorire di un’industria diIA, il cui fallimento ha poi determinato la peg-giore stagione nell’intera storia della discipli-na, definita “l’inverno dell’IA”. I motivi di taleentusiasmo sono evidenti: problemi fino apoco tempo prima giudicati irrisolvibili conun sistema di calcolo trovavano adesso solu-zione. Era diventato possibile effettuare dia-gnosi mediche di livello paragonabile a quel-le dei medici più qualificati, potendo, inoltre,“spiegare” il ragionamento seguito dal siste-ma per arrivare a una data conclusione piut-tosto che a un’altra. Questo induceva a pen-sare che — con gli strumenti adatti — chiun-que avrebbe potuto in poco tempo costruireil suo sistema esperto. Inoltre, le interfacce“amichevoli” avrebbero reso questi sistemiutilizzabili da chiunque, rendendo inutile lapresenza di esperti. Entrambe le aspettativeerano, naturalmente, esagerate. Altri motividi insuccesso, interessanti da analizzare, ri-guardano la dimensione troppo piccola deidomini di esperienza dei sistemi esperti; labrusca diminuzione di affidabilità qualora unproblema non sia “centrato” nel dominio diesperienza del sistema; l’incapacità da partedi un sistema di capire se una domanda rien-trava o no nel suo dominio di esperienza.A fianco dei sistemi esperti, l’industria inquegli anni offriva “ambienti” (talvolta detti“shell”) per il loro sviluppo o per “l’ingegne-ria della conoscenza”, ostinandosi a perse-guire l’idea che si trattava di compiti affattodifferenti dall’ingegneria del software e cherichiedevano, pertanto, hardware e softwa-

M O N D O D I G I T A L E • n . 2 - g i u g n o 2 0 0 4

1

0

0

0

1

8

re specializzati. L’alto prezzo e la bassa affi-dabilità dei sistemi (hardware e software)rapidamente immessi sul mercato per ri-spondere alla spasmodica domanda ne de-cretò il fallimento. Anche il lancio e il suc-cessivo fallimento del progetto della cosid-detta “quinta generazione” giapponese,programma di ricerca per la creazione dihardware e software per lo sviluppo di si-stemi intelligenti di cui non resta oggi prati-camente traccia, fu corresponsabile del so-praggiungere dell’inverno dell’IA.Di questo periodo è rimasta una connotazio-ne estremamente riduttiva dell’IA: agli occhidi molti infatti l’IA è diventata ed è rimasta laricerca per la costruzione di sistemi, magarisofisticati, basati su regole di tipo “se…allo-ra”. In realtà, la ricerca sui “sistemi a regole”si è esaurita negli anni Settanta, per soprav-vivere negli “shell per sistemi esperti” deiprimi anni Ottanta.

4. L’INTELLIGENZA ARTIFICIALEESCE DALL’INVERNO

Si può far risalire alla seconda metà degli an-ni Ottanta il risveglio dell’IA dal suo inverno.Innanzitutto, la ricerca in IA che, fino a quelmomento, aveva cercato di differenziarsi daquella delle discipline limitrofe per trovareuna sua identità, ha cominciato a non disde-gnarne più gli avanzamenti e i risultati. Ci siriferisce qui agli avanzamenti in matematica,informatica, teoria del controllo, statistica. Apartire dalla seconda metà degli anni Ottan-ta, l’IA ha cercato una maggiore integrazionecon queste discipline.Ormai superata l’era pionieristica, la comu-nità scientifica ha cominciato a non accon-tentarsi più di risultati imposti sulla base dihandwaving, ma a pretendere un maggiorerigore: i risultati dovevano essere fondati susolide teorie (meglio se non inventate: piut-tosto modifiche, o estensioni, di teorie esi-stenti) oppure evinti da sperimentazioni de-gne del nome.Risale a questi anni la “riscoperta” delle retineurali. Come accennato in precedenza, ilmerito va in particolare ai risultati di J. J. Hop-field (e poi di D. E. Rumelhart e G. E. Hinton):le nuove reti neurali hanno eliminato le limi-tazioni espressive delle reti proposte in pre-

cedenza, allargandone enormemente il cam-po di applicazione. La ricerca sulle reti neura-li ha recuperato risultati di decenni della ma-tematica e della fisica, così come l’adozionedegli HMM (Hidden Markov Model) ha per-messo di portare, nel campo della compren-sione del linguaggio parlato, tecniche svilup-pate nella ricerca matematica e che hannofornito al riconoscimento del parlato unaqualità che lo ha reso utilizzabile in robusteapplicazioni commerciali (per esempio nei si-stemi telefonici). Analoga considerazione va-le per il calcolo delle probabilità, per lungotempo disdegnato dai ricercatori di IA (qual-cuno certo ricorderà alcuni sistemi esperti di“prima generazione” e del tentativo che essifacevano di re-inventare un calcolo delle pro-babilità addomesticato, poiché il calcolo del-le probabilità non era considerato utilizzabilenel contesto di loro interesse). Sono stateproposte le “reti bayesiane”, e sono ora mol-to utilizzate per rappresentare e ragionare inmodo rigoroso con conoscenza incerta sfrut-tando il teorema di Bayes, caposaldo del cal-colo delle probabilità.Nel 1991, il filosofo D. Dennett dà alle stampe illibro Consciousness Explained, nel quale so-stiene che l’auto-consapevolezza umana nonè niente di più che l’effetto di processi biochi-mici. La coscienza umana, vale a dire la frontie-ra che, secondo molti filosofi, separa il pensie-ro umano dal calcolo meccanico, non è, perDennett, che il prodotto di macchine seriali“implementate in modo inefficiente sul-l’hardware parallelo fornitoci dall’evoluzione”.Forse perché la soluzione dei vari sottopro-blemi dell’IA ha cominciato a dare i suoi frut-ti, a partire dalla seconda metà degli anni No-vanta del novecento i ricercatori si concentra-no di nuovo sul progetto dell’“agente intelli-gente” come entità: fiorisce, quindi, la ricer-ca sugli agenti software intelligenti e degliagenti intelligenti “incorporati” in un sistemafisico, cioè i robot dotati di cognizione.Gli agenti intelligenti sono “situati” nel mon-do fisico con il quale interagiscono: la perce-zione dà all’agente informazione sullo statodel mondo e le sue azioni producono cambia-menti in questo mondo. Nel caso dei robot, ilmondo fisico è un ambiente solitamente“non strutturato”, cioè non completamentedescrivibile a priori, quindi non completa-

M O N D O D I G I T A L E • n . 2 - g i u g n o 2 0 0 4

1

9

0

0

0

1

mente prevedibile (mentre, per esempio, èstrutturato l’ambiente costituito da una cate-na di montaggio in una applicazione di auto-mazione industriale). Nel caso degli agentiintelligenti software, l’ambiente fisico per ec-cellenza è il web e, in questo caso, si parlaanche di “softbot”.Trattare in modo sufficientemente dettaglia-to tutti i settori in cui si articola la ricerca inintelligenza artificiale è al di fuori della porta-ta di questa presentazione. Un quadro sinte-tico viene presentato a pagina 18, alcuni deisettori di ricerca in IA sono stati già portati al-l’attenzione dei lettori di Mondo Digitale inarticoli recenti (elencati in Bibliografia tra leletture consigliate). Qui di seguito si accen-nerà soltanto a due filoni che hanno caratte-rizzato il campo e che sono stati consideraticome antitetici e alternativi per la realizzazio-ne di un artefatto intelligente: l’approccio lo-gico e quello connessionista (cioè basato sureti neurali artificiali) alla rappresentazionedella conoscenza. Il primo è anche comune-mente detto approccio “simbolico”, e — percontrasto — il secondo viene detto approc-cio “sub-simbolico”.

5. RAPPRESENTAZIONEDELLA CONOSCENZA:L’APPROCCIO SIMBOLICO

Già si è accennato a J. McCarthy il quale, giànel 1958, sviluppò il linguaggio di program-mazione per eccellenza dell’IA, il celeberrimoLISP, e l’Advice Taker. Già in quegli anni eglidelineava quello che è diventato l’approcciosimbolico (o logicista) alla IA. Esso consistevanel rappresentare — utilizzando un opportu-no linguaggio formale — in una “base di co-noscenza” (BC) tutto quello che un agente co-nosce su un dato mondo (rappresentazioneesplicita della conoscenza) e da questa basedi conoscenza trarre le conclusioni necessariea far agire l’agente in modo “intelligente”. Imeccanismi inferenziali permettono di rende-re esplicita anche conoscenza che nella BCnon è esplicitamente rappresentata, simulan-do ragionamenti del tipo del classico sillogi-smo aristotelico per cui se in BC ho che “So-crate è un uomo” e che “Tutti gli uomini sonomortali”, posso dedurre sì che Socrate è unuomo (direttamente contenuto in BC) ma an-

che che Socrate è mortale (implicitamentecontenuto in BC e dedotto con la regola di in-ferenza del modus ponens). Questo tipo dirappresentazione e uso della conoscenza ri-corda molto da vicino le teorie assiomatichein matematica: la conoscenza su un dato pez-zo di mondo (per esempio, i gruppi) viene rap-presentata in forma di assiomi (gli assiomi suigruppi: esistenza di una operazione associati-va, esistenza di una identità, di un inverso) dacui si traggono conclusioni (i teoremi, cioè leproprietà che valgono nei gruppi).La rappresentazione della conoscenza in IA siavvicina molto alla logica matematica, ma altempo stesso ne differisce grandemente:mentre, infatti, in matematica la conoscenzaè di tipo statico (per esempio, se una struttu-ra matematica è un gruppo commutativo lo èper sempre, e le sue proprietà per sempre ri-marranno vere), in IA si vuole rappresentareuna realtà che cambia dinamicamente, in cuiquindi proprietà possono passare dal vero alfalso, semplicemente perché è cambiato ilquadro di riferimento e sono state eseguiteazioni che hanno falsificato cose che primaerano vere (o viceversa).La specificità della conoscenza da trattare neisistemi di IA ha portato McCarthy a proporrelo sviluppo di una “teoria della conoscenza”cioè lo sviluppo di una nuova logica (o me-glio, di nuove logiche) che permettesse di de-scrivere rappresentazioni del mondo e deisuoi cambiamenti, e che giocasse un ruoloanalogo a quello svolto dal calcolo nella fisicae dalla logica classica nella matematica. Co-me già detto, infatti, la logica matematica sioccupa di enti teorici indipendenti dal tempo.L’IA, invece, non può permettersi di trascura-re la conoscenza e le credenze che un agenteha su un dato mondo (che possono differireda ciò che in quel mondo è vero, semplice-mente perché l’agente ha una conoscenzaparziale o errata), le azioni, gli effetti delleazioni, quindi i cambiamenti. In altre parole,le logiche per l’intelligenza artificiale devonopermettere di gestire il tempo, lo spazio, l’e-voluzione dei contesti di riferimento, le varia-zioni dell’ambiente e la conoscenza che unagente ha sul mondo, i cambiamenti ad essaapportati mediante percezione ecc..Lo studio di logiche (dette anche formalismi)per la rappresentazione della conoscenza è

M O N D O D I G I T A L E • n . 2 - g i u g n o 2 0 0 4

1

0

0

0

1

10

stato ed è molto attivo e si concentra su dueaspetti: da una parte la forma sintattica chele formule debbono avere affinché la cono-scenza che esse “incorporano” sia riconosci-bile e utilizzabile dal sistema, dall’altra ilmeccanismo inferenziale che dalla cono-scenza espressa in questo formalismo per-mette di trarre conclusioni. Mentre del for-malismo si vuole che sia espressivo, concisoe facile da usare, dell’apparato deduttivo sivuole che permetta solo di trarre conclusionivalide (correttezza) e possibilmente sia ingrado di trarle tutte (completezza). Trattan-dosi di rappresentazioni di realtà complesseè subito evidente che ci si scontra con ungrosso problema di complessità computazio-nale: complessità spaziale, cioè lo spazio dimemoria occupato dalla BC e lo spazio di me-moria necessario al meccanismo inferenzialeper fare le sue deduzioni; complessità tem-porale, cioè il tempo necessario a raggiunge-re le conclusioni. Mentre ci si può acconten-tare di un apparato inferenziale incompleto,se questo favorisce un incremento dell’effi-cienza, certo non si vuole per un agente intel-ligente un apparato inferenziale non corret-to. Proprio per incrementare l’efficienza delleinferenze, una tecnica che è attualmente og-getto di ricerca è quella di operare opportunetrasformazioni della BC, dette compilazioni.Queste possono essere eseguite off-line, edessere, quindi, molto utili se su di esse si puòscaricare la complessità del problema e sem-plificare di conseguenza l’elaborazione da ef-fettuare on-line quando cioè all’agente è ef-fettivamente richiesto di agire e/o risponde-re a specifiche domande.Un problema cruciale in rappresentazionedella conoscenza in IA è stato (ed è) quellodella rappresentazione della conoscenza in-certa. Ci si trova di fronte a due tipi di incer-tezza: una frase di cui non si sa se è vera ofalsa (per esempio, “il Presidente Bush inquesto momento dorme”) o una frase di cuinon si sa stabilire con esattezza la verità,semplicemente perché non ha senso (peresempio, “Mario è giovane”). Nel primo casosi ha bisogno di formalismi che permettanodi trarre conclusioni anche se non si ha unaconoscenza completa della situazione (peresempio, è possibile trarre tutte le conclusio-ni che non riguardino lo stato di vigilanza di

Bush), e che permettano di aggiornare le no-stre conclusioni in situazioni in cui la cono-scenza viene aggiornata (per esempio, un at-to di percezione può aggiornare la BC con unnuovo fatto che dice che Bush, prima sveglio,ora dorme). Per trattare questo tipo di cono-scenza sono state fatte molte proposte. Lapiù famosa forse è la “logica dei default” pro-posta da R. Reiter nel 1980. Questa permettedi trarre conclusioni in situazioni in cui si sache una proprietà vale generalmente, manon necessariamente per tutti gli elementi diuna certa classe. La logica dei default non ri-chiede nessuna modifica alla forma delle for-mule in BC, ma consiste nel modificare le re-gole di inferenza facendole diventare regole“di default”: ogni volta che si sa che per glioggetti di tipo A tipicamente vale la proprietàB, si introduce una regola del tipo: “Se vale Ae in assenza di informazione che me lo impe-disca4, concludo B, allora B prende il nome di“conclusione di default”. L’esempio più notodi ragionamento default è quello per cui “sequalcosa è un uccellino, in assenza di infor-mazione che lo neghi, possiamo concludereche esso vola”. In base a questa regola di de-fault si può concludere che l’uccellino Tittivola in tutti i casi in cui non si sappia che haun’ala rotta, che se lo è mangiato Gatto Silve-stro ecc.. Ma è evidente che questa conclu-sione può essere smentita non appena si ac-

M O N D O D I G I T A L E • n . 2 - g i u g n o 2 0 0 4

1

11

0

0

0

1

4 In questo caso “impedire” vuol dire essere con-traddittorio con B.

quisisca maggiore conoscenza sul mondo, oil mondo abbia subito un’evoluzione che in-valida la proprietà dedotta per default.Nel secondo caso, si ha bisogno di rappre-sentare verità “sfumate”. Nel mondo reale ol-tre a fatti che sono veri o falsi in modo bina-rio, come in matematica, ci sono fatti (moltidi più?) la cui verità è parziale, o da valutarerelativamente a un dato contesto. C’è tuttauna gamma di “valori di verità” che vanno dalvero al falso, quali ad esempio quelli che ser-vono a descrivere la proprietà “essere alto”,“essere giovane” ecc.. Per rappresentarequesto tipo di conoscenza “incerta” sonostate fatte varie proposte, la più nota dellequali si deve a L. Zadeh che, già dagli anniSessanta, ha introdotto la logica fuzzy, o sfu-mata. Studiata e sviluppata, a partire daglianni Novanta ha trovato ampie applicazioniin robotica e nello sviluppo di apparati fisicicomplessi.

6. L’APPROCCIOSUB-SIMBOLICO: LE RETINEURALI ARTIFICIALI

A partire dalla seconda metà del secolo scor-so, attraverso l’introduzione di reti di unità lo-giche elementari (drastiche semplificazionidel neurone biologico proposte dal neurofi-siologo W. S. McCulloch e dal logico W. H. Pittsnel 1943), si è tentato di realizzare artefatti in-telligenti aggirando l’ostacolo rappresentatodalla necessità che un programmatore umanone stabilisse a priori il comportamento, piani-ficandolo nella stesura dei suoi programmi.L’architettura parallela delle reti neurali ar-tificiali si fonda su un grande numero diunità elementari connesse tra loro su cui sidistribuisce l’apprendimento. Esse hanno lacapacità di apprendere da esempi senza al-cun bisogno di un meccanismo che ne de-termini a priori il comportamento. Eseguo-no i loro compiti in modi completamente di-versi da quelli delle macchine di Von Neu-mann: stabilendo autonomamente le rap-presentazioni interne e modificandole sullabase della presentazione ripetuta di esem-pi, esse apprendono dai dati d’esperienza.Addestrare una rete neurale artificiale corri-sponde a effettuare un certo numero di ciclidi apprendimento grazie ai quali la rete ge-

nera una rappresentazione interna del pro-blema. Una volta che, ad esempio, ha impa-rato ad associare tra loro alcune immagini,la rete effettuerà le associazioni corrette an-che se le immagini in ingresso sono parzial-mente differenti da quelle utilizzate nelle fa-si di apprendimento.Il neurone di McCulloch e Pitts è un’idealizza-zione assai semplificata del neurone biologi-co. Si tratta, in sostanza, di un’unità logica ingrado di fornire un’uscita binaria (zero oppu-re uno) in base al risultato di un semplice cal-colo effettuato sui valori assunti da un certonumero di dati che si trovano sui suoi canalid’ingresso. A ognuno dei canali di ingressoviene assegnato un valore numerico, o peso.L’unità logica è caratterizzata da un valorenumerico, un valore di soglia. Ogni singolaunità logica confronta continuamente lasomma pesata dei dati che si presentano aisuoi canali di ingresso con il valore della so-glia. Se questo viene superato allora sul ca-nale di uscita si troverà il valore uno. Altri-menti l’output sarà zero. L’analogia con ilneurone biologico è evidente, così come l’e-strema semplificazione rispetto ai reali pro-cessi che avvengono a livello cerebrale nellecellule neurali. I canali di ingresso corrispon-dono, in questo modello, ai dendriti biologicimentre il canale di uscita rappresenta l’asso-ne. I pesi delle connessioni sono in relazionecon le intensità delle sinapsi mentre il calcoloeffettuato dalle unità logiche a soglia simulaapprossimativamente quello eseguito daineuroni biologici: i quali sulla base dell’inte-grazione dei segnali post-sinaptici, “decido-no” se inviare o no un impulso nervoso lungoi loro assoni.Una rete di neuroni artificiali di McCulloch ePitts può apprendere dall’esperienza se siconsente che i pesi delle connessioni possa-no essere modificati, sulla base dei dati diesperienza, con l’obiettivo di riuscire a gene-rare, dopo un periodo di apprendimento, lerisposte desiderate a date sollecitazioni.L’istruttore fornirà, durante la fase di appren-dimento, l’insieme delle risposte attese allevarie sollecitazioni, permettendo alla rete dimodificare progressivamente i pesi delle con-nessioni con l’obiettivo di avvicinarsi alle ri-sposte desiderate. La rete adeguerà i pesi se-condo qualche specifico algoritmo in grado di

M O N D O D I G I T A L E • n . 2 - g i u g n o 2 0 0 4

1

0

0

0

1

12

ridurre il più possibile la distanza tra la rispo-sta reale e quella assegnata dall’istruttore. Ilmeccanismo noto come “retro-propagazionedell’errore” consiste nel calcolo delle deriva-te (effettuato rispetto ai pesi delle connessio-ni) della somma dei quadrati degli scarti trauscite effettive e uscite attese. L’operazioneviene ripetuta fino al raggiungimento del li-vello di apprendimento desiderato.

7. IL DIBATTOSULL’INTELLIGENZADELLE MACCHINE

Il dibattito tra approccio logico-simbolico esub-simbolico (reti neurali) è stato molto for-te fino al passato recente e ha assunto tonipiuttosto accesi. La tendenza odierna è, inve-ce, basata su una ragionevole integrazionetra le varie proposte. Più in generale, l’ap-proccio contemporaneo consiste in un atteg-giamento di apertura nei confronti dello svi-luppo di qualunque tipo di sistema in gradodi esibire comportamenti intelligenti; sfrut-tando la logica (che si preoccupa della de-scrizione strutturale), la statistica (che cercarelazioni e associazioni basandosi sull’osser-vazione di grandi quantità di dati) e le retineurali (che apprendono dall’esperienza),l’IA oggi si presenta come una disciplina ma-tura e libera da condizionamenti “ideologi-ci”. I ricercatori di IA sanno bene che le intel-ligenze naturali sono in grado di prendere de-cisioni, risolvere problemi e friggere uovagrazie ad una sorta di approccio integrato.“Mi propongo di affrontare il problema se siapossibile per ciò che è meccanico manifesta-re un comportamento intelligente”. In que-sto modo, introduceva l’argomento dellemacchine intelligenti A. M. Turing nel 1948.La scandalosa domanda di Turing non ha maismesso di far riflettere scienziati e filosofi: aprescindere dai metodi scelti dai ricercatoridi IA, molti studiosi continuano a interrogarsiattorno alla questione dell’intelligenza dellemacchine. Pur non essendo particolarmentecolpiti dal dibattito in corso sull’argomento,si ritiene che non si possa trascurarlo. Si farà,pertanto, qualche cenno alla discussione re-lativa alla possibilità che l’uomo possa co-struire o meno macchine intelligenti quantolui o, forse, più intelligenti di lui.

Il parere di Turing era presumibilmente favo-revole a questa eventualità allorché egli for-mulò la sua domanda. Una domanda retori-ca, dunque, pensata per stabilire, una voltagiunti al cospetto di una macchina, come te-starne l’eventuale intelligenza. Turing era in-teressato al comportamento della macchina.Se, in buona sostanza, il comportamento diuna macchina fosse indistinguibile da quellodi un essere umano allora, per Turing, la mac-china andrebbe definita come un agente in-telligente.Il superamento del test di Turing da parte diuna macchina può realmente essere condi-zione sufficiente per stabilirne l’intelligenza?Non era certamente di questo parere J. R.Searle allorché propose il suo celebre esperi-mento della stanza cinese. Si immagini di rin-chiudere in una stanza una persona che nonconosca il cinese e che la stanza contenga unarchivio ben organizzato che raccoglie tuttigli ideogrammi cinesi e un manuale, scritto inuna lingua nota al protagonista dell’esperi-mento, che descriva senza alcuna ambiguitàtutte le regole di associazione degli ideo-grammi cinesi. Fuori dalla stanza cinese sitrovano alcuni turisti cinesi che introducononella stanza ideogrammi corrispondenti auna conversazione in cinese. Consultandoarchivio e manuale, il nostro amico chiuso

M O N D O D I G I T A L E • n . 2 - g i u g n o 2 0 0 4

1

13

0

0

0

1

nella stanza manipolerà gli ideogrammi inse-riti associandoli ad altri e risponderà ai cinesiattenendosi rigorosamente alle regole. L’uo-mo, che non sa il cinese, è pertanto in gradodi conversare con il gruppo di turisti cinesipur non capendo nulla della discussione incorso. La stanza cinese, nel suo complesso,supera così il test di Turing. Naturalmentel’uomo nella stanza rappresenta il calcolato-re, il manuale corrisponde al programmamentre gli estensori del manuale sono i pro-grammatori. La critica di Searle al test di Tu-ring si può riassumere affermando che men-tre un programma manipola simboli, cioè èformale o sintattico, il nostro cervello annet-te significati ai simboli: è semantico.Ma si è proprio certi della validità di questiargomenti? Forse la pura manipolazione for-male di simboli è sufficiente, dato un livelloadeguato di complessità, a far emergere si-gnificati. Inoltre: perché è tanto fastidiosoammettere che il signore nella stanza mani-pola i simboli senza capirne il significato?Non è esattamente quanto accade ai singolineuroni del nostro cervello? Ogni unità dielaborazione di quella fitta rete manipolaflussi di segnali elettro-chimici senza annet-tere a essi alcun significato: il quale presu-mibilmente (ma chi lo può asserire con cer-tezza?) emerge dalla complessità dell’orga-nizzazione.Il dibattito filosofico è molto acceso e, va det-to, non è privo di un certo fascino. Tuttavia, sidesidera enfatizzare qui che esso, forse, nonè molto importante: i risultati della ricerca inIA sono stati e saranno utili indipendente-mente dal fatto che sia possibile produrre ar-tificialmente l’intelligenza. Inoltre, en pas-

sant, va di certo riconosciuto all’informaticaavanzata di aver saputo produrre risultatiche permettono simulazioni di piccoli fram-menti di intelligenza, fornendo talora stru-menti utilizzabili per una migliore compren-sione dei meccanismi soggiacenti al funzio-namento del cervello.I ricercatori di IA, generalmente abbastanzaindifferenti al dibattito filosofico, hanno pro-ceduto con decisione verso la realizzazionedi sistemi intelligenti dimostrando che, esat-tamente come nel caso dell’ozioso dibattitosulle macchine volanti, l’ultima parola spettapiù agli ingegneri che ai filosofi.

8. IL PUNTO SULLE APPLICAZIONICome già osservato in precedenza, negli annirecenti sia i contenuti che le metodologiedell’IA sono radicalmente mutati rispetto alpassato: l’intuizione ha lasciato spazio, nel-l’odierna IA, ai teoremi e alle evidenze speri-mentali. Si può certo asserire che l’IA ha ac-quisito tutte le caratteristiche di una vera epropria scienza. Dal punto di vista applicati-vo, l’IA in passato è stata criticata perchétroppo spesso si è dedicata a rozze semplifi-cazioni e/o grossolane simulazioni dellarealtà. Esiste, infatti, una pletora di esempiminimali, che - come precedentemente detto- sono noti col nome di toy problem, il più fa-moso dei quali è il “mondo dei blocchi” (untavolo — infinito — con sopra appoggiati al-cuni cubetti colorati, oggetto delle azioni diun braccio robotico che li sposta da una posi-zione all’altra, obbedendo alle più elementa-ri leggi della fisica). La raggiunta maturitàdella ricerca in IA fa sì che essa sia oggi inte-ressata a fornire soluzioni utili nel mondoreale. Le attività e i campi applicativi sono tal-mente numerosi da rendere difficile realizza-re un elenco esaustivo. Qui di seguito si ri-portano alcune aree dell’IA che hanno rag-giunto la capacità di sviluppare applicazioniche meritano di essere evidenziate per il loronotevole impatto, in alcuni casi, e per le pro-mettenti potenzialità, in altri.❙ Pianificazione e schedulazione autonome

- Un esempio è costituito dagli agenti remo-ti della NASA che, a milioni di chilometri dal-la Terra, controllano e pianificano le opera-zioni di un veicolo spaziale. Tali agenti re-moti sono in grado di generare piani sofisti-cati e dettagliati per il raggiungimento diobiettivi decisi (e specificati ad alto livello)da Terra, e di monitorare le operazioni delveicolo spaziale man mano che esegue icompiti assegnati.❙ Controllo autonomo - In questo caso, l’e-sempio forse più impressionante è costituitodal sistema di visione Alvinn, addestrato aguidare un veicolo. Piazzato su un’automobi-le che ha attraversato gli Stati Uniti per 2850miglia, il computer ha controllato la guida delveicolo per il 98% del tempo. ❙ Pianificazione logistica - Un caso in cui que-sto tipo di applicazione è stato utilizzato nelmondo reale è costituito dalla guerra del

M O N D O D I G I T A L E • n . 2 - g i u g n o 2 0 0 4

1

0

0

0

1

14

Golfo del 1991, durante la quale la pianifica-zione e la schedulazione del trasporto di oltre50 000 veicoli fu affidato dall’esercito ameri-cano a un sistema di IA in grado di tenere con-to di destinazioni, strade, conflitti e di risolve-re problemi che, con i metodi tradizionali,avrebbero richiesto tempi assai superiori.❙ Robotica - In questo campo le applicazioni almondo reale sono numerose e sempre più affi-dabili e consolidate. Esse vanno da quelle nel-lo spazio e nei fondali marini, a quelle in am-bienti ostili e/o insicuri per operatori umani,alla robotica di servizio, ai primi robot di impie-go domestico: un esempio di questa ultimaapplicazione è il robot autonomo aspirapolve-re o tagliaerba. Per un’applicazione molto im-portante e ormai (relativamente) diffusa dellarobotica si pensi che oggi molti chirurghi utiliz-zano assistenti robot per delicate operazioni di(micro)chirurgia e che sono già state eseguitecon successo operazioni chirurgiche in cui l’as-sistente robot e il paziente, da una parte, e ilchirurgo, dall’altra, erano fisicamente distanti,addirittura in due diversi continenti.❙ Diagnosi - In questo campo ci sono pro-grammi in grado di effettuare diagnosi inspecifiche aree della medicina, oppure di in-dividuare guasti in sistemi fisici complessi.Il livello delle diagnosi di tali programmi èparagonabile a quello delle analisi che po-trebbero essere realizzate da specialisti eprofessionisti.❙ Comprensione del linguaggio - Qui le ap-plicazioni sono ormai innumerevoli e il livel-lo di sofisticazione dei programmi è tale daessere, in certi settori, superiore a quellodegli esseri umani: il programma Proverb,sviluppato da Littmann nel 1999, può risol-vere complicati cruciverba (che richiedonocompetenze e conoscenze di alto livello)che molti esseri umani non sanno affronta-re. La ricerca di informazioni sul web costi-tuisce un settore applicativo molto impor-tante per la ricerca sul linguaggio scritto(comprensione, reperimento di informazio-ni sulla base dei contenuti di documenti enon di semplici confronti testuali, estrazio-ne di riassunti, traduzione automatica),mentre la diffusione di servizi telefonici edei call center ha dato una notevole spintaalla diffusione di sistemi di comprensione egenerazione di linguaggio parlato.

❙ Gioco - Anche la ricerca sui giochi, presen-te già dagli albori dell’IA e palestra per leprime rudimentali tecniche di ricerca auto-matica di soluzioni e di apprendimento au-tomatico, ha raggiunto una sua maturitàapplicativa. L’esempio più evidente è costi-tuito dal gioco degli scacchi: come osserva-to in precedenza, un programma — DeepBlue — già sette anni fa ha battuto un cam-pione mondiale. La ricerca sui programmiche giocano a scacchi prosegue, anche se-guendo tecniche diverse da quelle impiega-te in Deep Blue, e — cosa decisamente in-teressante — influenza il comportamentodei giocatori umani: i giocatori di scacchi,infatti, ormai si allenano specificamenteper giocare contro i computer. Non sembratroppo azzardato prevedere che non sialontano il momento in cui gli esseri umaninon avranno più chance di battere un com-puter nel gioco degli scacchi.

9. UN FRAMMENTO DI FUTURO:INTELLIGENZA NELL’AMBIENTEE DOMOTICA

L’IA è, attualmente, forte del raggiungimen-to di risultati importanti, sia nello sviluppodi sistemi software, che nel campo moltopiù “visibile” della robotica. Di particolareimpatto sul grande pubblico sono: l’impie-go di robot per usi chirurgici, per l’esplora-zione spaziale interplanetaria e nei campi dibattaglia (in particolare gli Unmanned Ae-

rial Vehicles, UAV, i veicoli senza piloti). Laricerca in IA sta ricevendo una grande spintadai recenti avvenimenti internazionali, in

M O N D O D I G I T A L E • n . 2 - g i u g n o 2 0 0 4

1

15

0

0

0

1

particolare dalle applicazioni riguardanti lasicurezza e da quelle militari5.Non è possibile qui passare in rassegna tutti icampi in cui ci si attendono importanti svilup-pi portati dalla intelligenza artificiale nel pros-simo futuro. Tra tanti è opportuno sceglierneuno, che sta diventando sempre più impor-tante, anche per le significative implicazionieconomiche, visto che prevede lo sviluppo diprodotti che potranno trovare impieghi dimassa. Il settore è quello delle applicazionidell’IA nella vita quotidiana, in particolare nel-la realizzazione della casa intelligente.La realizzazione della casa intelligente, o“domotica”, rappresenta una palestra moltoimportante per varie discipline e tecnologie,in particolare per applicazioni di robotica co-gnitiva. La chirurgia o l’esplorazione dei pia-neti, quali domini per applicazioni robotiche,costituiscono certamente ambiti affascinan-ti, utili, e assolutamente imprescindibili perlo sviluppo della disciplina e per il progressoscientifico e tecnologico. Ma solo quando siavrà realizzato un’IA per applicazioni dome-stiche e per attività di vita quotidiana si potràasserire di aver raggiunto un obiettivo appli-cativo che entrerà nella vita di tutti.Cosa si intende con l’espressione “casa intel-ligente”? Si tratta di una applicazione inge-gneristica alla portata di una tecnologia chese, forse, non è ancora completamente apunto è di certo assai prossima a divenirlo. È

una tecnologia che utilizza sensori per moni-torare apparecchi, impianti, fughe di gas;ma, ovviamente, non solo. Essa consentirà diazionare elettrodomestici da fuori casa e dicontrollarne lo stato. Si può facilmente im-maginare che essa potrà occuparsi in modoautomatico di chiamare la manutenzione delfrigorifero, della lavastoviglie, della caldaia edella lavatrice se e quando necessario, o difare la spesa al supermercato.Nel passato, oltre che affidare i problemi del-la sicurezza alla sensoristica, si pensava cheil controllo e l’utilizzo di elettrodomestici dal-l’esterno fosse utile per consentire agli uten-ti di poter svolgere funzioni in casa pur es-sendo fuori per lavoro o per diletto.Oggi, questo punto di vista è considerevol-mente mutato: si pensa a rendere più sicura,accogliente e vivibile la casa per chi la abita. Inparticolar modo, per coloro che hanno qual-che forma di debolezza, dovuta a inabilità o al-l’età avanzata. Si pensi, per esempio, al casodei malati di Alzheimer: queste persone, quan-do la malattia si trova in uno stadio avanzato,possono fare azioni in modo inconsapevole,per esempio uscire da casa, rischiando di arre-care danno a sé stesse. Si tratta di eventualitàche potrebbero essere tenute sotto controlloda un ambiente intelligente che venisse pro-grammato per evitare tali circostanze.Nella domotica confluiranno i risultati della ri-cerca in intelligenza artificiale, robotica – inparticolare robotica cognitiva – sensoristica,telecomunicazioni e del pervasive computing.Sensori e monitoraggio potranno essere pro-ficuamente utilizzati per la sicurezza degliambienti. Per quanto attiene alla sicurezzapersonale da intrusioni, questa sarà garanti-ta da video citofoni, video telefoni nonché daapplicazioni di biometria.Il tele-monitoraggio di malattie croniche, rea-lizzato mediante sistemi che ricordano all’u-tente di prendere certe medicine di cui ne-cessita, o di fare certe operazioni e svolgeredeterminati compiti, consentirà di garantirnela sicurezza personale e di seguire da vicino isuoi eventuali problemi di salute.Ma si può anche facilmente prevedere cheservizi quali la pulizia di casa siano delegati arobot mobili e autonomi. Già oggi sono in ven-dita robot autonomi aspirapolvere o tosaerba.Non solo: chi non desidererebbe un robot-as-

M O N D O D I G I T A L E • n . 2 - g i u g n o 2 0 0 4

1

0

0

0

1

16

All Human Brains1040

1030

1020

1010

10–10

10Calc

ulat

ions

per

sec

ond

One Human Brain

One Mouse Brain

One Insect Brain

1900 1940 1980 2020 2060 2100

5 Dopo l’inizio della guerra in Iraq, i finanziamentida parte del Dipartimento della Difesa USA aigruppi che fanno ricerca in IA nelle più prestigioseuniversità statunitensi sono aumentati del 43%.

sistente personale che si occupasse, solo perfornire qualche esempio, di ricordargli sca-denze, suggerirgli azioni, fargli piccoli servigio aiutarlo a riordinare le foto di famiglia?Infine, non vanno dimenticati il tempo libero egli aspetti ludici. Tele-conferenze, realtà vir-tuale e altro dovrebbero favorire la socializza-zione e promuovere attività divertenti e rilas-santi: incoraggiando a usare la fantasia e atrarre giovamento dagli aspetti giocosi del-l’informatica, suggerendo, tra l’altro, nuovimezzi e strumenti per intrattenere rapporti in-terpersonali e/o realizzare amicizie.D. Norman in The invisibile computer, un li-bro che Business Week ha definito “la bib-bia del pensiero post PC”, esprime l’ideache la casa del prossimo futuro sarà intelli-gente, ma senza che tale circostanza com-porti la presenza visibile di cavi e macchina-ri ingombranti. L’ambiente sarà pervaso didispositivi intelligenti che coopererannocon gli abitanti per accrescere il lorocomfort e la loro sicurezza.Molta di questa tecnologia è già a disposizio-ne dell’uomo. Questa considerazione è im-portante perché ci rassicura: non si sta par-lando di idee di autori visionari che si realiz-zeranno in un non precisato futuro. Si statrattando di tecnologie già ben consolidateche è possibile controllare e che si conosco-no assai approfonditamente. Ci si muove suun territorio noto e ci si riferisce a un futuroragionevolmente prossimo.Si tratta di un futuro realistico nel quale si po-trà contare su un rapporto uomo-macchinasofisticato e adattivo. Si potrà contare sullacostruzione di macchine dotate di (un certo li-vello di) cognizione e di emozioni e che comu-nicano in linguaggio naturale. Si tratta di unlinguaggio carico di informazioni implicite, didati d’esperienza e di conoscenze che per-mettono di comprendere le sottigliezze, risol-vere le ambiguità, cogliere le arguzie e capire isottintesi in una qualunque conversazione.Ogni volta che si parla di supporto ad attivitàumane e cognitive ci si deve rendere contodella delicatezza del problema: da una parte,il controllo deve rimanere all’essere umano,perché non lo si vuole rendere prigionierodella sua casa e/o del suo robot assistente-personale. Al tempo stesso è necessario do-tare di una certa autonomia il robot il quale

deve saper reagire a imprevisti nonché esse-re in grado di sopperire a difetti di memoriae/o a debolezze cognitive dell’essere uma-no. Per questo sono ancora necessarie tantaricerca e sperimentazione.

10. CONCLUDENDO

Il programma di costruire macchine in grado dicomportarsi come noi non è mai stato abban-donato: ma oggi i ricercatori di intelligenza ar-tificiale si occupano di una disciplina scientifi-ca matura che, pur ancorata al sogno origina-le, fornisce soluzioni a problemi importanti eproduce sistemi utili all’uomo e alla società.Le sfide dell’IA sono innumerevoli e promet-tenti. La ricerca continua, nessuno dei pro-blemi aperti dell’IA è veramente e completa-mente chiuso, su tutti si continua a migliora-re, in un circolo virtuoso che fa corrispondereal progredire delle soluzioni teoriche un pro-gresso notevole della tecnologia, e dal pro-gresso della tecnologia, vede emergere nuo-ve sfide teoriche.La palestra dell’IA del prossimo futuro sichiama Robocup (www.robocup.org): il pro-getto lanciato nel 1997 con il primo campio-nato mondiale tenuto proprio nell’anno in cuisi chiudeva la sfida degli scacchi, vuole arri-vare, entro il 2050, a realizzare una squadradi robot calciatori autonomi (che giocano ri-spettando le regole internazionali) in gradodi sconfiggere la squadra di calciatori umanicampione del mondo.Robocup sta diventando una grande compe-tizione internazionale che vorrebbe coinvol-gere tutta la ricerca in robotica e in intelligen-za artificiale; l’idea è che lo stimolo dellacompetizione induca a integrare al meglio lediverse tecnologie che, una volta ottimizzatesul gioco del calcio, potranno poi essere tra-sferite a problemi concreti e significativi perl’industria e per i servizi.Con Robocup la comunità dei ricercatori di IAsembra richiudersi intorno a un gioco, piutto-sto che affrontare problemi di ricerca “seria”. Ilgioco è però di una difficoltà non affrontabileagli attuali livelli di conoscenza e di sviluppotecnologico, quindi, affascina anche chi nonentrerebbe mai in uno stadio per vedere unapartita di pallone perché ritiene che il calcio siaun gioco … che non richiede molta intelligenza.

M O N D O D I G I T A L E • n . 2 - g i u g n o 2 0 0 4

1

17

0

0

0

1

M O N D O D I G I T A L E • n . 2 - g i u g n o 2 0 0 4

1

0

0

0

1

18

La moderna visione di un sistema di intelligenza artificiale consiste nel considerarlo come un agente (o una molteplicità di agenti) ingrado di espletare compiti di alto livello. I filoni di ricerca verranno, quindi, qui di seguito illustrati in termini delle capacità di cui vo-gliamo che l’“agente intelligente” sia dotato. Elencheremo dapprima i filoni di ricerca più classici, poi quelli più moderni. Tralascia-mo completamente i filoni applicativi (per esempio, “IA e medicina” oppure “IA e formazione”), che, pur richiedendo soluzioni spe-cifiche per problemi peculiari del campo, necessiterebbero di troppo spazio.

RISOLUZIONE AUTOMATICA DI PROBLEMI (PROBLEM SOLVING)

Gli agenti per il problem solving sono sistemi che identificano sequenze di azioni per il raggiungimento di stati desiderati. Glialgoritmi di ricerca automatica di soluzione si dividono in “non informati”, cioè sprovvisti di informazioni diverse dalla sempli-ce definizione del problema da risolvere, e che, quindi, eseguono una ricerca uniforme nello spazio degli stati e algoritmi di ri-cerca “informati”, cioè provvisti di informazioni utili per individuare la soluzione. Mentre i primi diventano inutilizzabili appenala complessità del problema aumenta, i secondi possono essere molto efficaci se dotati di una buona “euristica”, cioè di unafunzione che – utilizzando informazioni sul dominio del problema – permetta di guidare la ricerca più rapidamente verso unasoluzione.

RAPPRESENTAZIONE DELLA CONOSCENZA E RAGIONAMENTO AUTOMATICO

Si tratta di concetti fondamentali per l’intera intelligenza artificiale. La conoscenza e il ragionamento aiutano sia noi esseri umaniche gli agenti artificiali ad avere comportamenti adeguati in ambienti complessi e/o parzialmente osservabili. Un agente basato sul-la conoscenza può combinare le conoscenze di carattere generale con i dati percepiti per dedurre aspetti non espliciti e/o nascostiche possono essere utili per selezionare e scegliere tra comportamenti alternativi. La ricerca in questo campo riguarda il progetto dilinguaggi, metodi e tecniche per rappresentare conoscenza su domini applicativi, e algoritmi e metodi per fare inferenze e trarrequindi conclusioni valide nel dominio di interesse. Per quanto riguarda i linguaggi, il punto cruciale è il potere espressivo (Possorappresentare il tempo? Posso rappresentare relazioni spaziali? Posso rappresentare la conoscenza di diversi agenti in modo cheessa sia “privata” per ciascuno di essi e non accessibile ad altri?). Per quanto riguarda i meccanismi inferenziali, gli aspetti crucialisono la correttezza e la completezza, e — non meno importante — la complessità di calcolo.

PIANIFICAZIONE AUTOMATICA

Dati un dominio applicativo, la descrizione di uno stato di tale dominio in cui l’agente intelligente si trova (detto stato iniziale), ladescrizione di un obiettivo (o stato finale) che l’agente vuole raggiungere e, infine, la descrizione dell’insieme delle azioni cheesso può compiere, la pianificazione corrisponde all’identificazione di una sequenza di azioni necessarie per raggiungere unobiettivo. Si parla di “pianificazione classica” nel caso in cui gli ambienti siano completamente osservabili, deterministici, stati-ci (tali cioè per cui qualunque variazione è causata solo dall’agente) e discreti dal punto di vista temporale, delle azioni, degli og-getti, degli effetti. È facile convincersi che raramente i domini di interesse per applicazioni pratiche godono di queste proprietà.La ricerca di algoritmi efficienti (e completi) per la pianificazione automatica in ambienti non deterministici e parzialmente os-servabili è oggetto di intensa ricerca.

RAGIONAMENTO PROBABILISTICO

Spesso un agente non ha accesso a tutte le informazioni relative all’ambiente con cui deve interagire e deve, pertanto, decidere incondizioni di incertezza, basandosi, quindi, su ragionamenti di tipo probabilistico. L’incertezza modifica i modi con cui gli agentiprendono decisioni: in condizioni di incertezza la decisione più razionale è quella che seleziona le azioni che corrispondono alla piùelevata utilità attesa, ottenuta mediando su tutti i possibili risultati dell’azione.

APPRENDIMENTO AUTOMATICO E DATA MINING

L’idea fondamentale relativa all’apprendimento è quella secondo cui quanto viene percepito da un agente dovrebbe essere utiliz-zato non solo per il suo comportamento nell’ambiente percepito al momento presente, ma anche immagazzinato ed elaborato peraccrescere la sua abilità nelle azioni future. L’apprendimento riguarda la capacità di un agente di osservare i risultati dei processidelle sue stesse interazioni con l’ambiente. Si parla di tecniche di apprendimento induttivo intendendo tecniche di tipo simbolico(per esempio, l’apprendimento di alberi di decisione a partire da esempi). Si parla poi di apprendimento connessionistico (quelloche riguarda l’addestramento di reti neurali) e di apprendimento statistico (quello che si basa su tecniche di tipo statistico). Con l’e-spressione “data mining” si identificano le tecniche di apprendimento applicate a grandi quantità di dati (per esempio i tabulati del-le telefonate immagazzinati da una grande compagnia telefonica, i tabulati dei consumi di un grande distributore) alla ricerca di re-golarità, regole di comportamento ecc..

Comunicazione

Con il termine comunicazione si intende identificare lo scambio intenzionale di informazioni mediante la realizzazione e la per-cezione di un sistema condiviso di segni convenzionali. La problematica della comunicazione coinvolge il linguaggio, le ambi-guità dello stesso (sia strutturali che semantiche), la disambiguazione, la comprensione del discorso, i modelli probabilisticiecc.. La ricerca nella comunicazione si occupa dell’analisi e della generazione di linguaggio sia scritto che parlato, della tradu-zione automatica, della generazione di riassunti ecc.. Si occupa, inoltre, della interazione tra essere umani e sistemi artificiali informa amichevole e adattiva e anche non verbale.

IIII ffff iiii llll oooo nnnn iiii dddd iiii rrrr iiii cccc eeee rrrr cccc aaaa dddd eeee llll llll ’’’’ iiii nnnn tttt eeee llll llll iiii gggg eeee nnnn zzzz aaaa aaaa rrrr tttt iiii ffff iiii cccc iiii aaaa llll eeee

Bibliografia

[1] Bonarini A.: Sistemi fuzzy. Mondo Digitale, An-no II, n. 5, 2003, p. 3-14.

[2] Burattini E., Cordeschi R.: L’intelligenza artifi-

ciale. Carocci, Roma 2003.

[3] Buttazzo G.: Coscienza artificiale: missione im-possibile? Mondo Digitale, Anno I, n.1, 2002, p.16-25.

[4] Carlucci Aiello L., Cialdea Mayer M.: Invito all’in-

telligenza artificiale. Franco Angeli, Milano 1995.

[5] Castelfranchi Y., Stock O.: Macchine come noi.Laterza, Bari 2000.

[6] Dapor M.: L’intelligenza della vita. Dal caos al-

l’uomo. Springer Italia, Milano 2002.

[7] Dennett D.: Consciousness Explained. Little,Brown and Company, Boston, Toronto, Lon-don 1991 [trad. it. della prima edizione: Co-

scienza. Che cosa è. RCS Rizzoli Libri, Milano1993].

[8] Gori M.: Introduzione alle reti neurali artificiali.Mondo Digitale, Anno II, n. 8, 2003, p. 4-20.

[9] Norman D.A.: The Invisible Computer: Why

Good Products Can Fail, the Personal Computer

Is So Complex, and Information Appliances Are

the Solution. MIT Press, New York 1998.

M O N D O D I G I T A L E • n . 2 - g i u g n o 2 0 0 4

1

19

0

0

0

1

PERCEZIONE

La percezione, ottenuta mediante sensori, è necessaria per fornire all’agente artificiale informazioni sull’ambiente con cui interagi-sce. Tutti i tipi di percezione sono importanti e oggetto di studio. Sono stati particolarmente esplorati la percezione acustica e visi-va. Per quanto riguarda la percezione acustica, la ricerca si focalizza sulla comprensione del linguaggio parlato e su quella della sce-na acustica (per esempio, la localizzazione di sorgenti sonore); per quanto riguarda, invece, la visione artificiale, il riconoscimentodi oggetti (e non solo in particolari scene e condizioni di luce) e la comprensione di scene in movimento restano problemi aperti per-ché particolarmente complessi.

ROBOTICA

I robot sono agenti fisici artificiali che svolgono funzioni e compiti manipolando gli oggetti del mondo fisico. Per questo essi devonoessere provvisti di sensori, per acquisire le informazioni necessarie dall’ambiente, e di attuatori per agire sull’ambiente (ruote, brac-cia meccaniche ecc.). La ricerca in robotica, che per molto tempo aveva seguito strade indipendenti dall’intelligenza artificiale, staottenendo una rinnovata attenzione da parte dei ricercatori di IA, soprattutto per quel che riguarda la progettazione di sistemi robo-tici cognitivi, cioè robot che esibiscono capacità di decisioni autonome di alto livello.

SISTEMI MULTIAGENTE

Un agente artificiale non agisce in situazioni di isolamento: esso deve interagire con esseri umani ma anche con altri sistemi artificiali.La ricerca su sistemi multiagente si occupa della rappresentazione della conoscenza e del ragionamento in situazioni in cui molti agen-ti sono presenti in un sistema, ciascuno dotato della sua conoscenza e del suo “punto di vista” sul mondo. Aspetti particolarmente im-portanti sono la comunicazione, il coordinamento e la pianificazione cooperativa: sono necessari affinché il sistema multiagente pos-sa perseguire efficientemente (distribuendo il carico di lavoro o sfruttando le capacità specifiche di alcuni agenti presenti nel sistema)un obiettivo comune anche in ambienti eventualmente resi ostili dalla presenza di un’altra squadra di agenti avversari.

PROGRAMMAZIONE NATURALE

La programmazione naturale è quella branca della ricerca automatica di soluzioni che si occupa di riprodurre meccanismi che si os-servano in natura. Rientra in questo ambito la ricerca sugli algoritmi genetici, cioè algoritmi di ricerca che simulano i meccanismidella evoluzione darwiniana di popolazioni di individui. Sono di particolare attualità gli algoritmi che riproducono il comportamentodi colonie di animali quali, per esempio, colonie di formiche che — sfruttando opportuni meccanismi di comunicazione — trovanovelocemente il cammino più breve verso l’obiettivo (per esempio, il cibo).

MODELLAZIONE COGNITIVA

La ricerca in intelligenza artificiale ha costantemente tratto lo spunto dai risultati della ricerca in psicologia cognitiva e sperimenta-le, e ha fornito ad essa modelli artificiali (anche se molto grossolani) del cervello. L’evoluzione della ricerca e della tecnologia portaa un raffinamento di questi modelli: una sfida per il prossimo futuro — posta dai cognitivisti inglesi — consiste nell’uso del grid

computing come modello del cervello, e in questo caso il modello può essere più realistico, viste le dimensioni del sistema di calco-lo costituito da una rete ad estensione mondiale.

RAPPRESENTAZIONE DELLE EMOZIONI

Una direzione recente della ricerca sulla comunicazione tra persone e sistemi artificiali è quella della comprensione e della genera-zione di particolari stati emotivi: in particolare quella della comprensione e generazione di situazioni umoristiche. Lo studio del co-siddetto umorismo computazionale dovrebbe, tra l’altro, aiutare a svelare i meccanismi psicologici, ad oggi non ben compresi, checonsentono di cogliere gli aspetti impliciti e riposti del linguaggio naturale che danno origine all’ilarità (caratteristica, a quantosembra, esclusivamente umana). È probabile che tali ricerche possano rivelarsi di grande aiuto nella simulazione di stati emotivi enel miglioramento delle relazioni uomo-macchina.

[10] Russel S., Norvig P.: Artificial Intelligence: A

Modern Approach. Second Edition, PrenticeHall, 2003 [trad. it. della prima edizione: Intelli-

genza Artificiale. Un approccio moderno. UTET-Libreria, Torino 1998].

[11] Williams S.: Storia dell’intelligenza artificiale.Garzanti, Milano 2003.

[12] Zaccaria R.: Aspettando Robot. Mondo Digitale,Anno II, n. 7, 2003, p. 3-18.

Bibliografia delle ImmaginiPagina 5 – Losano M.G.: Storie di automi dalla Greciaclassica alla bella époque. Einaudi, Torino, 1991. Ca-pitolo V, figura 34, p. 102.

Pagina 16 – Luvison A.: Net economy, istruzione, tec-nologie digitali, AEI, Vol. 87, n. 11, 2000, figura 3, p. 36.

Pagina 13 – Bozzo M.: La grande storia del Computer,Ed. Dedalo, Bari, 2001, p. 147.

Pagina 15 – Giuseppe O. Longo: Uomo, Computer:partita a scacchi tra esseri alieni. Corriere della Sera.

LUIGIA CARLUCCI AIELLO è professore ordinario di Intelli-genza Artificiale all’Università di Roma “La Sapien-za”. Ha fornito contributi alla ricerca nella rappresen-tazione della conoscenza e ragionamento automati-co ed esplorato vari settori applicativi dell’IA. Autoredi circa 200 pubblicazioni, ha diretto progetti di ricer-ca italiani ed europei. Fondatrice e socia onorariadell’AI*IA, l’Associazione Italiana per l’IntelligenzaArtificiale, è Fellow della AAAI e dell’ECCAI, le asso-ciazioni americana ed europea di [email protected]

MAURIZIO DAPOR, fisico e giornalista scientifico, è ilresponsabile del Laboratorio Servizi alle Impresedell’Istituto per la Ricerca Scientifica e Tecnologica(IRST) di Trento. È autore di molte pubblicazioni difisica computazionale, di alcuni libri scientifici e dinumerosi articoli a carattere divulgativo i cui argo-menti spaziano dalla fisica teorica all’intelligenzaartificiale. I suoi libri più recenti sono: L’intelligen-

za della vita. Dal caos all’uomo (Springer, Milano2002) e Electron-Beam Interactions with Solids. Ap-

plication of the Monte Carlo Method to Electron

Scattering Problems (Springer, Berlino 2003)[email protected]

M O N D O D I G I T A L E • n . 2 - g i u g n o 2 0 0 4

1

0

0

0

1

20