cinema d'animazione 3D: l'orizzonte tecnologico
-
Upload
erika-rossi -
Category
Documents
-
view
221 -
download
3
description
Transcript of cinema d'animazione 3D: l'orizzonte tecnologico
cinema d’animazione 3D l’orizzonte tecnologico erika rossi
dichiarazione di originalità
Ho consegnato questo documento per l’appello d’esame
del 17/04/2009 del corso di Interaction Design Theory 2 (Telecomunicazioni)
tenuto da Gillian Crampton Smith con Philip Tabor alla Facoltà
di Design e Arti, Università Iuav di Venezia.
Per tutte le sequenze di parole che ho copiato da altre fonti, ho:
a) riprodotto in corsivo, inoltre
b) messo virgolette di citazione al loro inizio e fine, inoltre
c) indicato, per ogni sequenza, il numero della pagina o lo URL
del sito web della fonte originale.
Per tutte le immagini che ho copiato da altre fonti, ho indicato:
a) l’autore e/o proprietario, inoltre
b) il numero della pagina o lo URL del sito web della fonte originale.
Dichiaro che tutte le altre sequenze e immagini di questo documento
sono state scritte o create esclusivamente da me.
Erika Rossi
17/04/2009
cinema d’animazione 3D l’orizzonte tecnologico
Erika Rossi
corso di telecomunicazioni
aa 2008 | 2009
Gillian Crampton Smith | Philip Tabor
IUAV | clasVEM
Facoltà di design e arti
indice
introduzione 1 capitolo #1 | come funzionano queste tecnologie: applicazioni 2 _cel-shading 4 _morph target animation 6 _skeletal animation e rigging 8 _crowd simulation 14 _motion capture (MoCap) 18
capitolo #2 | MoCap, caso studio significativo: “Il Signore degli Anelli” 24 _gli straordinari effetti speciali de “Il Signore degli Anelli” 26 _ideazione ed animazione del personaggio di Gollum 34 _i personaggi MoCap virtuali hanno un’anima? 40
capitolo #3 | applicazioni future 42 _interazione uomo-personaggio virtuale 44 _vivere virtualmente nella realtà 48 _Fuffy è sempre a portata di mano 50
conclusioni 52 bibliografia 56
introduzione
Il termine “animazione” indica un prodotto audiovisivo costituito
dalla successione di disegni animati i quali, posti in rapida sequenza, generano
una sensazione illusoria di movimento.
Questa definizione risulta ormai obsoleta ai più se si considera il periodo
storico che va dagli anni ‘90 ai giorni nostri, poichè l’introduzione nell’ambito
dell’animazione dei rivoluzionari processi di modellazione 3D, ha reso
possibile una straordinaria svolta dell’era cinematografico-televisiva con
un conseguente stravolgimento dei canoni finora adottati nella realizzazione
del cinema d’animazione.
Durante gli ultimi anni il cinema d’animazione, in particolar modo il genere
di animazione 3D, è stato soggetto ad un’evoluzione esponenziale in termini
di tecnologie informatiche e saperi, i quali hanno consentito di ottenere
una resa grafica tridimensionale di personaggi, ambienti e paesaggi di stupefacente
realismo.
Pioniere dell’era digitale in questo senso è stato il film d’animazione prodotto
e realizzato dalla Pixar Animation Studio “Toy Story” (1993).
Interamente realizzato in tecnica di modellazione 3D, questo lungometraggio
animato ha spianato la strada ad una serie di esempi memorabili che, ormai,
costituiscono modelli di riferimento del cinema d’animazione, come:
“Alla Ricerca di Nemo”, “Gli Incredibili”, “Cars”, “Ratatouille” e il recentissimo
“Wall-e”, ultime creazioni delle geniali menti dello studio Disney Pixar.
Nel campo del film fantasy possiamo citare l’incredibile trilogia de “Il Signore
degli Anelli”, “La Bussola d’Oro”, “Polar Express” e molti altri.
Personalmente, credo che le sofisticate tecniche di modellazione 3D, attraverso l’uso
di avanzatissimi software che verranno descritti di seguito, abbiano rivoluzionato
la tradizionale visione di questo genere cinematografico e l’idea stessa di animazione,
oltrepassando i limiti dell’immaginazione mediante una completa fusione tra mondo
reale e mondo virtuale.
Un’armoniosa commistione di magia e realtà.
1
introduzione
#1 come funzionano queste tecnologie: applicazioni
_cel-shading
_morph target animation
_skeletal animation e rigging
_crowd simulation
_motion capture (MoCap)
1 | scena tratta dal film “The Simpsons Movie” (2007) in cui le animazioni sono ricreate in cel-shading
In questo capitolo verranno introdotte le ultime tecnologie utilizzate per la
realizzazione di lungometraggi di animazione 3D affiancate alle relative specifiche
tecniche riguardanti i software impiegati per generare quegli effetti tridimensionali
che noi tutti, ormai, siamo abituati a vedere al cinema.
Le principali tecnologie che verranno presentate di seguito sono: cel-shading, morph
target animation, crowd simulation, skeletal animation e rigging, e, infine, la motion
capture alla quale sarà riservata una particolare attenzione nel capitolo successivo.
Cel-shading
Tra le principali e più recenti tecniche di animazione, troviamo innanzitutto il
cel-shading o cel-shaded, una curiosa tipolgia di rendering 3D che consiste nella
simulazione di un particolare effetto grafico in grado di far apparire un’immagine,
precedentemente realizzata attraverso tecniche di computer grafica e modellazione
3D, come se fosse stata disegnata manualmente.
Interessante è l’etimologia della parola “cel-shading”, che deriva dal termine “cel”
con cui si indica il foglio di acetato trasparente utilizzato nella tradizione del cinema
d’animazione sul quale venivano riprodotti i disegni successivamente animati, e dal
termine “shade”, ovvero ombreggiare.
La resa grafica che questo strumento offre risulta molto simile allo stile fumettistico
delle anime giapponesi e, inizialmente, ha trovato ampio utilizzo nella
realizzazione di videogames tra i quali citiamo, “Dragon Ball Z”, “Okami”,
e “The Legend of Zelda”.
Ora, questa tecnologia trova largo impiego anche nel cinema e nelle serie
di cartoni animati televisivi, tra cui i famosissimi “The Simpsons”, in cui è
possibile rintracciare i tratti salienti di questa tecnica ovvero, campiture
di tinte piatte, ombre nette e contorni neri a delineare le silohuette
dei vari personaggi.
A mio avviso questa tecnica di animazione risulta molto interessante per la
creazione di contrasti di colore molto forti e vivaci che conferiscono alle immagini
una dinamicità visiva di estremo impatto.
4
5
#1 come funzionano queste tecnologie: applicazioni
2 | esemplificazione delle tre fasi principali di cel-shading: griglia nera 3D, texture elementare ed ombreggiatura
1 2 3
4
3 | le tre fasi sopracitate: 1_texture di colori piatti; 2_ texture 3D; 3_bordi neri; 4_ immagine risultata dalla combinazione di fase 1 e 3
Per realizzare un oggetto o un personaggio in cel-shading il procedimento inizia
con la modellazione 3D dello stesso come avviene per qualsiasi tipo di creazione
tridimensionale; successivamente, si compie la fase di rendering in cui, dopo avere
adattato in modo ottimale le luci e le prospettive, viene selezionata una ridotta
palette di colori principali, in accordo con la resa finale che il modello dovrà
avere, in modo tale da rendere l’immagine piatta riducendo ai minimi termini
gli effetti di tridimensionalità dati dalle variazioni cromatiche.
In una fase successiva vengono ricavati i bordi essenziali delineanti la superficie
dell’oggetto attraverso un’inversione cromatica, ottenendo una silohuette nera
tridimensionale su cui viene applicata la texture minimale di pochi colori
precedentemente selezionati.
Infine, avviene la sovrapposizione dell’ombreggiatura che conferirà all’immagine
l’aspetto grafico finale.
Nel caso di scenari leggermente più complessi rispetto ad un singolo oggetto,
avvengono dei passaggi intermedi ovvero: viene ricavata una texture
di campiture piatte, si realizza un’ulteriore texture 3D che riporti le ombre
e i volumi principali, da questa si traggono i bordi neri costituenti le silohuette
ed infine quest’ultimo viene sovrapposto alla prima fase di colorazione.
6
7
#1 come funzionano queste tecnologie: applicazioni
4 | nella pagina a fianco: rendering 3D del protagonista del videogame “Price of Persia” per PS2 (2005)5 | sopra: fase di morph target del braccio del protagonista del videogame “Price of Persia”
Morph target animation
L’animazione di personaggi ed oggetti attraverso l’uso di questa tecnica, avviene
tramire lo spostamento, frame per frame, dei singoli vertici costituenti
il modello 3D del soggetto. Il procedimento per la realizzazione di movimento
attraverso la morph target è semplice: viene creato uno scheletro molto
dettagliato del personaggio costituito da specifici punti (vertici) posti nelle aree
strategiche dedite al movimento, ovvero le giunture principali dei vari arti;
successivamente, l’animatore sarà in grado, attraverso i suddetti vertici,
di realizzare i movimenti del proprio soggetto posizionandoli e spostandoli,
per ogni keyframe dell’animazione, nei modi più opportuni al fine
di realizzare il moto desiderato.
La presenza di vertici di struttura conferisce al movimento un alto livello
di precisione poichè l’animatore non solo ha la capacità di controllare in modo
accurato anche microspostamenti, ma può direzionare i singoli vertici anche
lungo percorsi prestabiliti in modo tale da ottenere esattamente la traiettoria
di movimento voluta.
Questa opportunità agevola l’animazione di soggetti molto complicati come,
per esempio, abiti, pelle dei personaggi ed espressioni facciali; queste ultime,
in particolar modo, richiedono un’elevata precisione nella resa dei dettagli
per conferire all’animazione una certa credibilità, la quale difficilmente può essere
ottenuta attraverso l’utilizzo di altre tecniche.
Tra gli svantaggi nell’uso del morph target troviamo il lungo tempo
di lavorazione, derivato della caratteristiche della tecnica stessa poichè
il numero di vertici che si viene a creare per ottenere un’animazione realistica
è incredibilmente elevato; infine, sovente, la comparsa di distorsioni fastidiose
ed innaturali del corpo del soggetto dovute al mancato controllo di certi vertici.
Skeletal animation e rigging
Di seguito verranno discusse due tecniche che, nella maggior parte dei casi,
si presentano come un’unica entità nel processo di animazione, cooperando
parallelamente: la skeletal animation ed il rigging.
La skeletal animation è una tipologia di animazione 3D di personaggi che si basa
sulla realizzazione dei movimenti degli stessi attraverso la manipolazione del
loro scheletro di strutturazione. Questa tecnica vede la sua più riuscita
applicazione nel settore del videogames e del cinema d’animazione ed è tuttora in
espansione in altri ambiti come la pubblicità e il settore medicale (simulazione
di movimenti, reazioni muscolari, ecc.).
La skeletal animation riguarda principalmente la messa in movimento di personaggi
vertebrati, i quali sono costituiti da due parti essenziali: una superficie su cui
vengono impressi gli aspetti anatomici caratterizzanti il personaggio, detta “pelle”
(o “skin”) e una serie di ossa disposte secondo un ordine gerarchico ai fini
dell’animazione, detta “scheletro” (o “skeleton”).
6 | un esempio di rigging facciale. Le espressioni del viso e la conformazione della pelle sono estremamente realistiche
7 | creazione dello scheletro di un personaggio costituito da poligoni e linee mesh
Ognuna di queste ossa consente la generazione di movimenti in tre dimensioni
in base alla loro posizione, dimensione ed orientamento ed è associata
ad un certo grado di rilevanza nell’animazione del personaggio al fine di formare
la gerarchia precedentemente citata.
A seconda, quindi, di come le ossa dello scheletro saranno posizionate,
verrà generato il conseguente movimento nell’arto o nella parte del corpo
corrispondente.
Il personaggio 3D è, nella maggior parte dei casi, realizzato attraverso
la costruzione di linee mesh poligonali che rendono il modello più geometrico
per agevolare la sua animazione e, di conseguenza, anche le ossa caratterizzanti
lo scheletro si adattano a questa strutturazione e vengono associate ad un gruppo
di vertici: per esempio se si dovesse muovere l’osso femorale, questo sarebbe
associato al gruppo di vertici costituenti il poligono che forma il femore del modello.
Viene così a crearsi una mescolanza tra la skeletal animation ed una delle
tecniche precedentemente discusse, la morph target animation, infatti le ossa
trovano una corrispondenza nei vertici che le generano.
Questa coesistenza in certi casi può essere molto utile poiché offre i benefici
di entrambe le tecniche presentando una certa versatilità.
In conclusione lo scheletro del modello può essere animato o tramite il movimento
e lo spostamento di singole ossa, oppure attraverso i molteplici vertici
che le formano a seconda delle necessità di precisione dell’animatore.
#1 come funzionano queste tecnologie: applicazioni
8
9
8 | esempio di scheletro con skin annessa per la creazione di movimento facciale
9 | fase di unione tra superficie e scheletro (skinning)
In un momento pressochè contemporaneo al procedimento di skeletal animation
abbiamo il rigging, una delicatissima fase del processo di animazione che definisce
la buona riuscita o meno della resa realistica dei movimenti del personaggio.
Questo step consiste nell’unione tra lo scheletro tridimensionale dotato
delle principali giunture che rendono possibili i movimenti più comuni
e la struttura di curve costituenti la pelle del personaggio da animare.
Fino a qualche anno fa la procedura di rigging richiedeva un approccio di tipo
manuale in cui l’animatore doveva indicare per ogni punto esatto della superficie
statica costituente il personaggio, il corrispondente attacco ad uno specifico osso
dello scheletro; tale metodo era dispendioso in termini di tempo, pazienza
e dedizione del modellatore, il quale era costretto a spendere ore per animare
singole parti.
Oggi, invece, esistono degli avanzatissimi software che includono di default alcuni
movimenti standard tra i più comuni come la camminata, il salto, la corsa, ecc.
Questo metodo, reso possibile da un sofisticato algoritmo all’interno dei vari
software, è caratterizzato da due fasi principali, ovvero: il posizionamento
corretto dello scheletro e l’attaccamento della superficie esterna ad esso
(skinning).
Nella prima fase lo scheletro viene fissato all’interno della struttura costituente
il personaggio attraverso una computazione di dati che regola questo inserimento
in maniera ottimale al fine di avere una resa realistica ed adeguata dei successivi
movimenti; l’attaccamento allo scheletro della pelle esterna avviene attraverso
un calcolo computerizzato che associa i punti nodali della superficie da fissare,
ai corrispondenti giunti delle ossa interne.
#1 come funzionano queste tecnologie: applicazioni
10
11
10 | esempio di come uno stesso scheletro possa essere adattabile a più personaggi
11 | le tre fasi sopracitate: approximate medil surface, sphere packing, constructed graph
Questo procedimento automatico ha permesso d velocizzare decisamente i tempi
di rigging e di avere un’ottima resa in termini di animazione, inoltre il successo
di questo processo è tradotto in tre criteri che vengono qui presentati:
-generalità: uno stesso scheletro può essere adottato per molteplici
personaggi dotati delle medesime caratteristiche fisiche, per esempio uno
scheletro bipede può essere utilizzato per un’operazione di rigging di un umano,
di un robot con caratteristiche analoghe, di una qualsiasi figura antropomorfa, ecc.
-qualità: queste operazioni di rigging consentono di avere un’ottima resa
dell’animazione del personaggio paragonabile ai più attuali videogame.
-performance: automatizzando il processo e quindi non necessitando più
di procedimenti manuali che richiedevano ore ed ore di tempo, si può realizzare
il rigging di un personaggio in un minuto su tutte le più comuni macchine
e piattaforme oggi in commercio.
Attraverso i programmi di rigging viene, innanzitutto, delineata una struttura
interna approssimativa (approximate medial surface) costituita dai punti
principali che identificano lo scheletro da animare, successivamente viene effettuato
un calcolo della distanza tra questi punti e la distanza che essi hanno dalla superficie
del corpo del personaggio mediante la creazione di sfere più o meno grandi
a seconda della dimensione delle suddette distanze (sphere packing); infine, i centri
delle sfere che rappresentano le zone essenziali del corpo da animare vengono uniti
attraverso linee e vertici che creano un grafico finale (constructed graph), punto
di partenza dal quale il modellatore inizierà l’operazione di animazione.
12 | ottimizzazione dello scheletro interno
Lo scheletro interno cosi ottenuto viene successivamente modificato e rifinito al
fine di ottimizzarne la struttura e in seguito a queste fasi di aggiustamento
avviene l’attaccamento delle pelle esterna e la realizzazione dei movimenti.
L’operazione di rigging risulta di complessità proporzionale alla ricchezza
di particolari che caratterizzano il personaggio, ma grazie al binomio abilità
del modellatore/tecnologia è possibile ottenere risultati di straordinaria efficacia
espressivo-realistica.
13 | tre immagini rappresentative per la realizzazione di un modello di cane. 1_ossa costitutive dello scheletro;2_assemblaggio di scheletro e muscoli (notare la struttura viola dello scheletro poligonale); 3_operazione di rigging con la formazione della superficie14 | a fianco: risultato finale dell’animazione
3
21
#1 come funzionano queste tecnologie: applicazioni
12
13
Crowd simulation
La crowd simulation è una tecnica di modellazione 3D che mira alla simulazione
dei movimenti di un elevato numero di oggetti e/o persone
per la creazione, per lo più, di scene cinematografiche atte a mostrare calca
di gente, folla nelle città, battaglie e tutto ciò in cui vengono coinvolti gruppi poiché,
altrimenti, l’animazione di singole entità risulterebbe lentissima e poco pratica.
Le tipologie di simulazioni che questa tecnica può riprodurre sono tre:
movimento di particelle, sociologia e crowd AI.
Nel primo caso i personaggi sono rappresentati da punti-particelle che vengono
successivamente animate attraverso la simulazione del loro movimento dovuto
a vento, gravità, attrazione e collisione. Queste singole entità
interagiscono tra loro e non necessitano di essere programmate o controllate
dall’esterno ma rispondono automaticamente a determinate situazioni;
le principali applicazioni per cui questa tecnica è utilizzata sono la visualizzazione
ai fini di prevedere certi fenomeni naturali e apprenderne le reazioni.
L’implementazione di questo metodo non è difficoltosa e può essere utilizzato
all’interno della maggior parte di software 3D ma presenta un grado di realismo
molto basso poiché risulta difficile controllare e gestire individuali entità sempre
nel modo opportuno e perché il movimento viene generalmente limitato ad una
superficie piana.
15 | le entità rappresentate nella parte superiore dell’immagine sono i punti-particella
#1 come funzionano queste tecnologie: applicazioni
14
15
Un’altra interessante applicazione in cui la crowd simulation viene utilizzata è per
simulazioni di dinamiche psicologiche di gruppo in ambito
medico-sociologico.
In questo caso vengono realizzate entità rispondenti a caratteristiche umane a cui
viene assegnato un determinato stato ai fine di comprendere il comportamento
della massa, l’elemento fondamentale di analisi. Non essendo mirata a scopi
di animazione e di resa realistica, l’impatto visivo di questa tipologia di simulazione è
mediocre e non ne viene fatta particolare considerazione.
Credo che l’applicazione ad ambiti medicali o comunque di studio riguardanti
la persona di queste tecnologie, sia l’esempio di come l’innovazione possa essere
in grado di incentivare ed agevolare settori di ricerca per il bene della società.
Trovo che il binomio ricerca/tecnologia sia in crescente sviluppo grazie anche
a queste sperimentazioni ed entrambe le discipline possono godere di una
costruttiva coesistenza che coniuga i benefici dell’una e dell’altra al fine
di produrre sapere e benessere.
16 | esempio di crowd simulation applicata alla sociologia per capire le reazioni della folla durante le proteste e le manifestazioni
17 | esempio di crowd simulation del flusso di pedoni in circolazione lungo una strada(qui il dettaglio è più curato)
#1 come funzionano queste tecnologie: applicazioni
16
17
Nell’ultimo metodo di crowd simulation, la crowd AI, i singoli elementi denominati
agenti, sono dotati di intelligenza artificiale la quale li guida attraverso
una o più funzioni, quali vista, udito, emozioni basilari, livelli di aggressività ecc.
Alle entità viene quindi imposta una serie di interazioni che le mette
in comunicazione tra loro come fossero membri di una reale folla
di persone.
Gli elementi sono anche spesso programmati per rispondere ai cambiamenti e
agli ostacoli che l’ambiente circostante e le strutture li obbligano ad affrontare
come: salire le scale, saltare dei buchi, evitare edifici, scalare colline e dossi, ecc.
Questo sistema offre una resa molto più realistica rispetto al particle motion
ma è molto costoso da programmare ed implementare.
I più significativi esempi di simulazioni AI possono essere visti ne “Il Signore
degli Anelli” durante le numerose battaglie che coinvolgono migliaia di elementi.
18 | a fianco: esempio di animazione in crowd simulation19 | sopra: scena di battaglia tratta dal film “Il Signore degli Anelli. Il Ritorno del Re” (2003)
Motion capture (MoCap)
L’ultima tecnologia che viene presentata in questa sezione, e che verrà approfondita
nel prossimo capitolo con riferimenti ed applicazioni tra i più significativi,
è la motion capture, detta anche MoCap.
La MoCap è una tecnica digitale di animazione 3D estremamente avanzata
e sofisticata in grado di riprodurre, pressochè istantaneamente, i movimenti,
i gesti e le azioni di un attore reale e applicarli, nel corrispondente
personaggio virtuale su schermo, tramite appositi sensori di cui viene rilevata
la posizione e lo spostamento nello spazio posti nei punti nodali principali
del corpo della persona reale, come le giunture e la zona di unione dei muscoli.
Questa tecnologia viene, oggi, applicata in svariati ambiti da quello medico a quello
videoludico, ma è nel cinema di animazione che trova la sua massima espressione
consentendo la realizzazione di capolavori cinematografici, tra cui “Matrix”,
la trilogia de “Il Signore degli Anelli” e “Polar Express”.
I tradizionali sistemi di MoCap utilizzano punti riflettenti o piccoli LEDs collocati
in zone strategiche di busto, arti e testa di una persona: i movimenti
e gli spostamenti di questi punti vengono ripresi da una serie di telecamere,
e trasmessi su schermo in modo tale da consentire agli animatori di creare uno
scheletro virtuale del soggetto identificato che sarà applicato, in una fase
successiva, al personaggio 3D elaborato a computer.
Generalmente vengono utilizzati tre diversi tipi di MoCap in base alle esigenze
dell’animazione: magnetica, ottica ed elettro-meccanica.
20 | scena tratta dal film “Matrix Revolution” (2003)
#1 come funzionano queste tecnologie: applicazioni
18
19
La MoCap magnetica sfrutta la misurazione di un campo magnetico
a bassa frequenza generato da una fonte trasmittente in grado di rilevare
il movimento dei sensori applicati al corpo riportandolo sullo schermo.
Successivamente un’unità di controllo elettronica, a cui sono collegati
i sensori e la fonte che trasmette il segnale, mette in relazione i dati di posizione
ricevuti all’interno del campo magnetico e li invia ad un computer che, attraverso
un software specifico, rappresenta in uno spazio tridimensionale le posizioni
e i movimenti sopracitati generando la silohuette dell’attore reale.
I sistemi magnetici ricreano i movimenti delle giunture del corpo utilizzando
da 6 a 11 (o più) sensori per persona, i quali trasmettono informazioni riguardo
alla posizione e alle rotazioni.
Un programma specifico interviene nella regolazione degli angoli formati
dai movimenti di giuntura al fine di conferire più naturalezza e linearità
al movimento ottimizzando le posizione dei sensori rispetto alla loro
collocazione leggermente decentrata rispetto al naturale centro delle giunture.
Questo programma, però, presenta alcune limitazioni in quanto deve regolare
automaticamente le distorsioni e non sempre il risultato è credibile, inoltre esistono
altri aspetti negativi tra cui la necessità di eliminare i rumori di fondo dalla
registrazione dal vivo e la presenza di un ambiente confusionario nel caso in cui
si tenti di registrare contemporanemamente il movimento di due o più persone.
Quest’ultimo problema, in particolare, deriva dal fatto che ogni sensore necessita
di un proprio cavo protetto e la prossimità di più persone può causare
interferenze tra i diversi sensori compromettendo la riproduzione.
La MoCap magnetica è, dunque, consigliata per la realizzazione di bozze iniziali
che verranno successivamente ottimizzate da altri sistemi di animazione.
21 | screenshot della creazione del modello 3D di MoCap
22 | le fasi in sequenza di una sessione MoCap: tuta con punti luminosi, ritracciamento dei punti, applicazione allo scheletro, trasposizione dei movimenti al personaggio 3D (in questo caso un robot)
Il secondo tipo di MoCap che qui verrà presentata è la MoCap ottica, la quale
vede l’impiego di due tecnologie: reflective e pulsed-LED.
Come i nomi suggeriscono, queste due tecnologie differiscono per la tipologia
di sensori utilizzati per la cattura del movimento, ovvero punti riflettenti
o luminosi, i quali, però, possiedono il medesimo comportamento: i movimenti
vengono captati tramite telecamere ad infrarossi che catturano la luce riflessa
dai punti reflective o emessa dai LEDs e che la trasmettono al computer,
il quale rielabora i movimenti tracciando la traiettoria dei punti.
Per la cattura delle espressioni facciali si ricorre a sistemi di una o due
telecamere, mentre il corpo intero necessita, in genere, da tre a sedici
apparecchi.
A seconda del tipo di tecnologia utilizzata e delle esigenze è possibile avere
o l’immagine di uno scheletro a cui si applica, successivamente, la trama
di punti ottenuta, oppure si può ottenere uno scheletro biomeccanico
in fase di registrazione che offre l’opportunità di sovrapporre
immediatamente i movimenti dell’attore a quelli del personaggio.
Nell’uso della tecnica di MoCap ottica possono presentarsi alcuni problemi quali,
lo scambio tra punti, dati mancanti o rumorosi e riflessi falsati, ma sono
tutti risolvibili con relativa facilità.
#1 come funzionano queste tecnologie: applicazioni
20
21
23 | immagine della tuta Gypsy utilizzata per la MoCap elettro-meccanica24 | nella pagina seguente: tuta a punti luminosi
Il terzo ed ultimo sistema di MoCap è quella elettro-meccanica la quale sfrutta
la tuta Gypsy che viene indossata dagli attori per la rilevazione dei movimenti.
Si tratta della tecnica più semplice e versatile, in quanto non necessita
di condizioni particolari di spazio (come la magnetica, che presenta problemi
se c’è molto metallo nell’ambiente, o l’ottica per il controllo delle luci) e può essere
facilmente trasportata ed installata in qualsiasi luogo.
L’animazione avviene in tempo reale consentendo rapidi tempi di lavorazione
e poca manipolazione in post-produzione, inoltre il sistema non riporta errori
o spostamenti falsati poichè la cattura dei movimenti non avviene attraverso
l’individuazione di punti di giuntura ma tramite l’esatta riproduzione
dello scheletro dell’attore.
Affianco queste rivoluzionare tecnologie di MoCap troviamo anche
i cybergloves, dei guanti leggeri dotati di sensori flessibili estremamente sottili
che oppongono pochissima resistenza al piegamento e che consentono
di riportare con precisione i movimenti di polso, palmo e dita della
mano.
Secondo la mia opinione, le varie tecnologie sopra descritte presentano un lato
rivoluzionario in quanto, grazie a sofisticati strumenti e ad équipe sempre più
preparate, permettono di raggiungere, all’interno del cinema d’animazione, ma anche
in altri settori dell’intrattenimento e non, risultati straordinari che fanno vacillare
l’ormai sottile confine tra realtà e fantasia.
#1 come funzionano queste tecnologie: applicazioni
22
23
25 | schemacomponenti
26 | diagramma
microcontroller
microphone
gyroscopeaccelerometer
sensor(2,5x2,5 cm)
ultrasonic source(2,5x1 cm)
pulse
puls
ege
nera
tor
A/D
conv
erte
rs
microcontroller
battery
USB
backpack
drive box(22x22x6 cm)
hardisk
microphone
inertial sensors
sam
plin
g
scra
mbl
ing
erro
r co
ding
pre-
amp
band
-pas
s
com
bini
ng
Recenti studi incrociati effettuati da Swiss Federal Institute
of Technology, MIT e Mitsubishi Electric Research Laboratories
hanno consentito lo sviluppo di un nuovo sistema di MoCap che presenta notevoli
miglioramenti rispetto a quelli utilizzati finora come, per esempio, la possibilità
di essere trasportato e quindi di consentire la rilevazione di movimenti
ed azioni di routine quotidiana come la guida, la pratica di sport, ecc.,
che difficilmente sarebbero replicabili all’interno di un laboratorio.
Il progetto prevede la rilevazione del movimento attraverso un sistema costituito
da piccolissime sorgenti di ultrasuoni a basso potere captate da microfoni
dislocati lungo il corpo dell’attore e tradotti in misurazioni corrispondenti alla
distanza dei sensori dal corpo.
Per ovviare ai problemi relativi alla precisione del rilevamento di queste misure,
ogni sensore è dotato di un giroscopio e di un accelerometro che captano
rispettivamente la rotazione e l’accelerazione del movimento in modo tale
da fornire un dato il più vicino alla realtà possibile.
Il comportamento del sistema rispetta le seguenti modalità: il segnale acustico
captato dal microfono è amplificato e filtrato dalle sporcature per
incrementare la qualità degli impulsi ultrasonici; allo stesso tempo i dati provenienti
dai giroscopi e dagli accelerometri vengono codificati da un microprocessore
presente nel medesimo sensore ed entrambi i dati, acustico e digitale, vengono
formulati e trasmessi in tempi brevissimi al driver, il quale semplificherà
l’informazione e la depositerà all’interno dell’hardisk.
#2MoCap, caso studio significativo:
“Il Signore degli Anelli”
_gli straordinari effetti speciali de “Il Signore degli Anelli”
_ideazione ed animazione del personaggio di Gollum
_i personaggi MoCap virtuali hanno un’anima?
#2 MoCap, caso studio significativo: “Il Signore degli Anelli”
26
27
27 | a fianco: spettacolare panoramica del regno di Saruman, l’antagonista della trilogia 28 | sopra: il personaggio di Elrond in una delle innumerevoli battaglie del primo film (2001)
In questo secondo capitolo verranno descritti i tratti salienti riguardanti
l’applicazione delle tecnologie precedentemente descritte che hanno reso
la trilogia de “Il Signore degli Anelli” un capolavoro d’esempio per il cinema
di animazione 3D e per l’impiego di effetti speciali, sistemi di rendering e software
per la realizzazione di realtà virtuale mai sperimentati prima.
L’incredibile sfida, vinta dal regista del colossal Peter Jackson, risiedeva
nella capacità di dar vita alle migliaia di figure fantastiche, personaggi
fiabeschi e paesaggi onirici descritti dalla penna di J.R.R. Tolkien al fine
di tramutarli in scenografie tanto suggestive quanto realistiche in grado di ricreare
l’atmosfera sognante in cui gli attori, i vari operatori, il regista, ma soprattutto,
lo spettatore dovevano immergersi.
Questa saga, come altri magnifici esempi realizzati in questo senso tra cui
la trilogia di “Matrix”, “Polar Express” e i vari capolavori dello studio
Disney Pixar, dimostrano a mio avviso, in che modo l’utilizzo di tecnologie
sempre più avanzate non presenti un limite all’espressività artistica degli attori reali,
ma, al contrario, fornisca un’opportunità in più per esprimere il proprio
talento e le proprie capacità recitative in una sorta di “estensione virtuale”
dell’Io dei protagonisti.
Gli straordinari effetti speciali de “Il Signore degli Anelli”
Per la realizzazione di questo incredibile film, Peter Jackson si avvalse della
collaborazione del Weta Workshop Group, un importante studio dedito
all’ideazione ed alla produzione di effetti speciali 3D che faceva capo a John Labrie
il quale, al momento della proposta di Jackson per la realizzazione della trilogia, non
avrebbe mai creduto di riuscire a compiere la simile impresa di dar vita al reame
incantato zeppo di personaggi immaginato da Tolkien nel suo libro.
La fase iniziale del lavoro (ricordiamo che la lavorazione del film iniziò nel 1996,
epoca in cui le tecnologie sopracitate non avevano ancora raggiunto le potenzialità
massime che conosciamo oggi) fu, fin dal principio, caratterizzata da interessanti
innovazioni in ambito tecnologico.
Infatti, per la realizzazione nelle innumerevoli battaglie e delle scene in cui compariva
una miriade inverosimile di personaggi, l’èquipe della Weta ideò gli animatics,
ovvero animazioni 3D a bassa risoluzione che riportavano ogni singola inquadratura
del film per agevolare il processo di visualizzazione delle varie scene,
altrimenti impossibile da ricreare graficamente mediante il solo utilizzo
di storyboard tradizionali.
Questa tecnologia consentì quindi alla troupe di avere la possibilità di vedere in
anteprima le sequenze semplificate da realizzare successivamente in digitale,
al fine di ottenere già in fase di abbozzo della messa in scena una panoramica
complessiva degli effetti da realizzare.
Gli animatics venivano popolati con tanti soldati e personaggi quanti la scena della
battaglia ne richiedeva ed il procedimento era diviso in quattro fasi principali:
-innanzitutto, venivano creati i modellini tridimensionali delle figure necessarie
scansionando persone reali tramite il FastScan (apparecchio che permette
una scansione 3D di uomini ed oggetti al fine di digitalizzarli) e modificandone poi
i tratti caratteristici salienti in modo tale da ottenere prototipi fisionomici
differenti in peso e altezza;
29 | due immagini a confronto che rivelano la coesistenza tra reale e digitale per la creazione delle scene di battaglia
#2 MoCap, caso studio significativo: “Il Signore degli Anelli”
28
29
- secondariamente, è stata creata un’enorme banca dati di movimenti che
ogni soldato avrebbe dovuto compiere mediante la motion capture di diversi
stuntman, i quali hanno riprodotto le varie azioni per ogni differente tipologia
di situazione, ad esempio attacco, caduta, parata del colpo, camminata, ecc.;
- durante la terza fase, sono state ideate regole percettive che hanno conferito
ai personaggi vista, udito e tatto virtuale, in modo tale da fargli distinguere
le varie forme ed ostacoli presenti nell’ambiente;
-infine, le comparse digitali venivano munite di un “cervello virtuale”
contenente determinate azioni connesse tra loro attraverso migliaia di nodi logici
per consentire ad ogni singolo individuo di reagire differentemente dagli altri
a seconda del contesto circostante.
In questo modo, si diede vita ad uno strabiliante esperimento di intelligenza
artificiale (come precedentemente detto nella parte dedicata alla crowd simulation)
battezzato Massive, ovvero Multiple Agent Simulation System In a Virtual
Environment che permise di costruire veri e propri guerriglieri dotati
di intelligenza propria e libero arbitrio in grado di reagire razionalmente
a determinate situazioni. I soldati, divisi in buoni e cattivi, vennero programmati
per eliminarsi vicendevolmente nel modo che essi ritenevano più
opportuno; qui, secondo il mio parere, risiede la rivoluzione attuata dalla Weta
in quanto si inizia a parlare di pensare in modo razionale in riferimento
a creature completamente virtuali!
30 | a sinistra: due immagini in cui i personaggi 3D vengono programmati per reagire in modi specifici ad eventi prestabilitia destra: scena del risultato finale delle 4 fasi sopracitate che vede la commistione tra reale e virtuale
#2 MoCap, caso studio significativo: “Il Signore degli Anelli”
30
31
31 | a fianco: Balrog, una creatura completamente digitale32 | sopra: il troll di Moria la cui scena è stata ottenuta con sistema MoCap
Penso che sia incredibile come in questa saga il mondo reale e quello digitale
si fondano a creare un’unico vissuto onirico che noi spettatori fatichiamo
a classificare come spazio immaginario. I personaggi fantastici convivono
in maniera talmente spontanea e naturale con quelli reali che risulta difficoltoso
attuare una netta scissione tra le due realtà. In questa impossibilità
risiede la magia di questo capolavoro il quale, grazie all’uso abile di sofisticate
tecnologie è stato in grado di cancellare i confini tra tangibile e non.
Altre scene che meritano una particolare menzione per il grado di difficoltà
e realismo in esse implicito sono: il duello tra Gandalf e i Balrog di Morgoth
e l’agguato del troll delle cave di Moria alla Compagnia dell’Anello.
Anche per la creazione delle creature protagoniste di questi due episodi, il gruppo
Weta ha operato, innanzitutto, una scansione tramite FastScan il quale,
essendo dotato di un lettore ottico, due telecamere e un sistema di tracciamento
magnetico, ha consentito di ottenere una trasposizione molto precisa
delle sculture in creta dei personaggi al fine di digitalizzarli.
Successivamente si è provveduto alla sovrapposizione di queste scansioni
con lo scheletro 3D, i muscoli e la pelle di superficie costituiti
da una serie di poligoni sempre più infinitesimali realizzati in precedenza attraverso
i processi di skeletal animation e rigging.
Le fiamme che avvolgono Balrog (nell’immagine a fianco) sono state realizzate
riprendendo esplosioni reali che sono state, poi, sovrapposte alle
particelle 3D costituenti l’animazione ottenute con il particle motion (tecnica
citata nel capitolo 1) ricavandone un effetto sorprendentemente realistico.
Per la scena del combattimento tra Frodo e il troll di Moria, invece, si è ricorsi
ad una rivoluzionaria tecnologia che permette al regista di visualizzare
la sequenza prima di girarla attraverso il motion capture.
33 | le 4 fasi di rendering subite dal troll di Moria che gli hanno conferito l’aspetto definitivo
4
2
3
1
Per la realizzazione di questa scena, tutti i movimenti degli attori reali e del troll
sono stati ricostruiti e catturati con motion capture tramite le apposite tute munite
di punti luminosi.
Le suddette riprese sono state montate a bassa risoluzione all’interno di una
scenografia virtuale appositamente creata che simulava perfettamente il set
reale e, nel frattempo, gli animatori perfezionavano la grafica della creatura digitale
precedentemente scolpita al fine di inserirla nella scena assieme agli altri personaggi.
Il regista ha, poi, visionato questa bozza mediante occhiali stereoscopici per
capire e decidere le inquadrature più idonee da adottare ed è stato proprio in quel
momento che si è fatta avanti nella mente degli animatori l’idea rivluzionaria
di riprendere anche i movimenti della telecamera attraverso la MoCap.
Petere Jackson si è quindi prestato a girare la scena all’interno di una stanza
di MoCap tramite un visore 3D dotato di LEDs per la cattura dei movimenti,
i quali una volta tradotti in digitale hanno riportato le sue esatte inquadrature.
#2 MoCap, caso studio significativo: “Il Signore degli Anelli”
32
33
Il regista ha potuto, quindi, maneggiare l’innovativa telecamera all’interno
del set virtuale decidendo se e come inquadrare il troll o i protagonisti
operando come un cameraman presente sul campo di battaglia.
Il movimento finale della telecamera è stato poi trasportato sul computer
e digitalizzato diventando, così, la sequenza definitiva.
Trovo che questa trilogia sia spettacolare dal punto di vista tecnologico poichè
integra la maggior parte delle tecnologie 3D descritte nel capitolo 1 estrapolando
da ognuna di esse gli aspetti positivi.
“Il Signore degli Anelli” dimostra come tecniche di animazione apparentemente
molto diverse possano coesistere in modo ottimale per dar vita a scene
caratterizzate da effetti speciali sorprendenti.
L’utilizzo di determinati sistemi di animazione non preclude l’impiego di altre, anzi,
ne giustifica la presenza al fine di aggregare saperi e lati positivi eliminando
e compensando le mancanze e le lacune di ogni tecnologia.
34 | scena di battaglia tratta dal film “Il Signore degli Anelli. Il Ritorno del Re” (2003)
#2 MoCap, caso studio significativo: “Il Signore degli Anelli”
34
35
Ideazione ed animazione del personaggio di Gollum
Gollum è il primo personaggio interamente digitale realizzato con la tecnica
della motion capture.
La MoCap si è rivelata la tecnologia più adeguata per la realizzazione
di questa creatura in quanto quest’ultima presentava, sin dal libro, una parvenza
fortemente antropomorfa in termini sia fisici che psicologici, necessitando
quindi di caratteristiche prettamente umane che si avvicinassero il più possibile alla
realtà.
Il regista Peter Jackson volle, fin dal proncipio, che Gollum apparisse innanzitutto
come un personaggio esistente, tangibile e non semplicemente una figura
vuota e virtuale e proprio per questo motivo l’attore Andy Serkis, il quale
inizialmente si ero reso disponibile soltanto per il doppiaggio di Gollum, accettò
di prestargli anche le movenze e gli atteggiamenti.
L’aspetto che coinvolse maggiormente Serkis e che lo convinse ad accettare
di rendere “vivo” Gollum fu il carattere controverso e psicolabile
di questo personaggio il quale, nel corso della trilogia, assumeva un ruolo sempre più
imponente ed ambiguo rivelando al pubblico la sua esasperata schizofrenia.
Il risultato del lavoro di Serkis fu talmente soddisfacente che Peter Jackson decise
di inserire delle scene in flashback in cui l’attore avrebbe dovuto interpretare
Smeagol, l’alterego buono di Gollum, mantenendo così la continuità
interpretativa del personaggio.
La creazione digitale di Gollum non è solamente frutto di sessioni di MoCap con
conseguente trasposizione a monitor, ma è il risultato di complesse riprese
della medesima scena in differenti modalità per ottimizzare l’inserimento
del personaggio nei frame del film.
Questo procedimento fu realizzato come segue:
-prima fase: la scena veniva girata sul set o sulla location adeguata con tutti
gli attori necessari; Serkis indossava una tuta in lycra che lo copriva interamente,
fuorchè gli occhi, di un colore adeguato a mimetizzarlo con l’ambiente
circostante, in modo da facilitare la sovrapposizione di Gollum alla sua immagine
in fase di post-produzione;
-seconda fase: in una delle scene in cui dovevano comparire Gollum, Frodo
e Sam, Elijah Wood (Frodo) e Sean Astin (Sam) recitavano sul set la stessa scena
senza Serkis, in modo da fornire un’immagine completa dello sfondo
sul quale Gollum avrebbe dovuto muoversi;
-terza fase: Andy Serkis, indossando una tuta MoCap con punti LEDs,
recitava di nuovo su uno sfondo key-chrome blu, ovvero uno grande schermo
interamente blu che in fase di giustapposizione del personaggio avrebbe facilitato
il processo di ritaglio. In questa fase indossava, oltre alla tuta, un visore di realtà
virtuale nel quale veniva proiettata la scena girata senza la sua presenza, in modo
che egli potesse integrarsi completamente con essa ed avere l’illusione
di interagire con i co-protagonisti.
35 | a fianco: Gollum, realizzato totalmente in MoCap, fa la sua prima comparsa nel primo episodio della trilogia (2001)
36 | scena risultato delle fasi sopra descritte che presenta i tre attori nell’episodio “La Compagnia dell’Anello” (2001)
Per ottenere le stesse angolazioni ed inquadrature nelle molteplici riprese della
stessa sequenza, la squadra operava tramite una cinepresa telecomandata, che
permetteva di replicare esattamente la scena le volte successive.
Per la ripresa dell’episodio “Le Due Torri” (2002), Andy Serkis indossò una tuta nera
su cui erano applicate piccole sfere di riferimento ad alta rifrazione nelle
zone principali di estremità e giunture del corpo i cui movimenti venivano
rilevati da telecamere appositamente installate ed inviati al computer per ricreare
l’animazione del personaggio virtuale.
Uno degli aspetti più interessanti, a mio avviso, nel procedimento di cattura
dei movimenti di Serkis risiede nel fatto che Jackson per avere la possibilità
di dirigere le azioni di Gollum come faceva con qualunque altro attore necessitava
che le movenze di Serkis fossero trasposte su Gollum in tempo reale, quindi
furono create delle “mappe del personaggio” riportanti i movimenti delle
azioni e dei gesti principali compiuti da Gollum, che consentivano di sovrapporre
nel modo più adeguato le articolazioni di Serkis a quelle del suo personaggio,
ad esempio: la postura in piedi, in ginocchio o a “quattro zampe”.
Così facendo, Jackson aveva la possibilità di vedere Gollum muoversi su schermo
allo stesso modo in cui, in quell’esatto momento, Serkis si muoveva sul set.
Ritengo che soltanto la MoCap avrebbe potuto rendere possibile un progetto
tanto ambizioso in quanto, come dichiarato dallo stesso Serkis, “il bello è che le cose
accadono fisicamente lì per lì. Un minimo intoppo, un’esitazione, un respiro più profondo,
#2 MoCap, caso studio significativo: “Il Signore degli Anelli”
36
37
ogni espressione corporea viene colta e diventa parte della performance, garantendole
un grande realismo.”.
Questa tecnologia ha aperto le porte ad una serie di sperimentazioni incredibili che
fanno auspicare che un giorno chiunque, anche io stessa, potrei avere l’opportunità
di crearmi il mio personale alterego virtuale e vederlo muoversi allo stesso
modo e nello stesso istante in cui mi muovo io...Non sarebbe fantastico??
Per la ripresa di scene differenti la tecnica di MoCap poteva variare; in certi
casi Serkis recitava indossando una tuta blu mentre tre operatori video,
posizionati ai tre angoli della zona della rilevazione, registravano ogni inquadratura
contemporaneamente. I video fornivano un primo piano, un campo medio
e un campo lungo dell’azione di Andy, che servivano come riferimento
espressivo per il settore animazione.
Inoltre era presente una squadra per il suono che faceva esperimenti
di registrazione dal vivo durante il MoCap.
37 | le tre fasi di sovrapposizione di Serkis al personaggio: registrazione movimenti,trasposizione in tempo reale sulla figura 3D, unione del MoCap al render
38 | scena tratta dal primo episodio “La Compagnia dell’Anello” (2001)
Il processo di animazione può, quindi, essere diviso in quattro fasi:
-performance sul set, ovvero la registrazione della scena su pellicola 35mm;
-motion capture, nonchè rilevazione dei movimenti reali dell’attore
e sovrapposizione degli stessi al modello di Gollum creato digitalmente;
-ADR (automated dialogue replacement), che consiste nella stesura
delle tracce vocali per consentire il montaggio agli animatori;
-animazione, quindi sviluppo e rifinitura del personaggio, fotogramma
per fotogramma, sfruttando i passaggi precedenti al fine di inserire Gollum
nelle scene assieme agli altri attori.
La motion capture presenta, come abbiamo visto, moltissimi vantaggi per
la realizzazione di personaggi ed oggetti virtuali ma può riservare qualche
complicazione, soprattutto per gli attori che si prestano ad utilizzarla per dar
vita a creature digitali.
Questo perchè risulta molto difficile per questi ultimi recitare su di uno
sfondo neutro privi di trucchi, costumi ed ambientazioni adeguati
ad immedesimarsi nel personaggio.
Nello specifico caso di Serkis, un’ulteriore problematica derivava dal fatto che, a
causa di questioni tecniche poichè spesso si presentavano problemi che obbligavano
gli operatori dell’animazione a rigirare la scena, era costretto a dover recitare
nuovamente sequenze che aveva girato mesi o addirittura anni prima, senza
gli altri attori che avevano lavorato con lui in quelle scene.
Da un episodio all’altro le tecnologie hanno visto forti progressi ed è per questo
motivo che per girare le scene de “Il Ritorno del Re” (2003) le modalità di MoCap
#2 MoCap, caso studio significativo: “Il Signore degli Anelli”
38
39
hanno subito importanti varizioni che hanno reso il processo di animazione più
rapido e realistico.
Infatti, ci si era accorti che durante la ripresa di alcune scene che presentavano
difficoltà sostenute, il corpo di Serkis compiva movimenti che difficilmente
riuscivano a sovrapporsi perfettamente alla figura di Gollum ed è per
questo che la squadra di MoCap sperimentò, per la prima volta nella storia,
un sistema di rilevazione di movimenti sul set.
Furono abbandonate le fasi che comportavano più riprese della stessa scena
evitando lavoro di post-produzione per lasciare spazio ad una cattura
dei movimenti che veniva immediatamente giustapposta al personaggio
virtuale.
Così facendo si eliminava gran parte del lavoro di post-produzione
a vantaggio dei tempi di ripresa e registrazione; Serkis poteva, così, girare
la scena una sola volta assieme agli altri attori garantendo, quindi, la massima
interazione con essi e nel frattempo i suoi movimenti venivano adattati
in tempo reale a Gollum su schermo.
Ciò che ha reso possibile questo sviluppo importante sono le nuove telecamere
e le luci a infrarossi sviluppate della Motion Analysis, infatti, le nuove sorgenti
di luce erano invisibili alle macchine da presa, ma erano abbastanza forti
da consentire di collocare le telecamere ad una certa distanza in modo tale
che la scena potesse essere ripresa in modo ottimale ma senza interferenze visive
da parte delle apparecchiature.
La fase di animazione presentò un’ulteriore innovazione, infatti per realizzare
Gollum non venne utilizzata esclusivamente motion capture ma si decise
di unire le caratteristiche di straordinario realismo che essa permetteva
e l’animazione in key frame (vedi morph target animation) per la definizione
dei dettagli e delle espressioni facciali, impossibili da ottenere diversamente.
I movimenti dei muscoli del volto di Serkis venivano utilizzati dagli animatori come
guida per ricreare una vasta gamma di espressioni e stati emotivi che
dovevano adeguarsi ad ogni situazione e, allo stesso tempo, rimanere coerenti con
la mimica e la gestualità del personaggio.
39 | a sinistra: rendering del modello 3D del volto di Gollum40 | a destra: Andy Serkis in tuta MoCap con sorgenti ad infrarossi
#2 MoCap, caso studio significativo: “Il Signore degli Anelli”
40
41
I personaggi MoCap virtuali hanno un’anima?
La domanda che dà il titolo a questo paragrafo nasce da una considerazione
personale fatta dopo aver letto della candidatura all’Oscar di Gollum, non
di Andy Serkis, proposta in seguito all’uscita del secondo episodio della trilogia
“Le Due Torri” (2002).
Credo che questo avvenimento ponga l’accento su un quesito etico-morale
molto importante che nasce dall’utilizzo delle ultime tecnologie sviluppatesi
nell’ambito dell’animazione 3D, dalla MoCap al rigging, ovvero: è corretto attribuire
ai personaggi digitali nati e vissuti all’interno di una realtà virtuale un’anima?
Nel caso specifico di Gollum-Serkis si imposero due scuole di pensiero che
vedevano, da un lato gli animatori, sostenitori accaniti della più che legittima
candidatura all’Oscar, dall’altro lato si trovavano i più tradizionalisti che ritenevano
oltraggiosa una proposta simile.
Personalmente credo che il beneficiario di questo prestigioso premio dovrebbe
essere Andy Serkis e non perchè io sia una tradizionalista convinta ma perchè penso
che Gollum non sia da considerarsi un personaggio interamente
digitale, in quanto Serkis non solo ha prestato la stridula voce a questo
controverso personaggio, bensì ha compiuto un’opera davvero innovativa
e complessa animando ed ideando completamente i movimenti e la gestualità
che hanno consentito a Gollum di esternare le proprie sensazioni ed emozioni
rendendolo la figura emblematica che oggi noi tutti conosciamo.
Tralasciando l’Oscar, la questione che ci si dovrebbe porre è se le tecnologie
di animazione e la creazione dei mondi digitali che esse permettono di inscenare
possano essere un limite, un ostacolo, una restrizione alle capacità
recitative ed interpretative degli attori che li incarnano.
Occorre capire se l’attore si sente ancora tale nel momento in cui è
chiamato a dar vita ad un personaggio virtuale oppure se prestando il corpo
ad una creatura completamente digitale il suo talento non riceve il dovuto
riconoscimento e possibilità di espressione.
A mio avviso, l’animazione in questo senso va intesa come l’estensione delle
capacità della persona reale, in carne ed ossa, che deve sfruttare l’occasione
di calarsi in una realtà costruita per dar vita ad un personaggio graficamente
perfetto ma altrettanto interessante dal punto di vista della componente
umana, emozionale, recitativa (da citare è l’impressionante spessore psicologico
posseduto da Gollum già nell’opera di Tolkien, rimasto pressoché intatto nel film).
Concludendo, ritengo che la MoCap e le altre tecniche di animazione non debbano
essere considerate delle limitazioni all’artisticità degli attori ma, al contrario,
delle innovative strade di comunicazione attraverso le quali l’attore
può relazionarsi in maniera ottimale al personaggio che interpreta cogliendone
sfaccettature inaspettate da trasmettere al pubblico mediante la creazione
di nuovi canali esperienziali.
41 | Gollum in una scena tratta dal primo episodio “La Compagnia dell’Anello” (2001)
#3applicazioni future
_interazione uomo-personaggio virtuale
_vivere virtualmente nella realtà
_Fuffy è sempre a portata di mano
Nei due capitoli precedenti sono state presentate le ultime, sofisticate tecnologie
nel campo del cinema di animazione 3D che rendono possibile la realizzazione
di produzioni cinematografiche d’eccellenza, ormai all’ordine del giorno.
Questo settore ha visto negli ultimi anni un’evoluzione tale che, ormai, molti
altri ambiti relazionati in qualche modo all’animazione, ed alla comunicazione
visiva più in generale, hanno potuto usufruire degli straordinari effetti speciali
prodotti da queste tecnologie, al fine di rendere maggiormente appetibili
e contemporanei i propri prodotti commerciali.
In particolar modo, il settore della grafica pubblicitaria televisiva
ultimamente ha portato all’attenzione dello spettatore e degli altri media slogan,
spot e cortometraggi pubblicitari, dediti a sponsorizzare i prodotti di
cui si facevano portavoce, attraverso l’utilizzo di animazione 3D quasi a voler
dimostrare come questo linguaggio d’avanguardia sia diventato l’irrinunciabile
cordone comunicativo tra media e pubblico.
42 | fasi di skeletal animation per la realizzazione dello spot pubblicitario di una famosaauto Citroën
#3 applicazioni future
44
45
Queste premesse sono state necessarie al fine di comprendere quanto le tecnologie
decritte in precedenza stiano rivoluzionando non solo il settore del cinema
di animazione, ma anche gli ambiti comunicativi ad esso connessi.
Il progresso delle tecniche e i continui miglioramenti apportati
quotidianamente ai software d’animazione lasciano spazio a possibili future
applicazioni ancora oggi inimmaginabili e, in questo capitolo, si proverà
ad affronatare l’argomento del prossimo orizzonte tecnologico che queste
tecnologie potrebbero incontarare, mediante la rappresentazione di ipotetici
sviluppi avvenieristici (del tutto personali!).
Interazione uomo-personaggio virtuale
Non sarebbe fantastico interagire, o per lo meno percepire visivamente
in modo tridimensionale i personaggi, disneyani e non solo, che hanno segnato
indelebilmente il nostro immaginario infantile diventando i protagonisti dei nostri
sogni di bambini?
Ipotizzando l’eventualità che attraverso lo stesso approccio di intelligenza
artificiale di cui fa uso, per esempio, la crowd simulation si possa attribuire
ad un personaggio virtuale movenze e reazioni a determinate situazioni,
allora la risposta alla domanda sovrastante sarebbe sì!
43 | disegno rappresentante un’ipotetica interazione tra una famiglia e Topolino (disegno di Erika Rossi)
Infatti, se si pensa di poter ricreare un vasto range di comportamenti
e stati emotivi per poi applicarli alla figura virtuale, generata in 3D su schermo,
che più si preferisce, sarebbe possibile ottenere un personaggio digitale
personalizzato che reagisce in modo del tutto autonomo ed indipendente
a specifici agenti esterni.
Limitando l’animazione soltanto a questa fase, però, avremmo comunque
un personaggio caratterizzato da una certa “staticità”, se così si può definire,
in quanto il suo raggio d’azione rientrerebbe nei confini del monitor e non
permeterebbe nessun tipo di interazione con l’uomo se non attraverso il mouse.
Si è quindi ipotizzata l’opportunità di ottenere una proiezione olografica
del personaggio la quale, pur mantenendo le medesime caratteristiche del suo
corrispondente render su schermo, gli conferisce una componente
di concretezza e suggestione che renderebbe l’interazione con l’uomo
un’esperienza fortemente coinvolgente.
All’interno dei parcogiochi, in occasione di importanti fiere e/o eventi, in spazi
appositi ricreati per il divertimento e lo svago sarebbe possibile entrare “in
contatto” (le virgolette sono doverose in quanto, comunque, l’olografia, non è
tangibile) con i protagonisti di cartoni animati, fiabe e racconti che prendono vita
dallo schermo animandosi davanti ai nostri occhi.
44 | rappresentazione ideale del sistema semplificato tra render a schermo-proiettore-olografia (disegno di Erika Rossi)
46
47
Ma questa tecnologia potrebbe essere applicata a qualsiasi creatura 3D dotata
di intelligenza artificiale, la quale potrebbe rispondere al nostro saluto, stringerci
in un abbraccio, sorriderci se ne fossimo impauriti, ballare assieme a noi e fare tutto
ciò che gli viene indicato da comandi e vincoli impostati precedentemente al fine
di rendere l’interazione uomo-personaggio un’esperienza di grande impatto.
L’unico limite tra realtà e virtuale sarebbe la nostra fantasia
nell’imporre i controlli e le reazioni!
#3 applicazioni future
45 | vignette esemplificanti 4 possibili comandi di A.I. in reazione a certe azioni: calcio, abbraccio, saluto, ballo (disegno di Erika Rossi)
Vivere virtualmente nella realtà
Il gioco di parole che intitola questo paragrafo vuole porre l’accento sui paradossi
e le contraddizioni che le tecnologie di animazione 3D porteranno all’interno della
routine quotidiana del futuro.
Infatti, la prossima proposta che verrà illustrata riguarda la possibilità che,
probabilmente, avremo di compiere le più disparate azioni come, una passeggiata
al chiaro di luna sulle rive della Senna, una serata scatenata in discoteca con gli amici,
un romantico incontro nel Grand Canyon o una corsa nel parco stando a casa,
dentro la nostra stanza!
Questa incredibile e paradossale esperienza sarà resa possibile grazie
ad un’evoluzione della tecnica motion capture attraverso la quale, indossando
la tuta munita di sorgenti ad infrarossi ed un visore di realtà virtuale
al fine di avere davanti a noi la scena in cui ci prestiamo ad inserirci, potremmo
immergerci nel set digitale che più preferiamo come, per esempio,
SecondLife o qualsiasi altro social network a cui siamo iscritti.
Incarnando fisicamente il nostro avatar e facendolo muovere come meglio
crediamo, non più attraverso il mouse e la tastiera del computer, ma realmente,
trasmettendogli in tempo reale i movimenti che intendiamo fargli compiere
poichè li stiamo simulando noi stessi in quell’istante, avremo la sensazione di vivere
a pieno in un mondo virtuale che stiamo gestendo attraverso gesti reali.
46 | rappresentazione ideale di una persona che, con tuta MoCap e visore virtuale simula una corsache sta vivendo all’interno della realtà 3D vista attraverso il visore (disegno di Erika Rossi)
48
49
Indossando una tuta MoCap ed un visore speciale dedito alla vista della realtà
virtuale prestabilita, l’utente potrà vivere l’esperienza di realtà virtuale mediante
il suo avatar, un’estensione digitale della sua personalità, utilizzando
un approccio più fisico e tattile per trasporre le sue movenze nell’ambiente
virtuale in cui è inserito.
Il sistema sarà, quindi, collegato alla rete per consentire alle apparecchiature
indossate dalla persona di comunicare con l’avatar presente nel social network
ed utilizzerà una connessione di tipo WiFi in modo tale da evitare
la presenza ingombrante di fili e cavi di qualsiasi genere, consentendo all’utente
di muoversi liberamente all’interno del proprio spazio fisico.
Il computer sarà settato al fine di captare gli spostamenti delle sorgenti ad infrarossi
della tuta MoCap e li trasmetterà, per mezzo della rete, all’avatar del social network
prescelto che, istantaneamente, si muoverà come comandato dal corpo della
persona.
Credo che una situazione simile potrà essere adottata, all’interno del web,
da molteplici enti per la realizzazione di progetti straordinari, per esempio:
Facebook, MySpace, e altri siti affini, avrebbero la possibilità di estendere
la rete di contatti che rispettivamente gestiscono ad una dimensione 3D
virtuale per permettere agli utenti iscritti di creare il proprio alterego
e rapportarlo ad amici e conoscenti; gli eventi promossi potrebbero essere vissuti
a livello virtuale da migliaia di avatar, oltre che nel mondo reale ovviamente, con
un conseguente incremento di sponsor, pubblicità e circolazione
di informazioni.
Qualsiasi sito avrebbe l’occasione di sfruttare, tramite differenti modalità, questa
tecnologia fornendo ai cittadini digitali della rete una nuova tipologia di emozioni,
sensazioni ed esperienze in grado di coniugare reale e virtuale.
#3 applicazioni future
47 | corrispondente azione virtuale compiuta dal soggetto nella pagina a fianco (disegno di Erika Rossi)
Fuffy è sempre a portata di mano
Il terzo ed ultimo, ma non meno importante, progetto qui porposto che
le tecnologie di animazione 3D potrebbero rendere possibile è la creazione
di un’interfaccia portatile in grado di rendere tascabile i propri animali
domestici.
Una sorta di videogame personalizzato che, a differenza di un tradizionale
ed asettico Tamagotchi, consente all’utente di mantenere un costante contatto
con il proprio animale domestico, monitornadone anche eventuali problemi,
attraverso un’interfaccia divertente, semplice e giocosa.
Infatti, il sistema di rilevazione dei movimenti dell’animale non sarebbe riprodotto
tramite un’immagine fotografica ripresa da videocamera, poichè l’aspetto ludico
verrebbe perduto ed il tutto risulterebbe noioso e privo di affordance.
L’animale reale verrebbe dotato di appositi sensori, possibilmente poco invasivi,
posti nelle giunture del corpo, il cui movimento sarebbe captato da una serie
di telecamere collocate nella casa del proprietario.
Successivamente, la ripresa verrebbe codificata per rendere l’immagine digitale
ed inviata, tramite WiFi, alla console portatile debitamente configurata al fine
di riprodurre l’architettura dell’ abitazione posseduta dall’utente.
Quest’ultimo, quindi, sarebbe in grado di vedere le azioni compiute dal proprio cane,
gatto, canarino ecc. ma limitando il sistema a quest’unica possibilità verrebbe
a mancare il coinvolgimento ed il divertimento necessario a rendere il prodotto
appetibile ed interessante.
48 | un utente in viaggio gioca con il suo gatto attraverso la sua console (disegno di Erika Rossi)
50
51
Si è quindi pensato di inserire un’interazione dedita all’intrattenimento
di entrambe le parte, padrone ed animale, funzionante nel modo seguente:
attraverso la penna della console, l’utente potrebbe muovere e spostare a suo
piacimento un elemento che, nello schermo del videogame risulterebbe come
una sorta di pallina ed il cui parallelo nella realtà altro non sarebbe che una piccola
fonte luminosa puntiforme che riprodurrebbe i movimenti dell’elemento
sopracitato.
Una serie di mini-proiettori dislocati lungo le pareti della casa, dovrebbero
rigenerare gli spostamenti della luce puntiforme attuati dall’utente nella propria
console, in modo tale che l’animale reale vedendola ne sia attratto e si inneschi
una sorta di gioco a distanza tra padrone ed animaletto.
Penso che un’idea simile possa avere ripercussioni positive all’interno
della società, in quanto, non solo il cliente sarebbe spronato a prendersi cura
del proprio animale reale-digitale in ogni momento anzichè di un finto cucciolo
(come accade in molti videogames), ma potrebbe divertirsi con lui anche
in situazioni in cui il contatto fisico verrebbe certamente a mancare (al lavoro,
durante gli spostamenti fuori casa, a scuola, ecc.).
#3 applicazioni future
49 | a sinistra: nelll’interfaccia della console l’utente muove la “pallina” per far giocare il suo gatto (disegno di Erika Rossi)50 | a destra: il gatto a casa vede la ”pallina” di luce, proiettata dal mini-proiettore, muoversi sul pavimento (disegno di Erika Rossi)
conclusioni
54
55
Ritengo che l’excurcus generale effettuato attraverso questa breve ricerca sia
risultato molto utile per l’approfondimento delle tematiche riguardanti le ultime
tecnologie di animazione 3D, poichè lascia spazio ad una ambivalenza descrittiva
teorico-pratica che illustra i procedimenti necessari, dalla A alla Z, per
la realizzazione di personaggi virtuali.
Lo scopo di questa analisi è quello di rivelare la complessità degli aspetti
sottesi al processo di animazione 3D, i quali sono in grado di dar vita
a creature digitali e prodotti virtuali estremamente realistici e di forte
impatto visivo grazie all’unione dell’abilità dei maestri animatori
e delle incredibili possibilità offerte dai software di ultima generazione.
Basti pensare alla sterminata produzione dello Studio Disney Pixar che,
puntualmente, ogni anno ci regala film d’animazione sempre più raffinati
e dettagliati che portano sul grande schermo personaggi antropomorfi
dalle caratteristiche comportamentali umano-emotive, come l’ultimo “Wall-e”
(2008); oppure, si possono citare gli esaltanti film in bilico tra reale
e virtuale come,“La Bussola d’Oro”, “Le Cronache di Narnia”, e molti altri.
Credo che questa ricerca possa essere d’aiuto per comprendere al meglio come
la tecnologia non debba essere considerata un ostacolo al lavoro di attori e registi
ma, al contrario, un’imperdibile occasione di mettere alla prova le proprie
capacità rapportandosi ad un mondo sempre più in espansione che oltrepassa
i confini dell’immaginazione.
Le tecniche avvenieristiche qui presentate, sottolineano come l’unico limite che
ci si può trovare ad affrontare sia la propria fantasia nel creare personaggi,
reami immaginifici ed atmosfere suggestive originali, innovative ed attraenti dal
punto di vista dello stimolo visivo.
Personalmente, credo che in futuro queste tecnologie avranno l’opportunità
di conoscere campi di applicazioni nuovi, in particolare il trasferimento sul
web e l’adattamento in rete a canali comunicativi innovativi, in grado di offrire
al pubblico numerose sconosciute esperienze finora inimmaginabili come,
ad esempio, quelle descritte nel terzo capitolo.
Concludendo, attraverso questo lavoro di ricerca ho potuto analizzare
ed approfondire un ambito comunicativo-espressivo molto interessante
che conoscevo solo marginalmente, confrontandomi con realtà tecnologiche
recenti applicabili anche a settori diversissimi tra loro ed individuare
le questioni etico-morali a cui le tecnologie sempre più presenti
ed inscindibili dalla nostra quotidianità ci chiedono di risolvere.
Sarebbe più opportuno limitare la conoscenza umana nell’investigazione delle
possibilità offerte dalla tecnologia, oppure subordinare quest’ultima alla volontà della
società al fine di creare una pacifica coesistenza in grado di migliorare molti aspetti
della nostra vita?
Credo che la seconda affermazioni porterebbe ad importanti progressi.
conclusioni
51 | nella pagina a fianco: Wall-e, ultimo personaggio nato dal genio di Disney Pixar (2008)
bibliografia
Libri
Bigi Daniele e Ceccarelli Nicolò, Animazione 3D, storia, tecniche, produzione,
Mondadori Informatica, Milano 2004
Génin Bernard, Il cinema di animazione, dai disegni alle immagini di sintesi, Lindau,
Torino 2005
Kerlow Isaac Victor, The art of 3D computer animation and effects, John Wiley
& Sons, Los Angeles 2003
Osipa Jason, Animazione e modellazione 3D, McGraw-Hill, Milano 2008
Allegato al periodico Ciak, La trilogia, Il Signore degli Anelli, dalle uscite speciali
di Ciak, Dietro le quinte dei grandi film, Mondadori, Milano 2003
Web
http://academic.evergreen.edu
http://frederatorblogs.com
http://gopaultech.com
http://graphic3d.forumer.it
http://isdafanclub.altervista.org
http://it.encarta.msn.com
http://it.truveo.com
http://it.wikipedia.org
http://leviathans.wordpress.com
http://local.wasp.uwa.edu.au
http://mecca.louisville.edu
http://people.csail.mit.edu
http://portal.acm.org
http://recherche.ircam.fr
http://renderman.pixar.com
http://venturebeat.com
www.3d-canvas.com
www.3sulblog.com
www.absoluteastronomy.com
www.andywhiteley.com
www.animationartconservation.com
www.banniland.com
www.cgarena.com
www.cgitalia.it
www.chrisoat.com
www.cinemasterpieces.com
www.crowdsimulationgroup.co.uk
www.cs.bilkent.edu.tr
www.cs.ucr.educ
www.cs.wisc.edu
www.elikrotupos.com
58
59
bibliografia
www.fahrenheitdigital.com
www.fantasymagazine.it
www.gameplayer.it
www.gorilla.it
www.grafica3dblog.it
www.highly.com
www.irtc.org
www.joshuadavidbrown.com
www.juegos.es
www.leocov.com
www.lordofthering.net
www.mattepainting.org
www.maurobaldissera.it
www.mit.edu
www.n-gate.it
www.naturalpoint.com
www.noemalab.org
www.norwesters.org
www.pixar.com
www.princeofpersiagame.com
www.rdrock.it
www.renderglobal.org
www.sciweavers.org
www.serintage.com
www.signoredeglianelli.org
www.slashfilm.com
www.softimage.com
www.softpedia.com
www.sogonow.com
www.striain.net
www.thegtacenter.com
www.theonering.net
www.tinkering.net
www.totalformat.com
www.urbanmodellinggroup.co.uk
www.uweb.ucsb.edu
www.vicon.com
www.webdesign.org
Crediti fotografici
Immagine1 | http://images.allmoviephoto.com/2007_The_Simpsons_Movie/2007_
the_simpsons_movie_006.jpg
Immagine2 | http://upload.wikimedia.org/wikipedia/commons/8/8a/Celshading_
teapot_large.png
Immagine 3.1 | http://upload.wikimedia.org/wikipedia/commons/b/b8/Cel_
shading_no_outlines.png
Immagine 3.2 | http://upload.wikimedia.org/wikipedia/commons/7/76/Cel_
shading_normals.png
Immagine 3.3 | http://upload.wikimedia.org/wikipedia/commons/9/97/Cel_
shading_edge_detection.png
Immagine 3.4 | http://upload.wikimedia.org/wikipedia/commons/a/af/Cel_
shading_composite_final_image.png
Immagine 4 | http://www.juegos.es/blog/wp-content/uploads/2008/10/prince-of-
persia.jpg
Immagine 5 | http://www.3dvf.com/DATA/PUBLISH/1231/images/Catalyst_skin_
morph.jpg
Immagine 6 | http://www.zbrushcentral.com/zbc/attachment.
php?attachmentid=100856
Immagine 7 | http://www.cs.ucr.edu/~sorianom/cs134_09win/anim.png
Immagine 8 | http://www.lifemi.com/products/LSH/Artist/Art_max_impex_b2.jpg
Immagine 9 | http://people.csail.mit.edu/ibaran/autorig.pdf
Immagine 10 | http://people.csail.mit.edu/ibaran/autorig.pdf
Immagine 11 | http://people.csail.mit.edu/ibaran/autorig.pdf
Immagine 12 | http://people.csail.mit.edu/ibaran/autorig.pdf
Immagine 13.1 | http://www.maurobaldissera.it/gallery/immagini/originali/
sissitestaossa.jpg
Immagine 13.2 | http://www.maurobaldissera.it/gallery/immagini/originali/
sissiXraywEB.jpg
Immagine 13.3 | http://www.maurobaldissera.it/gallery/immagini/originali/
sissidorme.jpg
Immagine 14 | http://www.maurobaldissera.it/gallery/immagini/originali/sissi.jpg
Immagine 15 | http://www.3dm3.com/tutorials/maya/crowd/image_11.jpg
Immagine 16 | http://www.cs.bilkent.edu.tr/~gudukbay/crowd_simulation/
protest1.bmp
Immagine 17 | http://www.urbanmodellinggroup.co.uk/CSG/
Immagine 18 | http://www.chrisoat.com/images/Froblins.jpg
Immagine 19 | http://www.rohirrim.it/downloads/Desktop/Rohan/Riders%20
of%20Rohan.jpg
Immagine 20 | http://www.risorseonline.org/sfondi_1024/cinema-27/sfondi_
matrix_revolution_4.jpg
Immagine 21 | http://hmi.ewi.utwente.nl/vdancer/mocap_screenshot_1.gif
Immagine 22 | http://img124.imageshack.us/img124/3256/figure1ro2.gif
Immagine 23 | http://www.naturalpoint.com/optitrack/images/products/large-
mocapsuit.jpg
Immagine 24 | non trovato
Immagine 25 | http://people.csail.mit.edu/jovan/assets/papers/vlasic-2007-pmc.pdf
Immagine 26 | http://people.csail.mit.edu/jovan/assets/papers/vlasic-2007-pmc.pdf
60
61
bibliografia
Immagine 27 | http://www.wallpaperland.net/wp-content/uploads/2008/06/
signore_degli_anelli.jpg
Immagine 28 | http://img-nex.theonering.net/images/scrapbook/orig/16249_orig.
jpg
Immagine 29 | immagine tratta dal libro La trilogia, Il Signore degli Anelli, dalle uscite
speciali di Ciak, Dietro le quinte dei grandi film, Mondadori, Milano 2003
Immagine 30 | immagine tratta dal libro La trilogia, Il Signore degli Anelli, dalle uscite
speciali di Ciak, Dietro le quinte dei grandi film, Mondadori, Milano 2003
Immagine 31 | http://www.wladca.mocny.com/prince/Balrog_Wallpaper.jpg
Immagine 32 | immagine tratta dal libro La trilogia, Il Signore degli Anelli, dalle uscite
speciali di Ciak, Dietro le quinte dei grandi film, Mondadori, Milano 2003
Immagine 33 | immagine tratta dal libro La trilogia, Il Signore degli Anelli, dalle uscite
speciali di Ciak, Dietro le quinte dei grandi film, Mondadori, Milano 2003
Immagine 34 | non trovato
Immagine 35 | http://www.uweb.ucsb.edu/~mstockham/lotr_gollum_342800.jpg
Immagine 36 | immagine tratta dal libro La trilogia, Il Signore degli Anelli, dalle uscite
speciali di Ciak, Dietro le quinte dei grandi film, Mondadori, Milano 2003
Immagine 37 | immagine tratta dal libro La trilogia, Il Signore degli Anelli, dalle uscite
speciali di Ciak, Dietro le quinte dei grandi film, Mondadori, Milano 2003
Immagine 38 | immagine tratta dal libro La trilogia, Il Signore degli Anelli, dalle uscite
speciali di Ciak, Dietro le quinte dei grandi film, Mondadori, Milano 2003
Immagine 39 | http://www.fantasymagazine.it/imgbank/NEWS/gollum_model.
nb.jpg
Immagine 40 | http://www.theonering.com/images/medialibrary/andy%20in%20
his%20mo%20cap%20suit%20enlargement.jpg
Immagine 41 | immagine tratta dal libro La trilogia, Il Signore degli Anelli, dalle uscite
speciali di Ciak, Dietro le quinte dei grandi film, Mondadori, Milano 2003
Immagine 42 | http://www.videogiochi3d.it/img-esterne/citroen-c4/04-chiusura.
jpg
Immagine 43 | disegno di Erika Rossi
Immagine 44 | disegno di Erika Rossi
Immagine 45 | disegno di Erika Rossi
Immagine 46 | disegno di Erika Rossi
Immagine 47 | disegno di Erika Rossi
Immagine 48 | disegno di Erika Rossi
Immagine 49 | disegno di Erika Rossi
Immagine 50 | disegno di Erika Rossi
Immagine 51 | http://fromthegreenroom.files.wordpress.com/2009/01/walle.jpg