S&H Magazine (Page 1) · 2019-07-16 · scono quando il guidatore è stanco e non è più in grado...

2
6 S&H MAGAZINE di ALESSANDRO LIGAS I film e i telefilm sono sempre sta il luogo ideale dove poter far viaggiare la fantasia dei regis, dei telespea- tori, ma anche il campo ideale dove è possibile far incontrare la scienza e la fantascienza. Negli anni Seanta ed Ot- tanta nelle pellicole cinematografiche e nelle ficon di fantascienza le porte si aprivano da sole o, nei casi di basi segrete e stanze nascoste, si ulizzavano sofisca sistemi che permeevano di aprirle araverso il riconoscimento fac- ciale o con le impronte digitali. Le ficon odierne si sono spinte oltre. Ad esempio, grazie all’Intelligenza Arficiale e a tec- niche biometriche si raccolgono illegal- mente da in tuo il globo dagli impian di sorveglianza pubblici e priva, con l’obievo di prevedere gli even e indi- viduare i criminali. Ma a che punto è la ricerca rispeo al futuro descrio nelle serie televisive? I ricercatori sono riusci a far diventare scienza la fantascienza dello schermo e il riconoscimento facciale una tecnologia che oggi usiamo quodianamente. Pos- siamo bloccare o sbloccare con uno sguardo gli smartphone, le auto ricono- scono quando il guidatore è stanco e non è più in grado di guidare. Al centro di ricerca, sviluppo e studi su- periori in Sardegna, Crs4, con sede presso il Parco tecnologico di Pula, si studia il futuro immaginato nelle serie televisive. Il gruppo di ricerca Content Technologies & Informaon Manage- ment, guidato da Maurizio Agelli, da anni lavora ad una serie di applicazioni che permeono di riconoscere, all’in- terno di una immagine o di un video, un volto riuscendo a fornire anche altre pologie d’informazione, come l’età, il Sicurezza, videosorveglianza e interazioni con i beni culturali: le app che te lo leggono in faccia ekkasit919 - stock.adobe.com

Transcript of S&H Magazine (Page 1) · 2019-07-16 · scono quando il guidatore è stanco e non è più in grado...

6 S&H MAGAZINE

di ALESSANDRO LIGAS

I film e i telefilm sono sempre stati illuogo ideale dove poter far viaggiarela fantasia dei registi, dei telespetta-

tori, ma anche il campo ideale dove èpossibile far incontrare la scienza e lafantascienza. Negli anni Settanta ed Ot-tanta nelle pellicole cinematografiche enelle fiction di fantascienza le porte siaprivano da sole o, nei casi di basisegrete e stanze nascoste, si utilizzavanosofisticati sistemi che permettevano diaprirle attraverso il riconoscimento fac-ciale o con le impronte digitali. Le fictionodierne si sono spinte oltre. Ad esempio,grazie all’Intelligenza Artificiale e a tec-niche biometriche si raccolgono illegal-mente dati in tutto il globo dagli impiantidi sorveglianza pubblici e privati, conl’obiettivo di prevedere gli eventi e indi-viduare i criminali.

Ma a che punto è la ricerca rispetto alfuturo descritto nelle serie televisive? Iricercatori sono riusciti a far diventarescienza la fantascienza dello schermo eil riconoscimento facciale una tecnologiache oggi usiamo quotidianamente. Pos-siamo bloccare o sbloccare con unosguardo gli smartphone, le auto ricono-scono quando il guidatore è stanco enon è più in grado di guidare. Al centro di ricerca, sviluppo e studi su-periori in Sardegna, Crs4, con sedepresso il Parco tecnologico di Pula, sistudia il futuro immaginato nelle serietelevisive. Il gruppo di ricerca ContentTechnologies & Information Manage-ment, guidato da Maurizio Agelli, daanni lavora ad una serie di applicazioniche permettono di riconoscere, all’in-terno di una immagine o di un video,un volto riuscendo a fornire anche altretipologie d’informazione, come l’età, il

Sicurezza, videosorveglianza einterazioni con i beni culturali:le app che te lo leggono in faccia

ekka

sit9

19 -

stoc

k.ad

obe.

com

shmag.it 7

genere o l’espressione facciale, in temporeale. Il progetto si chiama DEEP, acro-nimo di “Data Enrichment for EngagingPeople”, sviluppato in collaborazionecon la società Alkemy SpA, con l’obiettivodi realizzare una piattaforma di analisie previsione in grado di trattare in temporeale grossi flussi di contenuti testuali evisuali, provenienti da molteplici contestiad alta frequenza di produzione.“Sicurezza, sorveglianza del territorioma anche comprensione delle intera-zioni dei visitatori di un museo di frontead un’opera d’arte - spiega MaurizioAgelli - sono soltanto alcuni degli sviluppiche si possono immaginare. Le tecnologieche abbiamo sviluppato partono dalconcetto fondamentale di estrarre in-formazioni dalle immagini e di come siapossibile interpretarle. Quindi non sonosolo informazioni che si limitano a de-scrivere l’immagine, ma proprio datiche delineano la scena nell’immagine eche riconoscono gli oggetti”. Analisi che si possono certamente fare“a mano”, a posteriori, sia su immaginiche su video ma che sono estremamenteonerose in termini di tempo e di persone.“Se pensiamo ad archivi di migliaia difotografie e immagini video da analizzare- prosegue il ricercatore - possiamo sol-tanto immaginare il tempo necessarioper completarlo, senza contare che que-sta tipologia di lavoro non è possibilefarla in tempo reale. Basti pensare aquei casi in cui una videocamera riprendeuna scena 24 su 24 e dove non è possibilefare un lavoro a posteriori perché è ne-cessario prendere decisioni immediate.Come nel caso del settore della sicurezzainteso sia nel senso di security, per veri-ficare che non entrino una certa tipologiadi persone all’interno di un evento o diun’area, o semplicemente intesa comesafety ossia l’accorgersi che determinatimovimenti di folla possono diventarepericolosi se non sono rilevati in temporeale e se non si pongono in essere nel-l’immediato azioni specifiche”.

Il progetto Deep si articola in diversiambiti: telecomunicazioni, turismo/beniculturali e new media. “Noi ora siamoconcentrati sul settore del turismo e deibeni culturali - prosegue il ricercatore -dove stiamo sviluppando due tipologiedi prototipi. Il primo è finalizzato a mo-nitorare le reazioni dei visitatori di frontead un determinato artefatto visuale,ossia capire quante persone si fermano,cosa guardano, per quanto tempo, qualisono le caratteristiche di queste personee quindi identificare dal volto la loroetà, il genere, capire se effettivamentestanno guardando l’opera o stanno guar-dando altrove. Inoltre, il sistema riesceanche a leggere le espressioni faccialiclassificate in sette tipologie: felicità, di-sgusto, paura, sorpresa, tristezza, rabbiae neutrale. Il secondo è finalizzato amonitorare le persone presenti in grandispazi, ad esempio contando le personepresenti in una piazza e identificandonei flussi alle varie ore del giorno. L’obiettivoè quello di cercare di comprendere, edeventualmente, indirizzare, l’esperienzaculturale del visitatore tarandola sullesue esigenze”.Queste ricerche hanno suscitato un forteinteresse anche in altri ambiti come inquello commerciale e nel marketing,dove da sempre, si vuole capire chi sonole persone che acquistano, conoscerele loro caratteristiche e soprattutto gliinteressi in real time. Gli studi non si esauriscono qui e si stagià pensando a future applicazioni comead esempio riuscire a tracciare e moni-torare dove una persona, o un flusso dipersone, si sposta all’interno di una ca-mera o di uno spazio aperto ma ancheavere la possibilità di fare stime precise.Tutte queste informazioni verrebberopoi proiettate in modelli e mappe 3D inmodo da vedere in real time cosa stasuccedendo e “prevederlo”. Ma questetecnologie portano con sé anche dellecriticità legate ad aspetti legali e sopra-tutto di privacy senza contare poi, nelcaso di autonomia d’azione, di etica.