Logyn - password not required

100
Dicembre 2012 LUNGO LA VIA DELL’INNOVAZIONE I PASSI CHE FANNO LA STORIA DELL’IT incontri con scenari stile libero

description

Logyn è il progetto editoriale del Gruppo Eurosystem Sistemarca

Transcript of Logyn - password not required

1

Dicembre 2012

LUNGO LA VIADELL’INNOVAZIONEI PASSI CHE FANNO LA STORIA DELL’IT

incontri con scenari stile libero

4

6

51

42

26

4

ALESSANDRO VARDANEGA MATERIALE, IMMATERIALE, SOCIALE

PRESENTE E FUTURO DELL’INDUSTRIA TREVIGIANA

NICOLA CINIEROIBM: STORIA DI UN SECOLO

DI TECNOLOGIA E CONOSCENZA

STEFANO MORIGGI PENSARE CON LE MACCHINE!

È LA TECNOLOGIA CHE CI RENDE UMANI...

VINCENZO COSENZA SOCIAL MEDIA ROI

incontri con

scenari

5

editoriale di Gian Nello Piccoli

incontri con ALESSANDRO VARDANEGA

Materiale, immateriale, socialeENZO RULLANI

Le reti d’impresa nella nuova eraNICOLA CINIERO IBM: storia di un secolo di tecnologia e conoscenza

focusLungo la via dell’innovazione

scenariC’è futuro per l’ICT in Italia? STEFANO MORIGGI

PENSARE CON LE MACCHINE!

La tecnologia entra nel mondo della fotografi a storicaSocial Media RoiFisco & Lavoro: Riforma ForneroD.L. Crescita

storiesCome nasce un caso di successo Recus: l’IT che fa la differenza Automazione dei processi

spazio a yStrade libere di crearsi

stile libero CONOSCIAMOCI

Lavorare con IT e ICT

MEDICINA E LAVORO

Nanotecnologie e nanomaterialiIL VIAGGIO

Trekking 2.0PERCORSI

Il personaggio Luca GheserSPORT

Innovazione per il nuovo professionistaCUCINA

L’acqua di mare & l’erba voglioUFFICIOVERDE

La Stella di Natale10 TITOLI

La tecnologia in borsaA PIÙ VOCI

New Media per l’innovazione socialeFUMETTI

La matita di Sue

3

6

22

42

1654

7011

26

37 72

77

81

84

88

91

92

94

97

5165

30

3460

77

84

ALBERTO PELLIZZARI IL VIAGGIOTREKKING 2.0

MASSIMO SCARPA SPORTINNOVAZIONE PER IL NUOVO PROFESSIONISTA

stile libero

SOMMARIO

6

DICEMBRE 2012

La Terza Rivoluzione Industriale ha, di fatto, introdotto una nuova “cultura” d’impresa. La provincia di Treviso, che in passato fu l’Offi cina del Nordest, come ha assimilato questo cambiamento?Vorrei partire dal titolo di un appuntamento di qualche anno

fa del Gruppo Giovani Imprenditori di Unindustria Treviso

che bene esemplifi ca il senso del cambiamento in atto nelle

nostre imprese: “Dalla fabbrica all’industria”. La rifl essione,

anticipatrice dell’attuale periodo di cambiamento, evidenziava

come l’economia della “fabbrica”, intesa come manifattura

in senso stretto, si spostasse per effetto dei processi di

globalizzazione sempre più nelle Economie emergenti a basso

costo del lavoro.

Il nostro sistema produttivo è, e sarà, chiamato a

valorizzare al massimo la propria elevata specializzazione

trasformandola in “industria” in senso compiuto, quale luogo

di accumulazione e impiego della conoscenza, capace quindi

di guidare processi manifatturieri, qui e altrove, inseriti in

un processo complesso che inizia con la fase di ideazione,

progettazione, design, industrializzazione per arrivare alla

comunicazione, commercializzazione e vendita.

Capitale umano e conoscenza sono quindi le leve dello

sviluppo presente e futuro di questo territorio, che non dovrà

però dimenticare la cultura della “fabbrica”, ovvero la capacità

manifatturiera che rimane il nostro asset distintivo.

L’evento era del 2004, oggi le aziende trevigiane come rispondono a questa “nuova cultura” che vede strategici nella catena produttiva gli elementi della conoscenza e del capitale umano?Fondazione Nordest afferma che anche in una “tradizionale”

media impresa metalmeccanica del nostro territorio le

persone impiegate nei reparti produttivi non sono più la

maggioranza della forza lavoro, mentre un buon 50% dei

dipendenti è rappresentato da fi gure professionali addette a

funzioni “terziarie”. È l’industria, per riprendere quanto detto,

che diversamente dalla “fabbrica” ormai comprende al suo

interno numerose funzioni legate alla conoscenza che prima,

almeno nelle imprese medio – piccole, erano sicuramente

meno presenti.

L’impresa è oggigiorno attenta a ciò che sta a “monte” e a

“valle” della catena produttiva, cioè è chiamata a presidiare

una catena del valore ben più lunga e complessa rispetto al

passato.

6

Intervista ad Alessandro Vardanega, presidente di Unindustria Treviso

PRESENTE E FUTURO DELL’ INDUSTRIA TREVIGIANA

MATERIALE,IMMATERIALE, SOCIALE

7

incontri con

“In passato, alcuni fattori hanno permesso una crescita straordinaria: ad esempio la propensione al rischio perché il contesto sociale era ancora agli inizi e poteva rilanciare”

7

“Oggi, l’impresa presidia ciò che sta a ‘monte’e a ‘valle’ della catena produttiva: ovvero la capacità di progettazione, ideazione e il rapporto con il mercato”

TREVISO DUEProgetto dell’architetto svizzero

Mario Botta. Il complesso

ospita istituzioni pubbliche

e private, abitazioni e spazi

commerciali. Dal 2011 è sede

di Unindustria Treviso

8

DICEMBRE 2012

Quali sono questi aspetti? Un tratto che accomuna aziende eccellenti è il fatto che

presidiano quella parte della catena che sta a “monte”, ovvero

la capacità di progettazione, ideazione, design. Questi sono gli

elementi che creano funzioni immateriali.

E poi, a “valle”, quindi intendo il rapporto con il cliente finale

che spesso in passato è stato vissuto in maniera indiretta

perché vendevamo a grossisti e facevamo i contoterzisti,

mentre oggi va seguita attentamente la relazione con il

consumatore perché ti permette di intercettare e capire i

bisogni dell’aspetto produttivo.

Il valore si colloca, quindi, molto più che in passato nella

parte iniziale e finale del ciclo pur rimanendo, naturalmente,

essenziale la componente manifatturiera in senso stretto, che

è eccellenza e vocazione del nostro territorio.

È una manifattura che si va sempre più terziarizzando così

come, in parallelo, i servizi si vanno “industrializzando” nel

creare una sintesi virtuosa e competitiva nei mercati.

Il nuovo valore diventa l’immateriale…

Nel percorso evolutivo diventa importante il fatto di creare

“valore” nei prodotti anche oltre il dato produttivo, pure

essenziale, comunicandone ad esempio il dato di innovazione,

il legame con il territorio, la qualità estetica e il design.

Tecnologia è conoscenza?Abbiamo attraversato in questi ultimi vent’anni almeno

due grandi cambiamenti che segnano una discontinuità

irreversibile rispetto al passato: l’apertura globale dei mercati

e la diffusione delle tecnologie in particolare quelle ICT. Tutto

questo ha trasformato l’organizzazione e i processi aziendali.

Inoltre, le tecnologie di comunicazione fanno accedere

agevolmente a conoscenze presenti in tutto il mondo.

Questo ha anche messo in discussione il concetto di

distretto, su cui si è fondata una parte importante del nostro

sviluppo industriale. Un tempo, infatti, le conoscenze su un

determinato comparto produttivo erano patrimonio proprio del

Alessandro Vardanega, 49 anni, sposato e padre di Francesco, è presidente di Industrie Cotto Possagno S.p.A., azienda del comparto laterizi e coperture.

Laureato in Economia Aziendale a Ca’ Foscari, ha maturato una decennale esperienza professionale in una primaria società internazionale di organizzazione e revisione contabile prima di assumere la responsabilità dell’azienda di Possagno, nata nel 1998 dall’unificazione di cinque imprese tra le quali quella che, da più generazioni, è della famiglia dello stesso Vardanega.

Alessandro Vardanega ha, inoltre, maturato una significativa esperienza associativa. In ambito nazionale, quale presidente, dal 2002 al 2006, dei Produttori Italiani di Coperture e tuttora come Vicepresidente di Andil, l’Associazione nazionale degli industriali dei laterizi aderente a Confindustria. In ambito trevigiano è stato, prima, presidente del Gruppo Laterizi – Calce – Cemento e, successivamente, vicepresidente di Unindustria Treviso con delega al Territorio, Utilities e Fonti Energetiche. È stato anche presidente di Unint, il consorzio promosso dall’Associazione per favorire le collaborazioni e aggregazioni tra imprese. È stato presidente di Proetica, l’associazione promossa in provincia di Treviso per lo sviluppo di modelli avanzati di responsabilità sociale d’impresa. Il 24 maggio 2008 è stato eletto presidente di Unindustria Treviso e riconfermato nel 2012 per un ulteriore biennio. È componente della giunta e dal 2012 anche del consiglio direttivo di Confindustria.

8

9

distretto, dove occorreva esserci e inserirsi.

Oggi invece, grazie alla rete, si può disporre di conoscenze

“originali”, anche se sviluppate in contesti lontani, a costi

molto inferiori rispetto a prima.

Un esempio molto pratico è il Gps usato ormai dovunque.

La possibilità di accedere a questi saperi è quindi essenziale

per le imprese e la Comunità. Per questo la banda larga è

un’infrastruttura altrettanto strategica di un’autostrada se non

di più. Anche su questo, purtroppo, scontiamo un ritardo che

si aggrava di anno in anno.

Il passo successivo è un argomento a Lei caro:Questa fase di crisi e di forte trasformazione rende

indispensabile che si ricreino le condizioni per un nuovo

Patto Sociale tra imprese e territorio. Occorre ripensare a

quanto avvenuto nel Dopoguerra quando questa comunità

ha avviato una grande stagione di sviluppo, che ha portato

benessere e opportunità, fondata su valori e obiettivi condivisi.

Erano condivisi, ad esempio, la propensione al rischio – in un

contesto sociale comunque povero –, la grande laboriosità,

il senso di responsabilità e di appartenenza. Eravamo una

popolazione giovane in un territorio con ampia disponibilità

di spazio: questo ci ha permesso di diventare la “fabbrica”

non solo delle aree più sviluppate di questo Paese ma anche

dell’Europa e oltre.

Raggiunto il benessere, e dandolo evidentemente per

scontato, si è passati a un approccio indifferente nei confronti

delle ragioni delle imprese, viste, quando va bene, solo

come strumento di arricchimento personale e non come

“infrastruttura sociale”.

Questo periodo di pesante crisi ci pone adesso di fronte a

una fase di cambiamento e forte discontinuità, pur partendo

da condizioni sicuramente migliori rispetto al passato. Anche

in questo caso occorre condivisione e alleanza tra imprese

e comunità per non rischiare il declino. Ho ripetuto in più

occasioni che senza impresa non c’è lavoro, senza lavoro non

c’è famiglia e senza famiglia non c’è società.

Interazioni quindi anche con le istituzioni:La competitività territoriale ha, come detto, la sua premessa

fondamentale nella condivisione tra imprese e Comunità, e a

questa devono seguire provvedimenti coerenti da parte delle

istituzioni, locali e nazionali, e dagli altri soggetti che operano

per lo sviluppo.

Potremmo diventare ben più attrattivi per gli investimenti se

vi fosse un sistema normativo più semplice e snello, un fisco

che potesse essere incentivo forte per le nuove iniziative

(come avviene in molti Paesi), costi dell’energia che non

fossero più alti del 30% rispetto al resto d’Europa.

E occorre conoscere com’è effettivamente l’impresa, che

nei mercati globali opera quotidianamente, e comprendere

ad esempio il valore di quell’immateriale (marchi, brevetti,

reti commerciali..) che non viene adeguatamente pesato

dal sistema finanziario nella determinazione del credito alle

aziende.

Per chiudere la nuova impresa e il ricambio generazionale.Infine, nel ripensamento della strategia aziendale c’è anche

un inevitabile impatto nell’organizzazione dell’impresa.

Anche per quanto riguarda il passaggio generazionale, tema

dibattuto a lungo e considerato un fattore di rischio per il

sistema imprenditoriale di questo territorio.

In realtà, il ricambio generazionale è già in corso, spesso

determinato anche dai processi di cambiamento in atto.

Possiamo rilevare come siano numerosi gli esempi di

successo, in cui la nuova generazione si affianca a quella

dei padri garantendo continuità e la tradizionale laboriosità,

ma apportando anche nuove competenze e nuovi modelli

organizzativi in azienda, che vedono il coinvolgimento

maggiore dei collaboratori e la delega di funzioni di

responsabilità a figure manageriali che operano insieme

all’imprenditore.

“Nel percorso evolutivo diventa importante il fatto di creare ‘valore’ nei prodotti […]. Si deve dare al manufatto i segni di riconoscibilità e di appartenenza a una comunità”

“I grandi cambiamenti, che la crisi ha accelerato, sono l’apertura dei mercati e la diffusione delle tecnologie. Queste ultime ti permettono di gestire in modo più efficiente i processi aziendali”

“L’impresa deve poter contare in una condivisione con la Comunità. […]C’è bisogno di rifondare un patto sociale in un rapporto di scambio che deve essere reciproco”

9

incontri con

10

DICEMBRE 2012

Potenti e completi, flessibili e affidabili

Archiviazione, sorveglianza video, virtualizzazione e soluzioni cloudProtezione, gestione e condivisione dei file importanti. La gamma di unità di storage di rete Iomega® StorCenter™ offre condivisione dei contenuti professionale e protezione dei dati avanzata. Con una capacità fino a 48 TB, la gamma Iomega® StorCenter™ garantisce prestazioni, velocità e affidabilità migliori di sempre.

©2012 Iomega Corporation. Tutti i diritti riservati. Iomega, StorCenter e il logo stilizzato “i” sono marchi o marchi registrati di Iomega Corporation negli Stati Uniti e/o in altri Paesi. I nomi di altri prodotti, marchi o società menzionati nella presente documentazione sono marchi o designazioni dei rispettivi proprietari www.iomega.com.

* Solo su alcuni modelli www.iomega.com

- Prestazioni elevate con Intel® Celeron, Intel Atom o il

nuovo processore Intel Quad-Core Xeon

- Una soluzione conveniente per la virtualizzazione dei

server, certificata per Windows®, VMware® e Citrix®

- Tecnologia cloud integrata

- Ambienti PC, Mac e Linux

- Soluzioni integrate per la gestione e l’archiviazione dei

contenuti di sorveglianza video: centinaia di modelli

di videocamere IP supportati.

- McAfee VirusScan Enterprise* integrato

- Installazione in tre passaggi facile e veloce attraverso

un’interfaccia Web intuitiva

- Protezione dei dati avanzata con supporto RAID

- Capacità massima di 48 TB

11

A guardare semplicemente i grafi ci dell’andamento del giro

d’affari legato all’industria delle It e Ict in Italia ci sarebbe

poco da stare allegri. Dal 2010 al 2012 il business del Global

digital market, limitatamente ai primi nove mesi dell’anno,

secondo i dati Assinform, è sceso da 71 milioni di euro a

meno di 69 e le previsioni dicono che scenderà almeno di un

altro milione nel 2013.

Le prospettive sugli investimenti sulle Ict per servizi non

residenziali, poste a confronto con quelli degli altri paesi del

mondo, pone poi l’Italia in posizioni imbarazzanti, al di sotto di

quelli di Spagna, Portogallo e Corea.

Il tema di fondo da tenere ben presente, tuttavia, è che

questo settore non è come tutti gli altri, nel senso che

l’oggetto da studiare, nelle analisi di mercato e nelle

proiezioni di evoluzione, è mobile, quasi sfuggente, capace di

cambiare il proprio perimetro in tempi brevissimi e di relegare

domani nell’area del “tradizionale” ciò che oggi appare

altamente innovativo.

E qui inizia già una prima importante distinzione che, anche in

Italia, vede trend divergenti. Se il segmento tradizionale – cioè

quello dell’hardware, dell’assistenza tecnica, dei software

non “open source” – denota una diminuzione fra il 2011

Il Mercato richiede nuovi investimenti e sostegno dal Governo

Presentati i dati Assinform 2012 sull’andamento del mercato IT e ICT in Italia. Un mercato che nel nostro

Paese sarà condizionato in modo decisivo da due fattori che non dipendono dai player privati del settore,

vale a dire la propagazione delle reti a larga banda sul territorio e la concretizzazione

dell’ “Agenda digitale” del Governo (dati Assinform 2012).

C’È FUTUROPER L’ICT IN ITALIA?

scenari

GIANNI FAVERO

12

DICEMBRE 2012

e il 2012 di almeno 2,5 punti percentuali, quella correlata

alle componenti aggiuntive e innovative, che corrisponde

grosso modo alla sesta parte del fatturato complessivo,

evidenzia invece un aumento di quasi il 7%. Si tratta, in

estrema sintesi, di tutto ciò che ha a che fare con sistemi di

connessione in mobilità, con il “cloud” – vale a dire, sempre

semplifi cando, l’affi damento dei dati a server decentrati

accessibili ovunque via web – con servizi di produzione e

di adeguamento di software su piattaforme libere e, per

quanto riguarda l’hardware, la fetta che comprende il mondo

di tablet e smartphone. Fra la prima metà del 2011 e il

corrispondente periodo di quest’anno, infatti, il mercato dei pc

ha perso il 14,7% per il comparto dei desktop e ben il 18,6%

per i notebook, area che è stata sensibilmente erosa dal

contestuale incremento dei tablet, la cui vendita in Italia ha

fatto registrare in un anno un corposo +77,1%.

“Oltre alla connessione in mobilità, cioè uno dei capisaldi

della grande sfi da – rileva Giuseppe Bincoletto, presidente

del Gruppo Terziario Innovativo di Unindustria Treviso – l’altro

grande aspetto dello scenario dell’immediato futuro sarà

la transizione da software e server chiusi a componenti

“standardizzate” ed aperte. Facciamo un esempio: i gestionali

aziendali da “cassaforte” dei dati, i più moderni diventano

banca delle informazioni se non addirittura bottega dei servizi

aziendali, con cui l’azienda non solo risponde alle richieste

commerciali, ma spesso le stimola proponendo servizi e

opportunità.

Oggi, grazie all’introduzione di standard internazionali, i

sistemi si “parlano” sempre di più. Questo signifi ca meno

costi in digitazioni e licenze e una grande fl uidità nei processi,

specie in ambito globale”.

13

Sullo sfondo, in ogni caso, rimane il fatto che il mercato

complessivo delle It/Ict in Italia sarà condizionato in modo

decisivo da due fattori che non dipendono dai player privati

del settore, vale a dire la propagazione delle reti a larga

banda sul territorio e la traduzione in realtà delle buone

intenzioni dell’“Agenda digitale” del Governo.

“Per le autostrade informatiche, in primo luogo la

penetrazione della fi bra ottica, siamo all’età della pietra –

ammette Bincoletto – mentre sulla digitalizzazione delle

funzioni nei rapporti fra cittadini/imprese e amministrazione

pubblica, c’è una grande attesa.

Speriamo ardentemente che non venga delusa, perché il

modello “smart city” che riassume tutti questi fl ussi è naturale

per i nativi digitali, ovvero una importante e crescente parte

dei cittadini attivi in questo Paese”.

L’infrastrutturazione per Internet veloce, intanto, procede ma

non rapidamente come atteso, tanto che più di qualcuno

pronostica il sorpasso della banda larga via cavo da parte

delle reti radio dei vari operatori telefonici che, ormai,

promettono velocità da sogno anche via etere.

Ma attenzione a non fare della velocità l’unico totem.

“Conviene andare a passi graduali. Non possiamo pensare

– conclude il presidente del Gruppo Terziario Innovativo degli

industriali trevigiani – a zone in cui i dati viaggiano a 100 Mb

ed altre no, perché il valore vero è la diffusione capillare, e la

velocità del sistema la dà il tratto più lento. Realisticamente,

con linee a 3 Mb reali disponibili veramente ovunque, ci

sarebbe da esser contenti; è terribile continuare invece con

questa diffusione a macchie di leopardo che soddisfa appena

poco più della metà del territorio”.

scenari

informazione pubblicitaria

Moltiplicata per 3 la velocità dei dati in rete geografi ca WANE per 20 la velocità del Disaster RecoverySilver Peak, società specializzata nelle soluzioni

di ottimizzazione delle WAN è stata recentemente

nominata Leader nel Gartner Magic Quadrant.

L’azienda sviluppa appliance fi siche e virtuali progettate

per ottimizzare le prestazioni della WAN riducendo allo

stesso tempo i costi. Grazie all’approccio esclusivo adottato

vengono assicurati altissimi livelli di scalabilità e fl essibilità

per supportare in modo strategico importanti iniziative IT,

come il consolidamento dei data center, la migrazione dei

dati, le procedure di disaster recovery, la centralizzazione e la

virtualizzazione di server e desktop.

Da prove sul campo si dimostra una eccellente soluzione per

risolvere problemi di larghezza di banda e di latenza e per

migliorare le prestazioni e l’affi dabilità della replica dei

dati, il backup e il disaster recovery attraverso una rete WAN.

Prodotto di punta dell’azienda è la Virtual Acceleration

Open Architecture (VXOA), software pluripremiato per

l’ottimizzazione della WAN. Le tecnologie alla base delle

VXOA e in grado di accelerare le applicazioni aziendali in

modo effi cacie e allo stesso tempo affi dabile sono: Network

Memory™, tecniche di accelerazione della rete TCP,

tecniche MPLS e VPN IP per preservare l’integrità della

rete; e policy effi caci di Quality of Service (QoS) per assicurare

l’assegnazione di priorità appropriate alle applicazioni e

l’allocazione di risorse di rete adeguate.

La soluzione Silver Peak Network Memory™ esamina tutto

il traffi co inviato tra client e server, archiviando le informazioni

come istanza locale nelle appliance Silver Peak. Le informazioni

ripetitive vengono distribuite localmente invece di essere inviate

attraverso la WAN, migliorando le prestazioni delle applicazioni

e l’utilizzo della WAN.

I problemi comuni di distribuzione dei pacchetti associati alle

tecnologie WAN condivise vengono risolti attraverso l’uso di

tecnologie MPLS e VPN IP che agiscono in tempo reale

e includono, ad esempio, Forward Error Correction (FEC)

adattiva e Packet Order Correction (POC) per risolvere il

problema dei pacchetti persi o fuori ordine.

Grazie alle varie tecniche di accelerazione TCP per

mitigare l’impatto della latenza della WAN, ad esempio il

dimensionamento regolabile delle fi nestre e gli avvisi selettivi,

è possibile risolvere il problema intrinseco della verbosità

(“chattiness”) che può altrimenti compromettere le prestazioni

delle applicazioni attraverso una WAN.

Infi ne, tecniche avanzate di Quality of Service (QoS) danno

priorità al traffi co e garantiscono la disponibilità di risorse di

rete. La Virtual Acceleration Open Architecture (VXOA),

oltre ad essere utilizzata in tutti i prodotti NX, VX e VRX di Silver

Peak, include funzioni avanzate anche per l’integrazione con

prodotti di terze parti, come router, switch, server e array di

storage.

Per maggiori informazioni

su Silver Peak

consultate il sito italiano

http://www.silverpeak.it/

15

Nel corso di questi difficili anni Unindustria Treviso è stata pro-

tagonista di una grande trasformazione che ha seguito due

grandi direttici: la ricerca di una sempre maggior capacità di

comprensione delle esigenze espresse dalle imprese e la messa

a punto di una nuova generazione di servizi. Per sottolineare

questo impegno nasce il marchio “Unindustria c’è”. Non si tratta

di una semplice campagna di comunicazione, ma di un impegno

morale e operativo che l’Associazione assume nei confronti di

ciascuna impresa associata. “Unindustria c’è” è anche lo slogan

e il segno grafico attraverso il quale verranno identificate le

iniziative di promozione e di informazione riferite ai nuovi servizi.

In un momento storico, in un mercato e in una società segnati

dalle incertezze, come anche dalle opportunità, Unindustria c’è!

Gli imprenditori trevigiani ci possono contare.

una opportunità da condividere

16

DICEMBRE 2012

I Passi che fanno la Storia dell’IT

COPERTINA

The Economist

aprile 2012

16

Sulla copertina del numero dell’Economist c’è un uomo seduto a una scrivania, intento a lavorare con

tastiera e mouse, collegati a uno stabilimento industriale in miniatura dal quale escono automobili,

aeroplani e utensili. Il disegno illustra come si stia realizzando in questi anni la 3° rivoluzione industriale.

Una nuova “era” – cosparsa di idee, prove, e scelte – che si apre a questo millennio, nell’epoca della

digitalizzazione, con un universo in accelerazione e, quindi, con signifi cativi mutamenti dei sistemi

produttivi e infrastrutturali, e soprattutto culturali. (Il Post, 2012)

LUNGO LA VIA DELL’ INNOVAZIONE

17

focus

17

18

DICEMBRE 2012

Dal telefono di Antonio Meucci di fi ne 800, a Guglielmo

Marconi che apre l’era del wireless con un’apparecchiatura

capace di inviare segnali intelligibili a una distanza di circa

2400 km, passando per il primo calcolatore elettronico a

programma memorizzato di John Neumann, e per la prima

calcolatrice elettronica italiana chiamata Pisana, incrociando

il primo personal computer dell’italianissimo Pier Giorgio

Perotto nel ’65, assistendo all’introduzione nel mercato del

microprocessore a opera di Federico Faggin nel ’70, e alla

progressiva convergenza e integrazione di informatica e

telecomunicazioni.

Fino ad arrivare, negli anni 80, al protocollo http (HyperText

Transfer Protocol) e, nel successivo decennio, ai providers,

fornitori commerciali di accesso alla rete.

In un secolo di storia abbiamo vissuto un’accelerazione

considerevole nello sviluppo della tecnologia, con ricadute

rilevanti nel contesto produttivo, infrastrutturale, culturale

e sociale. Eppure i cambiamenti sono ancora in atto: basta

pensare all’impressionante evoluzione fatta nell’ambito

della telefonia, così come nelle reti multimediali interattive

che saranno su cavo. Eppure, il vero cambiamento è quello

dell’ambiente culturale: in questa nuova epoca, infatti,

si parla, non solo di comunicazione, ma sopratutto di

trasparenza delle informazioni e di partecipazione. Mutano

gli scenari e i rapporti di interscambio di informazioni e di

educazione.

Nel 2011 il 52,2% della popolazione di 3 anni e più utilizza

il personal computer e il 51,5% della popolazione di 6 anni

e più naviga su Internet. Gli utenti di Internet che hanno

utilizzato la rete prevalentemente per spedire o ricevere

e-mail sono l’80,7%, e per cercare informazioni su merci e

servizi il 68,2%.

Le tecnologie, quindi, sono oggi vere e proprie leve

strategiche e sociali. Nell’industria l’impatto della tecnologia

porta con sé una nuova gestione delle attività aziendali.

Non a caso, in un suo studio Richard Nolan1 sostiene

che l’information technology rappresenta la leva della

trasformazione organizzativa, l’elemento strategico il cui

sviluppo può essere suddiviso in tre macro periodi: l’era del

Mainframe tra gli anni ’40 e ’60, in cui il “sapere tecnologico”

focus

19

e la gestione degli strumenti rimane in mano ad un numero

ristretto di persone specializzate e non esiste un’interazione

con l’utenza.

In seguito, fi ne anni ’60, si passa all’era del così detto “Stand

Alone”, cioè del personal computer dotato di capacità propria

di elaborazione, con una maggiore autonomia nella gestione

dei dati e delle informazioni. Infatti, la maggiore accessibilità ai

dati e agli strumenti sposta l’attenzione delle aziende verso il

mondo dell’ICT innestando una nuova rifl essione nei confronti

dello sviluppo e sulla necessaria convergenza del sapere

manageriale con quello tecnologico. Infi ne, con l’era della Rete,

nella seconda metà degli anni ’80, diventa diffusa la possibilità

di connettere i personal computer all’interno di una struttura

(rete locale, o rete del client-server): si tratta di un nuovo

approccio di condivisione. In conclusione, Internet negli anni

90 esplode in tutte le sue sfaccettature.

Da quel periodo, comincia una profonda rifl essione del ruolo

della tecnologia dell’informazione anche in azienda: dalla

semplice gestione delle attività, diventa una leva in base alla

quale l’impresa ripensa in maniera radicale il proprio modo di

fare business e quindi a volte la propria mission.

La tecnologia dell’informazione è un concetto fondamentale

della terza rivoluzione industriale che ha dato vita alla Società

dell’Informazione. Siamo di fronte, adesso, da una parte a

un nuovo vigoroso clima di fi ducia intorno alla scienza e alla

tecnica che alimenta forme di “neopositivismo”, ma anche

aspre critiche, dall’altra rischiamo di soffrire il problema del

“digital divide”, che mette in contrapposizione un gruppo

ristretto di persone in grado di governare le nuove tecnologie a

una massa che rischia di non poter esercitare completamente i

propri diritti di cittadinanza. E allora si inseriscono interrogativi

e dibattiti sui quali la Comunità dell’era tecnologica deve

dialogare, ricordandosi che esiste anche una “responsabilità

sociale” per via di questa nuova gestione di dati.

1Strategic Information Management - Challenges and

strategies in managing information systems , Robert D.

Galliers and Dorothy E. Leidner - Third Edition - Butterworth

Heinemann; Nolan, R.L. 2001

20

DICEMBRE 2012

TECHNOLOGICAL DISCONTINUITY

OR

GA

NIZ

ATIO

NA

L L

EA

RN

ING

1960 1975 1980

*

*

STEPB

DATA PROCESSING ERA MICRO ERA

20

1895

1945

1948

1955

Guglielmo Marconi apre l’era del wirelessDopo numerosi esperimenti, Marconi mise a punto un’apparecchiatura con cui riuscì a inviare segnali intellegibili a

una distanza di circa 2.400 km, usando un’antenna direzionale. Fondò a Londra la Marconi’s Wireless Telegraph and

Signal Company, nella quale lavorarono diversi scienziati a un ulteriore perfezionamento dei progetti.

John von Neumann e la nascita del computerPrese avvio il progetto EDVAC (Electronic Discrete Variable Computer) sotto la guida di John von Neumann. Nacque,

così, il primo progetto di calcolatore elettronico a programma memorizzato.

invenzione del transistor che rende possibile la miniaturizzazione degli apparati di telecomunicazioneL’età dell’elettronica dei semiconduttori iniziò nel 1948 con l’invenzione del transistor presso i laboratori americani

della Bell Telephon. In pochi anni l’introduzione del transistor rivoluzionò il mondo dell’elettronica, aprendo la strada

alla miniaturizzazione degli apparecchi elettrici. Si diffuse, allora, la produzione di televisori, radio, elettrodomestici.

nasce la calcolatrice elettronica PisanaLa CEP è la prima calcolatrice elettronica italiana per le ricerche scientifi che, nata per suggerimento di Enrico Fermi.

Le province di Pisa, Lucca e Livorno nel 1953 misero a disposizione la somma di 150 milioni di lire per la realizzazione

di un sincrotrone e per progettare e costruire un calcolatore elettronico.

21

Fonte: AICA, Associazione italiana informatica e calcolo distribuito.

The stages theory of growth. Fonte: R.L. Nolan 2001

1995

*

2010

YSTEP

NETWORK ERA

21

focus

1965

Anni ’70

Anni ’80

Anni ’90

nasce il personal computer dell’italiano Pier Giorgio PerottoQuarant’anni fa, nelle sale dell’esposizione Bema Show di New York, veniva presentato il modello Programma 101.

Si chiamava la “perottina” dal nome del suo inventore Piergiorgio Perotto. Si trattava di un calcolatore da scrivania, con

stampante integrata, con design avveniristico per l’epoca.

le tecnologie dell’informatica vengono mutuate dalle telecomunicazioni, siamo agli albori dell’ICTLa trasmissione di informazioni tra calcolatori connessi in rete fra loro, avviata negli anni ’60, costituì fenomeno di grande

portata pratica: la progressiva convergenza e integrazione di informatica e telecomunicazioni. Questi due settori, quindi,

trovarono un punto di convergenza, dopo che si erano sviluppati per lungo tempo indipendentemente l’uno dall’altro.

avvento del world wide webWWW: presso il CERN di Ginevra, fu defi nito il protocollo HTTP (HyperText Transfer Protocol) che permetteva, tramite

dei collegamenti (link), la lettura dei documenti (che possono contenere anche risorse di tipo multimediale) in modo non

sequenziale (ipertestuale).

compaiono i providers, fornitori commerciali di accesso alla reteLe origini del fenomeno dei portali e l’introduzione di tale termine nel lessico dei nuovi media risalgono al 1997. In pochi

anni il Web, da strumento esoterico per tecnofi li, si era trasformato in un fenomeno di massa.

22

DICEMBRE 2012

Intervista a Enzo Rullani, professore di Economia della Conoscenza e di Strategie di impresa presso la Venice International University

LE RETID’IMPRESANELLA NUOVA ERA:UNA NUOVACULTURA

La nuova economia della conoscenza: sviluppi e prospettive futureLe reti d’impresa vengono spesso pensate come rimedio

a una forma specifi ca di “debolezza” che caratterizza il

capitalismo industriale italiano, frammentato in una miriade

di piccole e piccolissime imprese, fi nora aggregate, grazie

al collante territoriale, in un centinaio di distretti industriali,

specializzati nei vari prodotti del made in Italy.

Aggregando le imprese, senza far venire meno la loro

autonomia individuale, la rete consentirebbe di prendere

due piccioni con una fava: mantenere l’ossatura dell’attuale

assetto produttivo, basato sull’imprenditorialità diffusa;

realizzare, grazie alla rete, quelle economie di scala e di

specializzazione (reciproca) che sono precluse alle piccole e

piccolissime imprese.

Tutto vero, tranne che per un particolare: le imprese che

fi nora si sono maggiormente spinte nella sperimentazione

di forme di alleanza, di cooperazione e di specializzazione

reciproca tra imprese sono state le grandi e grandissime.

Sia nell’organizzazione delle fi liere sia nell’affrontare problemi

nuovi, per i quali è utile cooperare con altri. In realtà, la

proliferazione di queste alleanze e forme di co-innovazione e

cooperazione mette in evidenza il fatto che la rete di imprese

– che somma competenze e risorse complementari – non

è solo un rimedio alla debolezza della piccola scala, ma è la

forma tipica di organizzazione richiesta dal nuovo paradigma

emergente: il capitalismo globale della conoscenza.

Che impone una priorità: il sistematico ri-uso della

conoscenza altrui, in tutti i casi in cui si tratta di acquisire

competenze che non si hanno, di velocizzare l’apprendimento,

di estendere il proprio raggio di azione, di accreditare

signifi cati standard e certifi cazioni utili.

Non si tratta di una prosecuzione delle traiettorie coltivate in

passato, ma di una vera a propria discontinuità. Si tratta di

mettere consapevolmente, e senza rimpianti, una distanza tra

passato e futuro, che rivede criticamente il primo e prepara

intenzionalmente il secondo. Un passaggio diffi cile, ma che

va fatto se si vuole capire, organizzare, proiettare il nostro

mondo dalla vita e dalla produzione verso il nuovo paradigma

con cui dobbiamo fare i conti. Trovando anche il vocabolario

giusto, che consenta di prefi gurare e raccontare la transizione

da compiere.

23

Lei pensa che questo vocabolario manchi e sia dunque ancora da mettere a punto?Certamente. È ormai diventato un luogo comune dire “viviamo

nella società della conoscenza” o “adeguiamo il nostro modo

di lavorare alle esigenze dell’economia della conoscenza”.

Affermazioni vere e importanti, ma di cui spesso sfugge il

contenuto: che cosa signifi ca, infatti, vivere nella società della

conoscenza o lavorare nell’economia della conoscenza?

Se la conoscenza è diventata la principale risorsa produttiva,

e dunque il motore che genera il valore e presidia la

competitività, è anche vero che – salvo poche eccezioni

– facciamo fatica a renderci conto dei cambiamenti che

tutto ciò comporta. Abbiamo dunque bisogno di guardare

anche all’economia del valore con nuovi occhi, se vogliamo

riconoscere e padroneggiare il nuovo, già presente nella

realtà.

Pensiamo solo a questo: il lavoro che una volta era lavoro

energetico – un lavoro muscolare, di fatica, che trasforma la

materia prima in prodotto fi nito – è ormai diventato nella sua

quasi totalità (anche in fabbrica) un lavoro di tipo cognitivo.

Ossia lavoro che non trasforma direttamente la materia, ma

produce conoscenze (informazioni, idee, decisioni, relazioni,

signifi cati ecc.). E sono queste conoscenze a mettere in

funzione le macchine o gli altri strumenti cui è delegata la

trasformazione materiale degli oggetti e degli ambienti in cui

viviamo.

Lo stesso vale per il capitale: una volta era quasi totalmente

impiegato in assets materiali (edifi ci, macchine, magazzino

di materie e prodotti fi niti); oggi è impiegato sempre più

spesso nella formazione di assets immateriali (conoscenze,

tecnologie, brevetti, soluzioni, relazioni, impegni ecc.). Senza

contare che anche il valore delle macchine ha perso relazione

con il valore dei materiali impiegati per costruirle e dipende

invece, in gran parte, dalle conoscenze più o meno innovative,

più o meno esclusive, che vi sono incorporate. I fattori

produttivi, dunque, hanno assunto natura cognitiva.

E lo stesso vale per i processi che li impiegano, e per il

consumo che generano alla fi ne della fi liera. Anche questo

consumo vale in funzione dei signifi cati e delle esperienze

emotive che lo accompagnano, non solo per i processi

materiali che contiene.

Che conseguenze operative ha questa nuova centralità della conoscenza nella produzione?Questo spostamento della produzione (di valore) dal versante

materiale a quello immateriale ha grandi conseguenze sul

modo con cui deve essere organizzato il sistema produttivo,

per creare ricchezza ed acquisire vantaggi competitivi rispetto

ad altri. La nuova giovinezza delle reti tra imprese discende,

appunto, da questa premessa.

Le reti servono infatti a sfruttare al meglio una caratteristica

fondamentale dell’immaterialità: la conoscenza è una risorsa

che – al contrario delle risorse materiali – non si consuma

con l’uso e che può essere riprodotta a costo zero (se

perfettamente codifi cata) o a costi comunque largamente

inferiori ai costi di (prima) produzione, nel caso che essa

rimanga implicita o dipendente dal contesto e dalle persone

che la possiedono. In una rete in cui le conoscenze di

ciascuno possono essere messe al servizio di tutti gli altri, la

propagazione diventa una fonte importante di valore aggiunto,

per tutto il sistema, perché l’apprendimento fai-da-te che

sarebbe necessario se ciascuno agisse isolatamente – con

i costi, i tempi e i rischi necessari – si traduce in una forma

di apprendimento collettivo che ha costi, tempi e rischi molto

inferiori. Oggi, per produrre valore non basta infatti fare

onestamente il proprio mestiere (come in passato facevano

l’artigiano, il fabbro, il lavoratore tradizionale), ma occorre:

1) avere buone idee (innovazione);

2) moltiplicarne l’uso (propagazione).

Sono questi due i nuovi mestieri che alimentano la

generazione del valore e di conseguenza la crescita

economica.

Se Apple ha oggi la quotazione di borsa che ha, è perchè

Steve Jobs ha avuto buone idee, che ha portato avanti con

determinazione; ma è anche perché le ha plasmate in forme

moltiplicabili (l’iPhone, l’iPad ecc.), riuscendo a realizzare

milioni di ri-usi. E in questo ampio bacino di ri-uso, defi nito

che non

SI TRATTA DI METTERE CONSAPEVOLMENTE, E SENZA RIMPIANTI, UNA DISTANZA TRA PASSATO E FUTURO, CHE RIVEDE CRITICAMENTE IL PRIMO E PREPARA INTENZIONALMENTE IL SECONDO.

24

DICEMBRE 2012

dai volumi degli apparecchi proposti al consumo, ha attratto

i venditori di musica (una canzone scaricabile a 0,99 dollari)

e i produttori di applicazioni (per lo store Apple delle apps).

Moltiplicando in questo modo anche il valore delle canzoni e

delle applicazioni agganciate all’iPhone.

Le reti di impresa formali e informali nella nuova era.Per allargare il bacino di ri-uso e ottenere grandi

moltiplicatori, l’essenziale – come abbiamo detto – è la

propagazione della conoscenza, trasferendola dal suo

contesto di origine a molti possibili users.

Questa propagazione deve appoggiarsi a regole e canali

che rendano effi ciente il passaggio delle conoscenze dal

produttore ai molti utilizzatori e soprattutto che rendano

conveniente, per le diverse parti in causa, la prosecuzione

del processo nel corso del tempo.

Da questo punto di vista, è importante notare che sia il

mercato (lo scambio di merce contro un prezzo) che la

gerarchia (il trasferimento realizzato all’interno alla grande

impresa, sotto il comando del vertice) sono poco effi cienti

quando si tratta di trasferire la conoscenza. Il libero scambio

di mercato, infatti, porterebbe il prezzo della conoscenza

(codifi cata) rapidamente verso lo zero (ossia verso il livello

del costo di riproduzione), ragion per cui – per evitare

questo esito – si deve disciplinare lo scambio di conoscenze

attraverso vincoli (il brevetto, il diritto di autore ecc.) che ne

riducono artifi cialmente il bacino di propagazione e che fanno

sorgere tutta una serie di controindicazioni (soprattutto in

presenza di Internet).

Restrizioni analoghe devono essere accettate se si pensa

a propagazioni per via gerarchica, all’interno della grande

impresa: la conoscenza deve essere auto-prodotta (con

scarso uso della conoscenza altrui) e auto-sfruttata

all’interno, con i costi, i tempi e i rischi conseguenti a questa

limitazione del bacino di approvvigionamento e di uso.

La rete, nel capitalismo globale della conoscenza di oggi

consente di andare oltre i limiti della propagazione di puro

mercato e di quella realizzata all’interno della grande impresa.

Creando una piattaforma collaborativa tra imprese dotate di

storie e competenze diverse, la rete consente di realizzare

forme di condivisione delle conoscenze molto vantaggiose

(per la co-innovazione, per la specializzazione reciproca, per

l’estensione del bacino di vendita), senza perdere il controllo

di quanto messo a disposizione di altri.

Nella rete si può infatti scambiare o cedere le proprie

conoscenze all’interno di una cornice fi duciaria e contrattuale

che garantisce impegni reciproci, in modo da ridurre di molto

il pericolo di comportamenti opportunistici.

Le tre forme di propagazione (mercato, gerarchia, rete) sono

in realtà complementari e co-esistenti: il mercato può essere

un mezzo veloce di propagazione per diffondere conoscenze

“protette” (dalla proprietà intellettuale) o comunque non

strategiche. La gerarchia interviene nelle relazioni in cui

occorre mantenere un controllo diretto e centralizzato sulla

catena cognitiva, anche a costo di sostenere investimenti

Membro di svariati comitati scientifi ci (tra i quali quello del Centro Studi di Confi ndustria e di Symbola), ha insegnato anche presso le università Ca’ Foscari di Venezia, Vita-Salute San Raffaele, Milano e Bocconi.

Tra i suoi temi di ricerca: economia della conoscenza, crisi della modernità, innovazione e produttività, reti di impresa, drivers dello sviluppo nel capitalismo globale della conoscenza, lavoro, management e formazione nell’impresa postfordista, terziario innovativo e sentieri di sviluppo dell’economia italiana, impresa e istituzioni nella transizione attuale, il territorio tra dimensione locale e mondializzazione, evoluzione dei distretti industriali e delle imprese multinazionali.

Tra i suoi libri: La fabbrica dell’immateriale. Produrre valore con la conoscenza (Roma 2004); Il capitalismo personale. Vite al lavoro (con A. Bonomi, Torino 2005); Innovare. Re-inventare il Made in Italy (con M. Plechero, Milano 2007); Modernità sostenibile. Idee, fi liere e servizi per uscire dalla crisi (Venezia 2010); Reti di impresa e idee motrici, QP, Quaderni della Programmazione n. 27 (con Francesca Pedon), Università di Trento e Provincia autonoma di Trento, Trento, 2011; Innovazione e produttività. Alla ricerca di nuovi modelli di business per le imprese di servizi, Angeli, Milano, 2012 (con Cantù C., Paiola M., Prandstraller F., Sebastiani E.); L’innovazione nelle imprese agricole. Usi nuovi della conoscenza, Veneto Agricoltura, Legnaro, 2012 (con altri autori).

Enzo Rullaniprofessore di Economia della conoscenza presso la Venice International University

25

rilevanti, assumendone il rischio relativo. La rete occupa la

Terra di Mezzo tra le due polarità classiche, intervenendo

in tutte quelle situazioni in cui la condivisione – se bene

organizzata – genera valore, grazie all’uso del collante

collaborativo.

Questa Terra di Mezzo si va espandendo sempre di più, man

mano che le imprese si trovano nella necessità di limitare

investimenti e rischi, focalizzandosi su una core competence

limitata e ricorrendo, per tutto il resto, a fi liere sempre più

estese e articolate, regolate dal mercato o più spesso da

rapporti stabili di collaborazione.

In Italia abbiamo avuto esperienza di questa diffusione di

reti che, pur rimanendo informali, legano fornitori e clienti in

rapporti di stabile collaborazione (fi liere), o che addensano

le imprese di un settore in un particolare luogo (distretto

industriale), facendo sì che il territorio diventi fattore

produttivo perché fornisce alle imprese gli uomini, i servizi e

le conoscenze che servono a certi usi. In altri casi, le reti sono

nate invece dalla condivisione di una matrice intellettuale e

professionale, fatta da università e centri di ricerca (si pensi al

rapporto tra la California e le imprese del settore ICT).

Quando questi rapporti di collaborazione stabile tra imprese

diverse e complementari comportano impegni di investimento

di rilievo, è inevitabile che l’informalità della relazione venga

integrata o sostituita da una formalizzazione contrattuale

e giuridica. In passato abbiamo avuto esempi di questa

formalizzazione attraverso strutture collaborative formalizzate

come le cooperative, i consorzi, le Associazioni Temporanee

di Impresa (ATI, per le gare pubbliche), le joint ventures e le

alleanze tecnologiche.

Da qualche anno è entrato a far parte della normativa

italiana anche il “contratto di rete”: un contratto in cui un

certo numero di imprese mette a fuoco un progetto comune,

associandovi un organo di governo e – volendo – un fondo

patrimoniale. In alternativa si possono costituire reti con altre

forme giuridiche come la Srl di scopo, il franchising, la licenza

di uso di un brevetto o di una soluzione tecnica, gli scambi

azionari o dei processi di vera e propria fusione.

I servizi innovativi e tecnologici come asset per rifondare le dinamiche del mercato anche del manifatturiero.Se le imprese del made in Italy devono entrare a far parte

di fi liere globali e investire nella produzione di conoscenze

o relazioni esclusive, che altri non hanno e non possono

facilmente imitare, è gioco forza immaginare che una

trasformazione del genere non può essere addossata

sulle spalle delle tante piccole e piccolissime imprese

che hanno una esperienza limitata alla fabbricazione del

prodotto materiale. L’industria deve, in altri termini, diventare

intelligente, facendo spazio al lavoro cognitivo e agli assets

immateriali. Si pensi alla rivoluzione ICT in corso e alla sua

proiezione a scala planetaria.

Nei paesi in cui la produzione industriale è realizzata, in

prevalenza, da grandi imprese, l’intelligenza che serve per

questa trasformazione sarà ottenuta investendo nel sapere e

nelle competenze interne dell’impresa. Non esclusivamente,

certo, ma in modo prevalente. Ogni impresa si preoccuperà

di rafforzare il management, la ricerca e sviluppo, il sistema

ERP, il marketing e la distribuzione, e, in generale, le

professionalità qualifi cate dei propri dipendenti.

Ma in un paese come l’Italia, dove la dimensione media

delle imprese manifatturiere è intorno ai 10 addetti, la strada

percorribile è un’altra: bisogna sviluppare una rete di imprese

di servizi, che, sulla base di un rapporto collaborativo stabile,

fornisca alle imprese manifatturiere esistenti le conoscenze

e le relazioni necessarie, avendo la possibilità di servire non

un solo cliente, ma dieci o cento, fi no a raggiungere la scala

necessaria dei ri-usi.

Le reti di impresa hanno un ruolo critico anche sotto questo

versante: devono mettere insieme, nelle fi liere e nei territori,

non solo grandi e piccole imprese, ma anche manifattura e

servizi avanzati.

LA RETE, NEL CAPITALISMO GLOBALE DELLA CONOSCENZA DI OGGI CONSENTE DI ANDARE OLTRE I LIMITI DELLA PROPAGAZIONE DI PURO MERCATO E DI QUELLA REALIZZATA ALL’INTERNO DELLA GRANDE IMPRESA.

incontri con

26

DICEMBRE 2012

Me ne rendo perfettamente conto. In un paese in cui i valori

(qualsiasi cosa si intenda con questo termine delicato e

scivoloso) sono tradizionalmente rappresentati e tutelati da

umanisti o prelati, sostenere pubblicamente – come ho fatto

qualche anno fa – che la “tecnologia ci rende umani” – non

poteva che suonare a molti come una provocazione. E, infatti,

così andarono le cose. Dibattiti, polemiche, accuse: insomma,

tutto quel che serve alle idee per vivere, circolare e magari,

ogni tanto, contribuire a scalfi re pregiudizi così diffusi e radicati

da essere persino considerati ideali universali.

Ma ora – complice l’uscita del primo numero di Logyn – credo

sia giunto il momento di ribadire e rilanciare. E non certo per

il gusto di irritare le sensibilità altrui. Al contrario, lo scopo

è quello di sottolineare con un piccolo contributo l’urgenza

di insuffl are nel dibattito culturale italiano quel minimo di

educazione scientifi ca senza la quale è diffi cile comprendere

la complessità della società contemporanea. Figuriamoci

affrontarla...

E dunque, mi concederò la libertà (che per alcuni sarà una

licenza) di avanzare una proposta: se davvero vogliamo – come

da più parti si auspica – provare a immaginare un nuovo

umanesimo, allora dobbiamo cominciare a pensare con le macchine. Ovviamente, come si avrà modo di appurare nella

lettura del presente articolo, l’intento non è quello di voler

“ridurre” (o addirittura “sostituire”) la facoltà e l’esercizio del

pensiero con le funzionalità operative di macchine sempre più

performanti.

Si tratterà piuttosto di mettere in luce alcuni aspetti

dell’intricato rapporto tra uomo e macchina per indagare

alcune delle dinamiche entro cui ha preso forma il nostro

modo di agire e pensare sulla scena del grande teatro del

mondo. Un percorso attraverso cui – mi auguro – si possa

PENSARE CON LE MACCHINE! È LA TECNOLOGIA CHE CI RENDE UMANI... STEFANO MORIGGI

2727

Si occupa di teoria e modelli della razionalità, di fondamenti della probabilità, di pragmatismo americanocon particolare attenzione al rapporto tra evoluzione culturale, semiotica e tecnologia.Già docente nelle università di Brescia, Parma, Milano e presso la European School of Molecular Medicine (SEMM), attualmente svolge attività di ricerca presso l’Università degli Studi di Milano Bicoccae l’Università degli Studi di Bergamo.Esperto di comunicazione e didattica della scienza, è consulente scientifi co Rai e su Rai 3 è uno dei volti della trasmissione “E se domani. Quando l’uomo immagina il futuro”. Tra le sue pubblicazioni si ricordano: “Le tre bocche di Cerbero. Il caso di Triora. Le streghe prima di Loudon e Salem” (Bompiani, 2004); (con E. Sindoni) “Perché esiste qualcosa anziché nulla? Vuoto, Nulla, Zero” (Itaca 2004); con P. Giaretta e G. Federspil ha curato “Filosofi a della Medicina” (Raffaello Cortina, 2008). Più recentemente (con G. Nicoletti) ha pubblicato “Perché la tecnologia ci rende umani. La carne nelle sue riscritture sintetiche e digitali” (Sironi, 2009); (con A. Incorvaia) “School Rocks. La scuola spacca”, (San Paolo, 2011).

Stefano Moriggi

storico e fi losofo della scienza

intuire l’importanza di una discussione pubblica, informata (e

possibilmente non ideologica!) su rischi e opportunità impliciti

nel progredire delle scienze e delle tecnologie.

Ma procediamo per gradi, magari con un paio di quesiti rivolti

in particolare a coloro che sono impegnati a proteggere una

“umanità” sempre più minacciata dalla “tecnoscienza” in un

inviolabile tabernacolo concettuale (oltre che fi sico).

Di cosa si parla davvero quando si parla di umanità? E da dove

provengono le convinzioni etiche e culturali stratifi cate nel

tempo attorno a questa idea?

Domande di questo tipo se le poneva già a suo tempo il grande

logico e matematico inglese Alan Mathison Turing – lui che a

soli venticinque anni compilò un manifesto del nuovo ordine

tecnologico (On computable numbers) e che nel 1943, mentre

dava il meglio di sé tra le mura del laboratorio di Bletchley Park

per realizzare le macchine che sarebbero riuscite a decrittare

il linguaggio in codice dell’aviazione e della marina tedesca

(Enigma), confi dava al collega Donald Bayley il suo sogno di

“costruire un cervello”. In altre parole, una macchina pensante...

Alan sapeva bene che la sua ambizione sarebbe stata percepita

dai più come un nuovo peccato originale, come l’ennesima

imperdonabile tracotanza di chi vuole replicare il gesto di Dio.

Nel suo ormai classico Macchine calcolatrici e intelligenza (1950), infatti, prendeva amaramente atto di quanto diffusa e

culturalmente trasversale fosse l’idea per cui “ci piace credere

che l’uomo sia in qualche modo misterioso, superiore al resto

del creato”. E per i palati più raffi nati, tale misteriosa superiorità

di Homo sapiens era invece declinata da irreprensibili baluardi

dell’umanità come “il potere del pensiero”. Costoro – scriveva

Turing – “sono più inclini a basare la loro credenza nella

superiorità dell’uomo proprio su questo potere”.

Di fronte a siffatti tentativi di salvaguardare dietro un’aura di

mistero l’inviolabile superiorità/integrità dell’umano, Turing si

limitava a osservare che tale approccio non fosse abbastanza

solido da meritare una confutazione, e che semmai “sarebbe

più appropriata una consolazione”. Per lui erano solo le

obiezioni di chi ha la “testa nella sabbia”. E come contraddirlo?

Non si tratta qui di contrapporre a tanta diffi denza i meriti delle

macchine di Alan Mathison, grazie a cui dal 1943 in avanti

gli alleati furono in grado di decifrare i messaggi in codice del

nemico, battendolo sistematicamente sul tempo (non a caso

Turing, vinta la guerra, fu insignito per la sua opera di una

prestigiosa onorifi cenza militare dal governo britannico). Infatti,

non è in questione l’uso e l’utilità della tecno-scienza – ai

successi del gruppo di Bletchley Park si potrebbero, fi n troppo

facilmente, contrapporre le tragiche conseguenze del progetto

Manhattan. In gioco sono, invece, i signifi cati più profondi della

relazione uomo-macchina, e le dinamiche che intrecciano

l’evoluzione di strumenti e dispositivi con i modi in cui di epoca

in epoca siamo stati – e ci siamo detti – umani.Chi preferisce mantenere la testa nella sabbia fatica a intuire,

per esempio, che riprodurre artifi cialmente (sperimentalmente)

un fenomeno naturale signifi ca anzitutto comprenderlo. Le

macchine non sono solo strumenti per fare, ma anche per

pensare. Sognare di costruire un cervello, ovvero una macchina

in grado di simulare alcune delle funzioni cognitive dell’essere

umano, non è un atto che trasuda tracotanza. Al contrario,

testimonia l’umile sforzo di chi, per tentativi ed errori, cerca di

sviluppare e perfezionare concreti modelli di comprensione del

mondo. Riprodurre il corpo da un’articolazione alle reti neurali

– al di là delle potenziali ricadute biomediche o informatiche

– incarna lo sforzo di quel sapere pubblico, rivedibile e

controllabile (che è la scienza moderna) di interrogare la natura

(in questo caso umana) per intuirne le leggi.

28

DICEMBRE 2012

La resistente diffi denza a pensare con le macchine – per

lo meno nei termini sopra indicati – è il sintomo della grave

carenza di cultura ed educazione scientifi ca (e tecnologica) che

dovrebbe essere bagaglio comune non solo dei professionisti

della ricerca ma di ogni cittadino che voglia dirsi tale – e

dunque libero di comprendere per scegliere criticamente –oproprio in una società in cui, sempre più, molti dei suoi diritti

(oltre che molti dei suoi doveri) sono stati ridefi niti proprio dai

progressi della scienza e dalla pervasività della tecnologia.

E non solo i diritti...

Infatti, questo è il punto. Ovvero, l’impatto concreto e culturale

di una tecnologia dilagante che suscita timori; semina angoscia

e soprattutto continua a eccitare la fervida immaginazione

di numerosi profeti di sventura che dalla carta stampata

agli schermi televisivi, dalle cattedre universitarie ai pulpiti,

declinano – ciascuno a suo modo – l’eclissi dell’umano,

predicando ricette e rimedi per cercare di salvare in qualche

modo anime e corpi. C’è chi insegue il nomos della Terrasnel giardinetto della propria villetta a schiera, chi propone

moratorie contro l’uso (e l’abuso) di computer e telefonini

responsabili di ridurre ogni relazione in connessione, e chi

insiste a riproporre vecchi adagi fi losofi ci contro la tecnica,

rimpiangendo antichi modi di abitare “poeticamente” il mondo.

Nulla da obiettare, ovviamente, su scelte e idiosincrasie di

ciascuno, ma come ha recentemente notato il sociologo

francese Gilles Lipovetsky, l’ansiogeno dilagare di questo

variopinto “immaginario sociale del prodotto genuino”, dai

bisogni più frivoli (viaggi nelle terre selvagge, revival del

vintage, menu a chilometro zero) fi no alle convinzioni e

credenze più complesse (parlar chiaro in politica, ricerca

spasmodica di radici culturali e spirituali, vivere “secondo

natura”) è comprensibile nei termini di una nostalgia verso un

passato idealizzato da contrapporre a stili di vita costantemente

riscritti dall’evoluzione tecnico-scientifi ca.

Alla “contraffazione” tecnologica si cerca di rimediare con

l’“autenticità” della natura; alla fallibilità del sapere scientifi co

si tende a preferire la rassicurazione del valore indiscutibile

e assoluto. Ma l’equivoco di fondo – osserva a ragione

Lipovetsky – sta nel fatto che “l’autentico non è il contrario

dell’ipermoderno: è solo una delle sue facce, una delle

manifestazioni del nuovo volto del benessere, il benessere

emotivo, carico di attese sensibili e risonanze culturali e

psicologiche”. I nipotini (più o meno consapevoli, più o meno

raffi nati) di fi losofi come Jean Jacques Rousseau e Martin

Heidegger potrebbero quanto meno sperimentare una

prospettiva alternativa, qualora facessero proprio – almeno per

qualche istante – un approccio meno “epocale” (per non dire

apocalittico) al mondo della civilizzazione e della tecnologia.ooMagari spingendosi persino a contemplare l’ipotesi che anche

la ricerca scientifi ca, l’innovazione tecnologica – e dunque

anche la cultura d’impresa – siano pratiche portatrici di

signifi cati e valori più di quanto si sia disposti ad ammettere.

Come? Di nuovo, si tratterebbe di provare a pensare con le macchine, questa volta però facendo particolare attenzione

alla storia e all’evoluzione del rapporto tra individui, strumenti

e ambiente. E allora, come soprattutto la genetica delle

popolazioni e l’evoluzione culturale magistralmente mostrano,

sarebbe più agevole intuire che strumenti e macchine hanno

da sempre articolato e riplasmato azioni e consuetudini di

individui, gruppi, comunità e società. Il che, di conseguenza,

ha permesso e defi nito nuove etiche e, più in generale, inediti

quadri concettuali che hanno contribuito a riscrivere signifi cati

e valori, compreso il modo stesso di dirsi (oltre che di essere)

umani. A tal proposito, ha colto nel segno l’esperto di mass media Derrick De Kerckhove quando – proprio ragionando sulleapiù avanzate tecnologie della comunicazione – scriveva che noi siamo la continua reinvenzione delle nostre stesse invenzioni. In

altre parole, ciò signifi ca che siamo animali culturali; e la cultura

(tecnoscienza compresa, ovviamente!) incarna il più effi cace e

rapido complesso di strategie di adattamento all’ambiente.

Altro che provocazione, quindi! La tecnologia ci ha reso – e

ci rende umani – nei modi in cui ha consentito – e consente

– relazioni e interazioni sempre più complesse e pregnanti in

cui cogliere quell’intreccio di strumenti e signifi cati che molto

racconta della nostra natura e della nostra storia.E per tornare al “potere del pensiero” quale misteriosa

e inviolabile superiorità dell’essere umano, mi limito a

far osservare che al di fuori di questa interazione uomo-

strumento-ambiente diffi cilmente avremmo sviluppato la

capacità di render conto delle cose del mondo riconducendo gli

effetti alle rispettive cause, tanto nella ricerca scientifi ca quanto

nell’esperienza quotidiana.

“I nostri progenitori – ha osservato di recente il neuroscienziato

Giorgio Vallortigara – avrebbero iniziato a sviluppare nozioni

di causa-effetto, perfezionandole via via nel corso dei due

milioni d’anni in cui inventarono la tecnologia”. Lo sviluppo

dell’architettura celebrale in grado di concettualizzare nessi

causali e spiegazioni di fenomeni sempre più complessi

sarebbe quindi anche il risultato di quella relazione pratica

e concettuale che i nostri progenitori hanno intrattenuto

con gli strumenti che hanno accompagnato l’evoluzione

delle loro pratiche e dei loro pensieri. Pare ancora tanto

scandaloso l’invito a pensare con le macchine? E sostenere

che la tecnologia ci rende umani? Lascio a chi legge l’onere

della risposta. Ma continuo a ritenere che nessun nuovo

“umanesimo” sarà possibile se, per dirla ancora con Turing,

continueremo a tenere la “testa nella sabbia”, invece che

confrontarci seriamente con l’idea che tecnologicamente abita

(vive e pensa) l’uomo.

29EMC2, EMC, and the EMC logo are registered trademarks or trademarks of EMC Corporation in the United States and other countries. © Copyright 2011 EMC Corporation. All rights reserved.

BIG DATATRANSFORMS BUSINESS

30

DICEMBRE 2012

QUANDO IL CLIENTE CHIAMA

Nel corso dell’anno 2011 Eurosystem entra in contatto con

un potenziale cliente, una società che vanta competenze di

primo livello nel project management e nella costruzione di

impianti. L’Azienda, che aveva appena iniziato la “software

selection”, aveva confrontato le proposte di diversi

competitors, valutando prodotti ERP (Enterprise Resource

Planning) sia nazionali sia internazionali. Date le esigenze di

alta personalizzazione della soluzione, aveva anche ipotizzato

di far costruire “ex novo” un software su misura.

Eurosystem ha raccolto, tra le altre aziende a confronto, le

richieste del Cliente che, come spesso accade, era in cerca di

una soluzione non ancora ben identifi cata e dai requisiti molteplici. Alla base delle linee guida indicate i seguenti problemi: un

software gestionale datato, privo di un modulo specifi co sulla

gestione di commessa/progetto, un metodo di lavoro basato

su fl ussi non automatizzati e supportati da una gestione della

documentazione quasi totalmente cartacea.

In termini di organizzazione del lavoro, tutto questo si

traduceva nell’assenza di regole defi nite per la condivisione

delle informazioni, possibili criticità e ampi margini di errore

nella gestione delle commesse cliente, un dispendio oneroso di tempo ed energie delle risorse interne.

L’implementazione di un nuovo sistema informativo può diventare l’elemento strategico del business

di un’azienda. Non un semplice cambio di gestionale, ma l’occasione per rivedere e migliorare

i processi aziendali, riqualifi care sia il personale che la base dati, nonché aumentare la condivisione

della conoscenza in azienda.

Creatività e fl essibilità made in Italy alla base dei risultati Eurosystem

COME NASCEUN CASO DI SUCCESSO

STEFANO BIRAL [email protected]

31

storiesL’Azienda chiedeva, insomma, una tecnologia

altamente personalizzata con specifi ci requisiti di base,

funzionali e tecnologici in grado di risolvere tutte le sue

problematiche.

Tra i requisiti di base, si richiedeva l’utilizzo di una

soluzione web-based che avrebbe dovuto incontrare

le esigenze di utenti non sempre abituati all’utilizzo

di un sistema gestionale; l’implementazione di

un modulo di gestione commesse/progetti; un

Workfl ow Management System per informatizzare

la gestione dei processi e, infi ne, l’integrazione con

un sistema di reportistica basato su strumenti di

Business Intelligence. Per i requisiti funzionali, era

necessario fornire una soluzione multi azienda e multilingua all’interno dello stesso sistema ERP; in

grado di tracciare l’attività degli utenti al fi ne di poter

identifi care responsabilità nell’utilizzo dei dati aziendali;

con politiche di autenticazione e di autorizzazione

all’accesso ai dati in funzione del ruolo aziendale; e,

infi ne, un’interfaccia di facile utilizzo.

La tecnologia alla base del sistema doveve essere

facilmente integrabile con le altre componenti software esistenti, scalabile a tal punto da garantire

robustezza anche in previsione di un elevato aumento del numero utenti e del volume dei dati; con un’architettura di base consolidata e robusta;

parametrizzabile e capace di adattarsi anche alle

esigenze future dell’azienda; tale da permettere

l’ampia autonomia del cliente nella confi gurazione del software. Un progetto non semplice e che ha

richiesto l’unione di competenze altamente qualifi cate,

tecnologie all’avanguardia e un approccio consulenziale

focalizzato sulle esigenze di rinnovamento del cliente,

garantendo il successo della soluzione proposta.

Eurosystem e il proprio ERP esteso Freeway® Skyline sono stati, infatti, scelti per supportare

l’Azienda nel cambio del proprio sistema informativo,

distinguendosi per l’aderenza della soluzione alle

esigenze manifestate e la capacità di adattarsi a

quelle future, una tecnologia innovativa e l’affi dabilità

riconosciuta del Gruppo.

Si valorizzano così l’informazione e la persona, che sono il vero patrimonio di ogni azienda.

32

DICEMBRE 2012

E IL CONSULENTE RISPONDE

Il primo obiettivo di progetto era ottimizzare i processi

aziendali senza forzare cambiamenti organizzativi poco

sentiti. Il software doveva adattarsi alle logiche di processo e

agli utenti dell’Azienda (e non il contrario), sempre nell’ottica

di migliorare le ineffi cienze presenti.

Seguendo una metodologia di Business Process Management (BPM), i consulenti dell’azienda trevigiana

si sono concentrati sui processi interni, li hanno ridisegnati

defi nendo i fl ussi principali da automatizzare con un motore

di workfl ow, hanno sviluppato piccoli prototipi sulle aree di

maggiore interesse del Cliente.

Un’operazione di analisi dettagliata, realizzata attraverso

interviste ai referenti aziendali, che ha permesso di avere una

visibilità di progetto chiara con una certezza dei costi e dei

tempi di avviamento.

L’informatizzazione dei fl ussi di lavoro ha permesso di

defi nire i criteri di assegnazione delle attività, le regole per i

passaggi di stato e di autorizzazione. In particolare, grazie a

Freeway® Workfl ow Server, asse portante della soluzione

e piattaforma di supporto alle metodologie del BPM, la

lista delle attività di approvazione documenti o le fasi di

un processo di collaborazione tra gli utenti sono state rese

accessibili all’utente sotto forma di working list o di semplici

notifi che: in questo modo, il software ha consentito di far

arrivare l’informazione giusta alla persona giusta.

A supporto del motore di workfl ow, è stato implementato

Freeway® Document Server, un sistema di archiviazione

documentale integrato nelle fasi di inserimento delle

informazioni e nei processi di collaborazione aziendale

(workfl ow) che ha ridotto notevolmente l’utilizzo della carta. Infi ne, con l’adozione di uno specifi co modulo di

Freeway® Skyline di gestione commessa/progetto si è

reso possibile all’azienda gestire nativamente l’intero iter

delle commesse clienti, a partire dall’offerta, al budget

commerciale e tecnico, al piano di progetto e specifi che

di contratto, fi no ad arrivare ad una snella ed automatica

consuntivazione dei costi.

Questo ha permesso di ottimizzare il livello di comunicazione e coinvolgimento di tutte le risorse che

fanno parte di un progetto, anche se appartenenti ad aree

aziendali diverse, permettendo un monitoraggio continuo

sull’avanzamento dei lavori e una visualizzazione immediata

tra quanto preventivato e l’effettivo stato dell’arte della

commessa.

Il secondo obiettivo da raggiungere per mantenere fede

all’impegno preso con il Cliente era quello di migliorare la

...valorizzandone le specifi cità, le fl essibilità e le differenze, nonché la creatività tipica delle aziende italiane di successo.

33

condivisione della conoscenza in azienda. Era necessario creare dei percorsi di navigazione tra le

informazioni mirati per ciascun utente, sia interno che

esterno, e basati sull’utilizzo di profi li aziendali specifi ci.

Per rispondere a questa richiesta, Eurosystem ha realizzato

un Portale personalizzato, con la funzione di unico punto di

accesso ad applicazioni, processi, dati, documenti, persone.

La teconologia innovativa alla base del portale è Freeway® Presentation Server, una piattaforma server per progettare

portali personalizzabili per ruolo e utente.

Grazie ad essa e alla creazione di Profi li opportunamente dedicati ai diversi livelli di utenza (direzione, manager/

responsabili, operativi, collaboratori interni ed esterni),

l’uso delle applicazioni e l’accesso alle informazioni è

stato reso molto più semplice, nell’ottica di un’attenzione

sempre maggiore alla qualità dell’esperienza utente (User eXperience) e all’ottimizzazione di tempo e risorse interne.

Con la tecnologia implementata è possibile impostare per

ogni profi lo utente una home page personalizzata che

visualizzi da subito i dati e le informazioni più importanti della

propria attività. In questo modo, dall’informazione si arriva

al singolo dato e, se necessario, al modulo applicativo che

ha generato quel dato, ma non viceversa. Si valorizzano così

l’informazione e la persona, che sono il vero patrimonio di

ogni azienda.

L’azienda Cliente ha così potuto disporre di un sistema informativo integrato ed intuitivo, con la possibilità di

utilizzare, in autonomia, strumenti di analisi per generare

report direzionali e cruscotti aziendali (Decision Support

System) e poter monitorare tutti gli aspetti dell’azienda,

avvalendosi delle conoscenze acquisite nel corso del progetto

dal proprio personale tecnico od operativo.

DAL PRODOTTO SOGNATO A QUELLO REALIZZATO

Freeway® Skyline ha consentito di superare i benefi ci

attesi e di raccogliere gli obiettivi di progetto, favorendo

l’introduzione di sistemi e moduli standard, adattandosi alle

particolari esigenze del Cliente e superando le molte criticità

identifi cate durante la gestione. La parametrizzazione del

sistema ha reso la soluzione software un vero “vestito su

misura” adattato alla realtà aziendale, senza irrigidirla, anzi,

valorizzandone le specifi cità, le fl essibilità e le differenze,

nonché la creatività tipica delle aziende italiane di successo.

Come nasce un caso di successo? Oggi sono la fl essibilità e la versatilità, anche nei progetti software, a fare la

differenza. Questo, è un concetto che va al di là della mera

possibilità, che hanno i sistemi, di poter essere componibili

o preconfi gurati: qualcosa che consente a ciascuno di far

coincidere il prodotto sognato con quello realizzato.

Oggi sono la fl essibilità e la versatilità a fare la differenza.

stories

34

DICEMBRE 2012

In questo particolare momento storico in cui la crisi del

sistema economico globale sta impattando notevolmente il

modo di fare impresa, l’attività del recupero crediti svolge

un ruolo determinante diventando un elemento in grado di

dare equilibrio ai bilanci delle società, migliorando i fl ussi

di cassa e la liquidità aziendale. Così come le banche e le

società fi nanziarie, oggi molte aziende considerano fi siologica

e “preventivata” una percentuale di insoluti, e per evitare di

dedicare risorse interne al recupero del credito, si affi dano

all’outsourcing per la gestione delle pratiche.

Tra le molte società che operano nel settore del recupero

crediti, quelle che hanno conquistato la leadership si

differenziano per l’elevato livello di specializzazione e per

l’alta percentuale di risultati positivi, ma non solo.

Anche la componente tecnologica, ovvero l’infrastruttura

telefonica e dati necessaria per erogare i servizi offerti, gioca

un ruolo decisivo.

Ed è stata proprio questa consapevolezza a spingere Recus

Spa, da circa 20 anni una delle più importanti realtà italiane

nei servizi di Recupero Crediti, verso l’adozione di una

soluzione tecnologica all’avanguardia in grado di garantire

idonea potenza elaborativa, estrema fl essibilità in funzione

delle necessità del momento e continuità del servizio.

“Sin dagli inizi – esordisce Luca Cortesia, IT Manager

della società – Recus ha vissuto un progressivo e costante

sviluppo. Nell’ultimo quadriennio, in particolare, la società ha

triplicato il proprio organico arrivando oggi a superare i 250

utenti distribuiti nelle 5 sedi della società. Una evoluzione

che ha reso necessario un rinnovamento dell’infrastruttura

informatica, poiché quella precedente, pur costituita da

L’infrastruttura progettata da Sistemarca con soluzioni EMC garantisce prestazioni e continuità di

servizio per soddisfare le esigenze dei clienti, anche le più impegnative.

Per una più facile gestione del credito

RECUS: L’IT CHE FA LA DIFFERENZA

MASSIMO MANICA

35

sistemi ad alta affi dabilità in un ambiente virtuale, iniziava a

mostrare alcune criticità, non garantendo più le condizioni di

fl essibilità e sicurezza necessarie a supportare la crescente

mole di lavoro e il livello di redditività richiesto da importanti

contratti acquisiti e da nuovi più vincolanti. La costante

ricerca dell’eccellenza nell’erogazione dei nostri servizi,

ci ha indotto lo scorso anno ad affrontare un progetto di

Disaster Recovery. Supportati da Sistemarca, nostro partner

tecnologico ormai da diversi anni, abbiamo iniziato un’attività

di analisi e progettazione fi nalizzata a realizzare un sistema

IT in grado di garantire, nell’ambito di un più complesso ed

articolato Piano di Business Continuity, un’idonea continuità

del servizio in caso di indisponibilità prolungata dei sistemi”.

Il Responsabile tecnico del progetto, Gianfranco Casu di

Sistemarca spiega “L’obiettivo principale del progetto è

stato quello di garantire entro un tempo certo il ripristino

dell’operatività del maggior numero possibile di operatori del

Call Center, dando loro non solo la possibilità di effettuare e

ricevere chiamate telefoniche, ma anche la piena disponibilità

delle informazioni necessarie per svolgere il proprio lavoro,

con particolare riferimento al comparto amministrativo,

rimediando così alla diffi coltà di recuperare quei dati elaborati

durante o immediatamente prima l’indisponibilità dei sistemi.

Il progetto di realizzare un’architettura di Disaster Recovery

è iniziato individuando una sito primario in grado di garantire

a tutti gli utenti delle sedi Recus un accesso veloce alle

informazioni e un ottimo sistema telefonico. Allo scopo è

stato scelto un Datacenter a Padova con un’infrastruttura di

rete dati e fonia adeguata alle necessità dell’azienda. Una

linea in fi bra ottica da 100 Mbit, che garantisce un veloce

interscambio di informazioni, collega il Datacenter di Padova

con quello della sede Recus di Treviso al quale è stato

assegnato il ruolo di sito secondario di Disaster Recovery.

Per l’obiettivo di avere il sito di Disaster Recovery quanto più

possibile sincronizzato con quello primario, la distanza tra i

due siti e la corrispondente latenza sono stati gli elementi

chiave sui quali abbiamo valutato le varie soluzioni di replica

remota disponibili nel mercato. La soluzione EMC si è imposta

per la maggiore effi cacia sulle lunghe distanze, dove gli altri

prodotti esaminati, che sarebbero stati suffi cientemente validi

in un’ipotesi a livello “campus” o entro un numero limitato

di chilometri, perdevano di consistenza. Inoltre, le pazienti

verifi che “sul campo” e i test sulle repliche preventivamente

eseguite, hanno infl uito positivamente sulla strategia fi nale

del progetto in quanto la latenza osservata ha permesso di

valutare metodologie altrimenti da escludere”.

La soluzione tecnologica adottata si basa sull’impiego

di due sistemi storage EMC VNX, uno in affi ancamento

all’infrastruttura preesistente ubicata nella sede di Treviso,

e l’altro, in collegamento con altri Host VMware, in Housing

presso il Datacenter a Padova. I sistemi VNX, oltre a fornire

prestazioni elevate, semplicità di utilizzo e funzionalità

avanzate per una gestione e allocazione effi cace e automatica

dei dati, forniscono a Recus un ampio margine di crescita e

la fl essibilità necessaria per supportare adeguatamente le

attuali e future necessità di business.

La replica tra i due siti viene gestita in modalità asincrona

tramite il software EMC MirrorView (disponibile anche nella

versione per repliche sincrone) che soddisfa tutti i principali

requisiti per un ripristino operativo senza la necessità

di funzionalità CDP (Continuous Data Protection) o di

ottimizzazione della larghezza di banda. Inoltre MirrorView è

funzionale alla soluzione Site Recovery Manager di VMware,

consentendo di migrare semplicemente e in pochi minuti

parte o tutte le macchine virtuali dei server VMware dal sito

primario a quello secondario.

Nonostante la soluzione sia su rete geografi ca, con tutte le

complicanze che questo comporta, le repliche tra i due siti

sono comunque allineate in media di 3 minuti, quindi molto

prossime a una sincronia quasi totale.

Il processo di migrazione al nuovo assetto è durato circa tre

mesi durante i quali è sempre stata garantita la continuità del

servizio senza alcun impatto sull’operatività dell’azienda.

“Per Recus era fondamentale che i tempi di migrazione

fossero veloci – afferma ancora Luca Cortesia –, poiché ogni

minuto perso è un minuto di profi tti in meno”. Con il nuovo

sistema gli operatori si sono trovati a lavorare senza problemi

rimanendo operativi fi n da subito.

Questo nuovo assetto potenziato e in completa ridondanza

sta ora assicurando a Recus migliori prestazioni e la

consapevolezza di poter affrontare le attività in corso e le

opportunità future con la massima tranquillità e sicurezza.

Che in un mercato competitivo come quello attuale si

traducono in un reale valore aggiunto.

stories

36

DICEMBRE 2012

37

La tecnologia entranel mondodellafotografi astorica

IL FOTO ARCHIVIO STORICO DELLA PROVINCIA DI TREVISO: ESEMPIO ECCELLENTE DI CONSERVAZIONE, RECUPERO E

TRASMISSIONE DEL PATRIMONIO

CULTURALE DI UN TERRITORIO ATTRAVERSO LA TECNOLOGIA.

La fotografi a storica, soprattutto nel caso

dell’immagine storico-artistica, paesaggistica,

architettonica, è una fonte insostituibile

necessaria per ogni progetto culturale,

urbanistico, di restauro e di intervento nel

territorio. L’immagine fotografi ca, oltre che

opera d’arte, è anche e soprattutto un modo,

culturalmente e socialmente determinato,

di divulgare idee ed eventi, di evocarli e

ricordarli, di occultarne e mistifi carne altri,

UBERTO DI REMIGIO - PAOLA PRETTO

38

DICEMBRE 2012

in sostanza di costruire una politica e una memoria

storica: è quindi fonte, documento, ma anche mezzo

di rappresentazione della realtà. L’essere la fotografi a

oggetto nella storia, fonte, brano di una realtà, mai come

oggi viene ad acquistare in brevissimo tempo il sapore del

passato. Inoltre, essendo uno strumento di storiografi a ci fa

comprendere ancor di più il valore di una grande raccolta di

materiale fotografi co come quella del FAST.

Fondato dalla Provincia di Treviso nel 1991, il Fast – acronimo

di Foto Archivio Storico Trevigiano – rappresenta un punto di

riferimento a livello nazionale nell’ambito della salvaguardia,

ricerca, studio, tutela, catalogazione e valorizzazione del

patrimonio iconografi co del territorio. Le oltre 300.000

immagini conservate presso l’Archivio provinciale

consentono di studiare l’arte e la storia del Veneto e del

territorio trevigiano in particolare, permettendo di esplorare

e analizzare nei dettagli ogni aspetto della vita quotidiana,

dei costumi, delle tradizioni, dell’evoluzione del territorio, dei

centri abitati, dell’edilizia rurale, dell’archeologia industriale,

dal 1860 fi no ai giorni nostri. Oltre 100 anni di storia e di

costume veneto sistematicamente documentati dall’occhio

della fotocamera e interpretati da maestri dell’immagine

come Giuseppe Ferretto, Umberto Fini, Giuseppe Mazzotti,

Giuseppe Gnocato, Giulio Marino, Aldo Nascimben, Luigi

Munari, Luigi Coletti, Orio Frassetto e altri ancora. L’utilizzo

di questo patrimonio di immagini interessa e coinvolge utenti

diversi: istituti universitari, editori, storici, architetti, enti

pubblici, studenti, case di produzione cinematografi ca ecc.,

dal momento che l’Archivio rappresenta una delle pochissime

strutture pubbliche del genere nel Veneto, aperta alla

consultazione pubblica.

Per conservare il materiale documentario, e nel contempo,

implementare la fruizione del pubblico è stato scelto di

utilizzare la tecnologia, mettendola a servizio dell’arte.

L’Archivio Fotografi co, infatti, si appoggia a un

avanzato sistema informatico che permette

l’acquisizione, la memorizzazione, la

gestione e la stampa delle immagini e

delle relative schede di catalogazione:

con questa innovazione è possibile

dare risposte tempestive all’utenza,

con drastici tagli di tempi e costi.

LE IMMAGINI DELLE OPERE DI CANOVA DANNEGGIATE DAGLI EVENTI BELLICI DEL 1915-18

Immagini di un servizio di guerra svolto dai

fotografi Stefano e Siro Serafi n nel 1917, nel

pieno dell’offensiva austriaca sulle linee del

Piave e del Monte Grappa.

FONDO LUIGI COLETTI DI STEFANIA ROSSO

Circa 12.000 fotografi e di opere

d’arte e monumenti artistici fatte

in un periodo di tempo che va dal

1910 al 1960 circa.

FONDOPROVERA

Circa 1.500 stampe e poche

decine di negativi raffi guranti

persone, viaggi, vacanze,

momenti di tempo libero.

FONDO AUTOMOBILE CLUB DI TREVISO

Alcune centinaia di stampe su carta,

circa 4.000 fotografi e raccolte

nell’arco di ’80 anni. Le foto

riguardano avvenimenti sportivi della

provincia a partire dagli anni ’20.

LE IMMAGINI DELL’ARCHEOLOGIA INDUSTRIALE

Immagini raccolte in occasione

della mostra “L’Archeologia

Industriale nel Trevigiano”.

FONDOGIUSEPPE GNOCATO

20.566 pezzi inventariati di cui

4.720 negativi, 3.125 diapositive

su pellicola e i restanti, cartoline e

stampe su carta. Contiene immagini

del triveneto relative a quasi tutti i

centri abitati tra la fi ne degli anni ’40

e la fi ne degli anni ’60.

39

FONDO ETTORE BRAGAGGIA

6.759 pezzi inventariati di cui 1.782

positivi su carta e i restanti negativi

di cui 255 su lastra di vetro. Contiene

immagini relative a tutti gli aspetti

della vita civile di Treviso tra gli anni

’50 e ’80 del novecento.

FONDO FERDINANDO E BRUNA FORLATI

Circa 10.000 immagini relative al patrimonio

artistico delle Tre Venezie, dell’Istria e della

Dalmazia.

FONDOGIULIO MARINO

265 positivi su carta. Contiene

immagini relative al vittoriese dagli

anni ’20 agli anni ’60 .

FONDOALDO NASCIMBEN

920 pezzi inventariati, diapositive

e negativi su pellicola. Contiene

immagini di Treviso nel periodo

tra le due guerre e dei luoghi

visitati da Aldo Nascimben

nel corso della sua attività di

cineoperatore.

FONDOGIUSEPPE FINI

17.552 pezzi inventariati di cui

2.973 negativi su lastra di vetro,

602 positivi su carta e i restanti

diapositive (230) e negativi su

pellicola. Contiene immagini del

trevigiano dell’800.

LE IMMAGINI CONCESSE DAI PRIVATI

Sono immagini messe a

disposizione da privati cittadini,

autorizzandone un uso di

pubblica consultazione. Tra le foto

alcune tratte dalla fototeca del

generale Pietro Badoglio.

LE IMMAGINI DI CIRCOLI FOTOGRAFICI, ASSOCIAZIONI, ENTI, ISTITUTI

Immagini realizzate in collaborazione

con Associazioni ed Enti del territorio.

FONDOMARIO PAGGIARO

4.756 negativi su lastra. Immagini di

archeologia industriale e ritratti per il

periodo che va dall’inizio del ’900

agli anni ’60.

FONDOGIUSEPPE MAZZOTTI

122.586 pezzi inventariati di cui 15.934

diapositive su pellicola, 22 diapositive

su lastra di vetro, circa 30.000 negativi

su pellicola e i restanti positivi su carta.

Foto di Mazzotti e altri autori.

Fondi Fotografi ci del FAST: un patrimoniostorico pubblico

FONDO LUIGI MUNARI

Circa 15.000 pezzi

prevalentemente negativi

su pellicola e vetro.

Immagini relative a tutti

gli aspetti della vita civile

di Pieve di Soligo

a partire dal 1907.

FONDO DELL’ISTITUTO J. RICCATI DI TREVISO

4.145 vetri da proiezione, costituito

per fi nalità didattiche dall’Istituto, con

soggetti attinenti le materie di insegna-

mento. Raccolta avviata nel 1911.

scenari

40

DICEMBRE 2012

Il FAST (Foto Archivio Storico Trevigiano) ha

realizzato e gestito il progetto di valorizzazione

del patrimonio documentario in proprio possesso

tramite la tecnica della digitalizzazione.

Processo avviato nel 1998 grazie ad un sistema

informatico che permette l’acquisizione, la

memorizzazione, la gestione delle immagini

e delle relative schede di catalogazione. Con

la digitalizzazione si ottiene una trasposizione

digitale delle immagini analogiche che consente

la più vasta fruizione all’utenza, salvaguardando

altresì l’integrità degli originali da eventuali danni

fi sici o ambientali. L’attività di digitalizzazione

svolta dal FAST prevede l’utilizzo di hardware e

software adeguati all’ambito dell’Archiviazione

fotografi ca secondo i parametri previsti dalla

normativa ministeriale dell’ICCD - Istituto

Centrale per il Catalogo e

la Documentazione.

Per la scelta

della dotazione

hardware, non è stata tanto

fondamentale la potenza della CPU

(ormai quasi tutte quad-core) e la quantità

di RAM installata (4 GB sono oggi lo standard

comune) del computer utilizzato, quanto

invece la qualità del dispositivo di acquisizione

delle fotografi e. Inoltre, per quanto riguarda

il monitor da utilizzare, la scelta è caduta

obbligatoriamente su un modello LCD IPS da

almeno 22 pollici, capace di riprodurre quasi

l’intera gamma tonale RGB.

L’elemento fondamentale del suddetto processo

è quindi lo scanner, che deve possedere

ben defi niti requisiti tecnici. A tale scopo il

FAST utilizza scanner CCD a letto piani con

risoluzione ottica di 1.800 dpi, adatti alle

stampe fotografi che e ai trasparenti dal formato

13x18cm in su, e uno scanner CCD dedicato

solo ai trasparenti con risoluzione ottica di 4.000

dpi, adatto alle pellicole e alle diapositive dal

formato 35 mm fi no al 6x6 cm.

Nella scelta dei suddetti scanner è stato altresì

tenuto conto della così detta gamma di densità,

cioè il valore numerico indicante il range di

sensibilità di lettura tonale dal nero al bianco,

che nel caso specifi co risulta essere superiore a

4, indice qualitativo degli scanner propriamente

professionali. La scansione fotografi ca ai fi ni

archivistici richiede il rispetto della geometria

degli originali, ai sensi della normativa ICCD,

quindi non viene ritagliato nessun particolare

esterno all’immagine vera e propria, che viene

quindi acquisita completa di cornice ed eventuali

supporti cartacei su cui è incollata, specialmente

se contenenti dati utili alla successiva

catalogazione.

I parametri di acquisizione sono quelli del

livello qualitativo A della suddetta normativa,

cioè almeno 3072x3072 pixel, in RGB a 24

bit. Nel caso di scansione con uno scanner

non opportunamente pretarato, è opportuno

porre a fi anco dell’originale una striscia di

colori campione utile alla successiva taratura

cromatica dell’immagine. Il fi le risultante

viene salvato nel formato lossless TIF senza

nessun ritocco dell’immagine, tranne eventuali

regolazioni minime di luminosità, su specifi ci

hard-disk di rete in modalità RAID 5, che

permettono la conservazione dei dati registrati

con suffi cienti garanzie di sicurezza e un ottimo

rapporto qualità/prezzo.

I fi le delle immagini possono essere poi

ripresi e rielaborati con un programma di

fotoritocco, come Photoshop o simili, per

essere consegnati in copia all’utenza secondo

le varie modalità previste dal Regolamento

del FAST di concessione delle immagini. Alla

fi ne del processo sopra descritto, le fotografi e

originali sono quindi riposte in appositi locali

di conservazione ad umidità (30%-50%)

e temperatura costanti (max 18° C), con

accesso limitato, in modo da preservarle da

danneggiamenti causati da usura, cadute,

radiazioni luminose e contaminazioni ambientali.

Dopo il processo di acquisizione, segue quello

di catalogazione delle foto archiviate, secondo

i dettami del tracciato della scheda F, indicati

sempre dall’ICCD. A tale scopo il FAST utilizza

da sempre il software di database Filemaker,

che combina potenza e grande fl essibilità d’uso

durante le ricerche, ma limitatamente alle

schede catalogate.

Per una migliore fruizione delle immagini da

parte dell’utenza, il FAST ha quindi deciso anni

fa l’acquisto del software di database Ajaris,

che permette di importare i dati già inseriti in

Filemaker, oltre che catalogare direttamente, e

di associare anche la relativa immagine ad alta

risoluzione, ben visibile in fase di ricerca. Con il

modulo WEB di Ajaris acquistato recentemente,

il FAST ha iniziato il suo cammino verso

l’ambizioso progetto di messa online della

propria banca di immagini.

Diego Romano – Operatore tecnico del FAST

LA TECNICADELLA DIGITALIZZAZIONE PER CONSERVARE LA MEMORA STORICA

informazione pubblicitaria

VEEAM stupisce ancora con la nuovaversione di Backup & Replication 6.5Veeam conferma la leadership nel settore offrendo un Backup per VMware e Hyper-V potente, affi dabile e facile da utilizzare.

Milano, 9 ottobre 2012 - Veeam Software - innovativo

fornitore di soluzioni di backup, replica e gestione degli

ambienti virtualizzati VMware vSphere e Windows Server

Hyper-V - annuncia che Veeam Backup & Replication 6.5

sarà disponibile a partire dal quarto trimestre 2012. La

nuova versione include nuove capacità di ripristino per

Microsoft Exchange e per le snapshot di HP StoreVirtual

VSA e Lefthand. Va inoltre sottolineato il supporto per

VMware vSphere 5.1 e Windows Server 2012 Hyper-V,

che fa di Veeam il primo vendor in grado di supportare

entrambe le nuove piattaforme hypervisor. Queste nuove

e potenti caratteristiche estendono la leadership di Veeam

con una soluzione agentless costruita specifi camente per

la virtualizzazione, potente, affi dabile e facile da utilizzare.

Le funzionalità principali di Veeam Backup & Replication 6.5

includono:

Veeam Explorer per Exchange: gli amministratori VM

saranno in grado di esplorare i backup Exchange per

individuare e recuperare singoli item Exchange, senza agente.

Tra le caratteristiche gratuite vanno sottolineate:

la possibilità di esaminare i database Exchange

direttamente da un fi le di backup compresso e la

disponibilità di database di mailbox ricercabili in meno di

2 minuti;

la possibilità di cercare item specifi ci su database di

mailbox Exchange multipli e la disponibilità di oggetti con

capacità di ricerca avanzate;

la possibilità di esportare item su un fi le PST, su fi le MSG

o di inviarli come allegato.

Veeam Explorer per snapshot SAN: le nuove caratteristiche

consentono agli amministratori di ripristinare velocemente

tutte o alcune VM dalle snapshot SAN, che possono essere

recuperate nel corso della giornata lavorativa con un piccolo

impatto sui sistemi di produzione. Questo consente brevi

recovery point objective (RPO) per gli scenari di ripristino più

comuni: utenti che cancellano dati accidentalmente, script

che corrompono accidentalmente i dati e update di sistema

sbagliati.

Monitoraggio e reportistica avanzati: questa nuova

funzionalità integra il monitoraggio, la reportistica e la possibilità

di pianifi cazione per Veeam Backup & Replication in una

singola console attraverso il nuovo Veeam ONE 6.5, che fa

parte di Veeam Management Suite 6.5.

“Sono rimasto molto colpito dalla facilità di installazione di

Veeam Backup & Replication 6.5” commenta Ian Hasell,

Associate Director di Qdos Computer Consultants Ltd. United

Kingdom. “L’interfaccia è solida e, a pochi minuti dal download

del software, il backup delle VM critiche era già completato.

Altamente raccomandato”. “Le nuove caratteristiche di Veeam

Backup & Replication 6.5 sono molto potenti” spiega Arnaud

Quenum, Consultant di Avnet Technology Solution a Parigi.

“Veeam ha alzato il livello: tra i nostri partner si parla già molto

di Veeam Explorer per Exchange, questa caratteristica avrà

molto successo”. “Tra gli innovatori affermati nell’ambito della

protezione e della virtualizzazione, non sorprende vedere

Veeam tra i leader per quanto riguarda le piattaforme VMware

e Hyper-V, che godono ora del supporto rispettivamente per

la versione 5.1 e 2012” dichiara Jason Buffi ngton, Senior Data

Protection Analyst, Enterprise Strategy Group. “Veeam ha

inoltre compreso che è importante concentrarsi sulla possibilità

di avere non solo il backup, ma anche un ripristino facile e

veloce: le nuove capacità di ripristino di Exchange e delle

snapshot SAN estendono quindi ulteriormente le potenzialità

della soluzione generale”. “La soluzione agentless di Veeam

per il backup e la replica, sviluppata specifi camente per la

virtualizzazione, un tempo era considerata un prodotto di

nicchia, ma ora, come la virtualizzazione stessa, è diventata

all’ordine del giorno “ afferma Ratmir Timashev, President

and CEO, Veeam Software. “Secondo Gartner, a metà del

2012 più del 50% dei workload delle architetture x86 sono

stati virtualizzati sui server e si presume che questo numero

crescerà fi no al 75% entro il 2014. Le aziende oggi fanno

girare le applicazioni e i servizi più critici sulle macchine virtuali,

garantendo così un ripristino veloce, essenziale per assicurare

la continuità del lavoro”.

Disponibilità e prezzi: Le versioni demo di Veeam Backup

& Replication 6.5 e Veeam Management Suite 6.5 eranno

presentate a Barcellona in occasione di VMworld 2012. La

disponibilità generale è prevista per il quarto trimestre 2012.

1 Gartner, Magic Quadrant for x86 Server Virtualization Infrastructure,

Thomas J. Bittman, George J. Weiss, Mark A. Margevicius, Philip

Dawson, 11 giugno 2012

Veeam Software

Veeam® Software sviluppa soluzioni innovative per il backup

VMware (VMware backup), il backup Hyper-V (Hyper-V

backup) e la gestione di ambienti virtuali.

Per maggiori informazioni: http://www.veeam.com/it

Connect with Veeam:

Communities & Social Networks:

http://www.veeam.com/communities.html

News RSS: http://feeds.feedburner.com/VeeamNews-it

42

DICEMBRE 2012

Intervista a Nicola Ciniero presidente e amm. delegato IBM Italia

Cenni biografi ci di Nicola Ciniero.

Ho ricevuto l’incarico di presidente e amministratore delegato

di IBM Italia nel giugno 2009, dopo una parentesi di un anno

e mezzo come general manager sales della compagnia e un

lungo, diversifi cato percorso manageriale iniziato 33 anni fa.

Quello in IBM, a dire il vero, è stato un ritorno. Dopo

averci lavorato tra il marzo 2003 e l’aprile 2006, con una

responsabilità a livello di South Region per il Communications

Sector – i mercati Telecomunicazioni, Utilities e Media –

decisi infatti di accettare una nuova sfi da: guidare il fondo

di private equity Gatesworthy International, partecipato da

Bank of America, tra le cui controllate c’è Jal Group, il primo

produttore mondiale nel settore calzaturiero di sicurezza.

Prima di tutto ciò, per un triennio sono stato al vertice di

Compaq Computer, società cui sono arrivato nel 1997 con

un ruolo da deputy general manager lasciando la posizione di

country manager della PC Business Unit di Digital Equipment.

Gli anni ’90 sono tra i più belli che io ricordi. Per questioni

anagrafi che, certamente, e perché, a quel periodo, risale

l’esperienza maturata in Whirlpool Europe come regional

director Area III & Area Business Team Retail Trade per tutti i

brand del gruppo in Italia, Spagna, Portogallo e Grecia.

Del periodo precedente ricordo invece gli anni trascorsi in

Zenith Data Systems Italia, in cui rimasi fi no al ruolo di Large

Account and Retail Commercial director, quelli in Nixdorf

Computer come marketing director, il lungo periodo alle

vendite in HP e l’esordio in Sperry Univac nel 1979, nell’area

delle risorse umane. Per quanto riguarda l’ambito associativo,

attualmente sono membro di Confi ndustria per la quale

ricopro l’incarico di vice presidente del Comitato Investori

Esteri, con delega ai temi del lavoro e del fi sco. Dal maggio

2011 partecipo anche ai lavori della Giunta confederale, con

un mandato biennale.

Ultimi dati di fatturato IBM Italia.

Per una impresa globalmente integrata come la nostra è

più corretto parlare di indicatori che emergono a livello di

Corporation. Nel 2011 i ricavi hanno raggiunto i 107 miliardi

di dollari, in crescita del 7% rispetto all’anno precedente,

con il fatturato delle cosiddette Growth Markets Unit – il cui

IBM: STORIA DI UN SECOLO DI TECNOLOGIA E CONOSCENZA

43

contributo è ormai pari al 22% del revenue totale di IBM –

balzato di un 11% a tasso di cambio costante. L’utile netto

è salito del 9%, mentre l’earning per share – pari a 13,44

dollari – ha registrato un aumento del 15%, con uno sviluppo

a doppia cifra per il nono anno consecutivo, in linea con le

attese della nostra road-map 2015. Le soluzioni di offerta

legate al software e ai servizi, tecnologici e di business, che

indirizzano la domanda in aree come lo Smarter Planet, gli

Analytics e il Cloud hanno performato oltre ogni aspettiva e

bene si è comportato anche l’hardware.

Il 2012 non sta certo deludendo, nonostante la crisi stenti

a dare segnali di attenuazione. Nell’ultimo trimestre, pur

soffrendo un calo nel fatturato – imputabile all’andamento

della valuta americana e alla caduta della domanda –

abbiamo espanso profi tti e margini il che si è rifl esso in un

+10% nell’utile per azione, attestatosi a 3,62 dollari.

Continuiamo quindi a macinare buoni risultati un po’ ovunque

e questo ci dice che il processo di trasformazione del

business, avviato una decina di anni fa, e la nostra strategia

stanno dando buoni frutti.

IBM - una storia lunga un secolo, quasi quanto la storia dell’Information Technology. Cosa signifi ca essere innovatori oggi per un’azienda che ha assistito e ha cavalcato così tante evoluzioni? Quale il valore aggiunto che fa di IBM ancora un leader in questo settore?

IBM ci dice che la tecnologia rappresenta molto più della

sequenza di scoperte, invenzioni e strumenti che pur hanno

segnato il Novecento.

L’Information Technology infatti ha avuto e ha un ruolo più

profondo, come scienza e come componente pervasiva del

modo in cui il mondo funziona.

IBM è stata un leader in ogni dimensione cominciando con

il costruire orologi, bilance, persino affettatrici, insieme alle

tabulatrici a schede perforate. Ma, ecco il segreto, non si è

mai identifi cata con uno specifi co prodotto o una tecnologia

perché mai ha smesso di reinventarsi, pur conservando

immutati i valori che hanno nella dedizione al successo di

ogni cliente uno dei pilastri.

Qualche esempio? Nel 1981 introducemmo il Personal

Computer mentre undici anni più tardi fu la volta del

popolarissimo ThinkPad. Un successo planetario, com’è

noto, ma quando comprendemmo che il nuovo modello di

computing avrebbe trasformato l’industria dei PC in una

commodity, bene, quel business fu ceduto alla Lenovo. Negli

anni ’80 il PC fu un’innovazione. Vent’anni dopo, perdute le

caratteristiche che ne facevano un prodotto diverso, capimmo

che era venuto il tempo di spingersi nuovamente nel futuro.

È questa la ragione per cui siamo riusciti ad aprire così tante

nuove frontiere nella scienza dell’informazione.

L’ultima è rappresentata da sistemi alla Watson, i computer

STORIA DI UN SECOLO1. Anni ‘60 - 2. Venezia

3. 1928, Milano, Via Crispi:

la vetrina della prima sede italiana di IBM

4. 1937 Milano Via Tolmezzo: il primo stabilimento italiano

incontri con

44

DICEMBRE 2012

cognitivi che offrono un’interazione tra la macchina e gli

umani fi nora sconosciuta. Un diverso paradigma dell’IT, in

breve, destinato a cambiare la nostra esperienza quotidiana

attraverso molteplici applicazioni.

Per la sanità, per esempio, Watson è già al lavoro negli Usa

presso due prestigiose istituzioni aiutando medici e ricercatori

a trovare trattamenti migliori per i pazienti e una cura contro

diverse patologie. Poi ci sono la pubblica amministrazione e

la fi nanza, ma non solo. Il nostro impegno per l’innovazione è

senza soluzione di continuità e ha un solo scopo: trasformarsi

in valore aggiunto per il mercato e per la società nel suo

complesso.

Con il concetto di Smarter Planet, IBM parla di realizzare un mondo più intelligente usando la tecnologia come leva di trasformazione e miglioramento. Un pensiero che bene interpreta la fase di evoluzione culturale portata dalla 3° rivoluzione industriale.

I progressi tecnologici hanno sempre avuto conseguenze

profonde sul corso della storia e sul modo in cui le

organizzazioni umane si strutturano e operano a ogni livello.

Nel secolo scorso, per esempio, gli effetti più profondi

vennero dall’informatica che si è evoluta da insieme di

strumenti a industria, fi no a farsi scienza vera e propria e

componente pervasiva del mondo moderno. L’IT quindi è

diventata molto più di un mezzo utile alle operazioni di back-

offi ce o di un fl usso infi nito di gadget consumistici. E’ il modo

attraverso cui osserviamo il mondo e in cui descriviamo e

comprendiamo la dinamica dei sistemi complessi. In effetti la

tecnologia è ovunque. La ritroviamo nei sistemi e nei processi

che permettono di erogare i servizi, di costruire e vendere

ogni tipo di beni, di trasportarli e distribuirli. Sta in ogni cosa

– dalle materie prime agli oggetti fi niti – che consente a

miliardi di esseri umani di vivere e lavorare.

Ognuno di noi oggi dispone di quasi un miliardo di transistor

il cui costo unitario è pari a un decimilionesimo di centesimo

di dollaro. In giro per il mondo funzionano 4 miliardi di telefoni

cellulari e 30 miliardi di etichette Rfi d: un incredibile numero

di dispositivi che offrono la possibilità di misurare, in tempo

reale, molteplici sistemi, sia naturali sia artifi ciali.

Il pianeta non è solo tecnologico ma anche interconnesso.

I due miliardi di persone che utilizzano Internet possiedono

oggetti d’uso quotidiano in costante comunicazione tra loro.

E la realtà nota come “Internet delle cose” la cui prospettiva

conduce nientemeno che a un trilione di oggetti connessi, e

non solo tecnologici: auto, pc, tablet, macchine fotografi che,

autostrade, ferrovie, giacimenti minerari, oleodotti, fi umi,

oceani, medicine, culture e persino mandrie di bestiame.

45

Tutto ciò genera una grande quantità di dati che le tecniche

di analisi avanzate e i supercomputer sempre più potenti

possono trasformare in conoscenza, da mettere a fattor

comune.

La visione dello Smarter Planet è alla ricerca ovunque

di leader illuminati che vogliano utlizzare una tale

intelligenza per rendere più effi cienti i sistemi, i processi e

le infrastrutture di cui siamo circondati. E i tanti progetti in

corso in tutto il mondo, al fi anco di organizzazioni di ogni tipo,

pubbliche e private, ci dicono che non si tratta di utopia.

Quale il ‘futuro’ delle tecnologie per IBM?

Sono tre, secondo i nostri esperti, le discontinuità tecnologiche

di cui già si avvertono segnali e da cui è atteso un forte

impatto, nel futuro, sul business e sulla stessa vita delle

persone.

La prima chiama in causa i nano-device. Attualmente, cosa

non banale di per sé, i chip sono dotati di alcuni miliardi

di transistor che fra non molto diventeranno triliardi. Ma i

campi di applicazione della nanotecnologia spaziano altrove:

per esempio, IBM ha gia costruito un dispositivo simile a un

transistor con una “nanoporta” attraverso cui può passare

una singola stringa di DNA. E poiché ogni suo elemento è

provvisto di una carica elettrica, si è capito che le stringhe

non solo possono essere spostate ma tradotte in impulsi

elettrici. Questo apre la strada alla personalizzazione delle

terapie, partendo proprio dal DNA della singola persona, e

quindi alla medicina individuale.

La seconda discontinuità chiama in causa l’enorme crescita

dei dati causata dalla incessante espansione dei processi di

business e ancor più, come abbiamo visto, dal moltiplicarsi

dei dispositivi in rete in comunicazione tra loro. A questo

corrisponde una moltiplicazione delle informazioni prodotte e

trasmesse alla velocità delle macchine, con ritmi equivalenti a

centinaia di gigabyte al secondo, intorno ai quali le decisioni

devono essere prese nel giro di microsecondi.

La conseguenza, ecco il terzo salto, è che buona parte delle

tecnologie sviluppate in passato non sono più adeguate a

tali dimensioni e a tale rapidità. Il sistema Watson, cui ho

prima accennato, ha due secondi o poco più per cercare

tra una quantità di dati pari a quella contenuta in milioni di

fonti, ed elaborare la risposta. Ma quello che in realtà deve

fare – l’analisi statistica, la ricerca – va compiuta nel giro di

millisecondi.

In defi nitiva, stiamo entrando in una nuova epoca: quella in

cui c’è un’enorme potenza di elaborazione, una capacità di

analisi e di calcolo matematico inimmaginabili fi no a poco

tempo fa e un insieme di dati, su scala planetaria, disponibili

in forma digitale. Sia che si guardi all’infi nitamente piccolo

sia a ogni fenomeno che ci circonda siamo in procinto di

realizzare cose che credevamo appartenere alla fantascienza.

incontri con

46

DICEMBRE 2012

Thomas Eliott affermò che “abbiamo conquistato molta informazione, ma abbiamo perso in conoscenza”. Qual è la visione di IBM?

Credo che le parole del grande poeta americano esprimano

l’angoscia di quanti hanno vissuto il Novecento interrogandosi

sui grandi cambiamenti sociali ed economici indotti anche

dal progresso tecnologico. Nel ventennio che separa la fine

del secondo conflitto mondiale dalla sua scomparsa, Eliott

assiste alla grande accelerazione tecnologica in ogni campo

e, probabilmente, percepisce gli effetti e le conseguenze

dell’avvento dei primi calcolatori elettronici, degli elaboratori

a transistor e di altre invenzioni di IBM come l’archiviazione

elettronica dei dati.

Comprende allora che la quantità di informazione resasi

disponibile è pronta a superare la umana capacità di utilizzo,

cosa che puntualmente si avvera. Col passare dei decenni,

con l’accelerazione dell’IT, la sua applicazione a ogni settore

d’industria, la consumerizzazione di massa, l’avvento di

Internet e, infine, con i processi di digitalizzazione, termini

come gigabyte e terabyte entrano nell’uso comune e il

fenomeno raggiunge le attuali proporzioni, quello noto come

Big Data.

Stiamo parlando di dati sotto forma di testo, audio, foto,

immagini – sia di tipo statico sia di tipo dinamico – che

vengono prodotti e archiviati in formati e in luoghi differenti,

dai tradizionali data-base ai social networks, senza soluzione

di continuità e in maniera esponenziale.

Se per IDC il loro volume totale raggiungerà i 35.000

exabytes nel 2020, una cifra ventinove volte i 1.200 exabytes

del 2010 – e un exabytes, tanto per intenderci, equivale a un

trilione di byte – per Gartner, la spesa IT destinata alla loro

gestione crescerà in tutto il mondo dagli attuali 27 miliardi di

dollari ai 55 miliardi del 2016.

L’impegno di IBM negli analytics, nelle macchine alla Watson

e nei progetti Smarter Planet nasce per rispondere a tutto ciò:

per aiutare il business d’ogni tipo, così come le organizzazioni

pubbliche, a dare un senso a tale ricchezza di informazioni,

ovunque si trovi, analizzandola, elaborandola e integrandola in

molti modi. Per gestire e per predire.

E così trasformandola, appunto, in conoscenza.

Per quanto riguarda le imprese italiane, quali cambiamenti si trovano ad affrontare oggi per diventare più intelligenti? Quali le sfide dei CEO per migliorare l’organizzazione del lavoro nelle loro aziende?

In tutto il mondo, Italia compresa, le aziende stanno cercando

di rispondere alla complessità indotta dalla forte convergenza

tra le sfere del digitale, del social e del “mobile”. Convergenza

che mette in connessione, come mai avvenuto prima, i

1. H. Rohrer, G.Binnig, ricercatori laboratorio IBM Zurigo.

2. Icone del centenario IBM.

47

principali stakeholder di ogni organizzazione creando sia

pressioni al cambiamento sia nuove opportunità di sviluppo.

Da una recente indagine di IBM, condotta tra 1.700 Chief

Marketing Officers, emerge che il 72% del campione svela la

necessità di affrontare fenomeni come l’esplosione dei dati, la

crescita dei canali social e la proliferazione dei device mobili

per assicurare la fedeltà alla marca, sviluppare la relazione

con i consumatori e dimostrare il ritorno dell’investimento.

Nello stesso tempo, e per la prima volta dal 2004, anno in

cui IBM avvia la serie dei suoi CEO Study, i capi azienda

intervistati nell’edizione 2012 riconoscono nella tecnologia il

primo fattore esterno destinato a guidare i cambiamenti della

propria organizzazione, in un arco di tempo compreso fra i

tre e i cinque anni. La tecnologia è quindi vista non più come

driver di efficienza ma come elemento che abilita l’apertura

e la cooperazione, interna ed esterna, e di qui la creatività e

l’innovazione a tutto tondo.

La tecnologia sta cambiando le regole del gioco, aiutando

le aziende di ogni dimensione e settore d’industria a

comprendere a fondo clienti e consumatori, meglio che

in passato, e a ingaggiarli con una precisione senza pari,

offrendo quindi risposte più efficaci.

Nessuno minimizza l’importanza del rapporto interpersonale,

il cosiddetto “face-to-face”, ma oltre la metà del campione

ci dice di attendersi dai social media, entro 5 anni, il ruolo di

primo canale di interazione e di ingaggio dei consumatori.

Mi pare un cambiamento epocale.

Digital divide e accesso alla banda larga: quali le prospettive nel nostro paese? E in che modo potrebbero impattare sul business IBM?

Partiamo dall’agenda digitale, tema che da tempo ci vede

impegnati ai tavoli di confronto con la volontà di essere

partner del percorso di trasformazione del Paese.

Con il decreto 2.0 finalmente si fa dell’innovazione un

elemento strategico per la crescita, oltre il breve periodo.

Si avvia un programma di confronto con i vari stakeholder

attraverso la cabina di regia, si prevede un sistema di

governance unico con una visione di ampio respiro che

accentra le varie competenze, si coglie l’esigenza di un

nuovo rapporto tra domanda e offerta con strumenti come

il dialogo competitivo o il concetto di social innovation, i

quali rappresentano il presupposto per una riqualificazione

del rapporto pubblico-privato in un’ottica di collaborazione

strategica.

Non solo: i fondi europei vengono canalizzati su iniziative

per il territorio e, con grande coraggio, si spiana la strada al

processo di digitalizzazione del Paese, secondo una strategia

allineata a quella europea, attraverso la semplificazione delle

48

DICEMBRE 2012

regole, la dematerializzazione del rapporto PA-Cittadino,

l’identificazione di aree precise in cui intervenire come le

comunità intelligenti, la sanità, la scuola, la banda larga.

Ma gli aspetti da migliorare non mancano certo. In un

contesto di risorse limitate come il nostro, maggiore

apertura dovrebbe essere data alle potenzialità dell’IT in

termini di razionalizzazione delle risorse, da riallocare su

aree strategiche per il rilancio del Paese. Una pianificazione

strategica degli investimenti in IT può infatti garantire un

sistema di innovazione che si autoalimenta.

Ora la speranza è riposta nel lavoro dell’Agenzia per l’Italia

digitale cui si chiede determinazione in termini di visione,

competenze, autonomia e risorse in un quadro di trasparenza

nei confronti di tutti gli attori. La vera incognita, però, sta nel

superamento dell’attuale fase di transizione, nella continuità

che dovrà manifestarsi sotto l’ala del prossimo Governo e,

naturalmente, nella rapidità di esecuzione.

Per quanto riguarda la banda larga la situazione non è delle

migliori. Cito i dati di un recente rapporto di Akamai: in Italia

la penetrazione della banda larga (fino a 4 Mbps) resta stabile

al 28% della popolazione e soltanto il 2,6% degli italiani è

servito da connessioni ‘high broadband’, cioè sopra i 10 Mbps.

A livello UE il nostro Paese si piazza al penultimo posto per

entrambe le tipologie di connessione, solo davanti alla Turchia.

Pure a velocità media di connessione non siamo messi

bene, questa risultando addirittura in diminuizione anno su

anno. L’analisi dell’Osservatorio Banda Larga ci mostra che

pur includendo tutte le possibili modalità di accesso e gli

stessi device mobili la penetrazione è inferiore al 60% della

popolazione.

Insomma, potremmo e dovremmo fare di più per recuperare

il nostro ritardo. Perché senza una riduzione consistente

del divario digitale il tessuto produttivo, e la stessa PA,

continueranno a soffrire. Mercati come l’e-commerce che pur

potrebbero contribuire alla crescita delle aziende, anche in

chiave internazionale, non possono decollare.

Certo, il decreto ha rimosso procedure e adempimenti. La

49

volontà di imprimere un’accelerazione si nota anche se il

Paese deve ancora centrare l’obiettivo di azzerare il divario

di prima generazione, i famosi 2 Mbps nelle zone non ancora

coperte e nelle aree a fallimento d’impresa. Nel frattempo

è stata aggiornata l’indicazione delle risorse disponibili: il

Ministero per lo Sviluppo Economico dice che i fondi pubblici

per estendere la banda larga e larghissima nelle zone non

interessanti per gli operatori sono saliti a oltre il miliardo di

euro. E che a ciò dovrebbero aggiungersi i soldi dei privati

che prenderanno parte ai bandi pubblici, più gli ulteriori

finanziamenti europei.

Insomma, la fiducia non manca e il soddisfacimento degli

obiettivi dell’agenda digitale che, entro il 2020, prevedono

l’accesso a 30 Megabit per tutti e a 100 Megabit per il 50%

degli italiani è quasi dato per scontato. Sarà. Nel frattempo,

però, e si tratta di sei anni, la capacità competitiva dell’intero

sistema Paese non potrà che risentirne.

Il ruolo del partner. Quale il vantaggio di raggiungere le imprese attraverso questo interlocutore?

Per IBM non c’è strategia rivolta alla piccola e media impresa

che non faccia leva sulla competenza dei propri business

partners, su una reciproca collaborazione definibile “tra pari”

e sul valore unico esprimibile al cliente finale.

A dirlo sono i numeri di un ecosistema composto da

centinaia di migliaia di organizzazioni – oltre 3.500 nel

nostro Paese – e le prospettive di un mercato complesso ma

straordinariamente importante da cui è lecito attendersi una

crescita significativa. Ma proprio l’evoluzione verso lo smarter

computing, gli analytics e il cloud mostra oggi la necessità

di traghettare quelle competenze verso i più innovativi

modelli di erogazione del servizio e di impiego di sistemi

integrati hardware-software di cui le piccole e medie aziende

hanno bisogno per semplificare l’IT, liberare le risorse oggi

principalmente impegnate a mantenerlo, accedere a nuovi

modelli di fruizione delle tecnologie e per focalizzarsi così

sul proprio core business. In altre parole, c’è un crescente

bisogno di operatori definibili come “Managed Service

Provider”, bravi a costruire una prossimità e una partnership

con il cliente puntando su una solida infrastruttura e una

capacità di servire l’IT, secondo un modello pay-as-you-go,

in un ambiente altamente virtualizzato, condiviso, sicuro,

affidabile per continuità e recovery, e naturalmente scalabile.

Una cosa è certa: la mera fornitura di prodotti, e il loro

periodico rimpiazzo, appartengono ormai al passato.

Ai partner IBM si affianca con il peso della propria leadership

nell’innovazione e con un approccio rivoluzionario che fa

leva su una piattaforma tecnologica orientata al cloud e che

include formazione e marketing, oltre a un miliardo di dollari

in soluzioni di finanziamento.

Così, a un set di offerta per la piccola e media impresa oggi

ineguagliato – dal portfolio SmartCloud allo Smarter Storage,

dai sistemi e soluzioni PowerLinux IBM alla nuova famiglia di

piattaforme integrate PureSystem e molto altro – si affianca

un insieme di programmi di training e sviluppo delle skills

professionali, di riconoscimento dei risultati, di sostegno alle

attività con incentivi, forme contrattuali dedicate e, come

detto, di specifiche opzioni di finanziamento.

La road-map strategica 2015 di IBM che punta allo sviluppo

dei mercati della business analytics, del cloud computing

e dello smarter planet in ogni settore d’industria non può

quindi prescindere dalla collaborazione con un ecosistema di

business partner preparati e competenti, pronti a condividere

con noi una logica di valore su un mercato in evoluzione.

Ecco perché, anche in Italia, continueremo a investire risorse

e sforzi sempre più consistenti in questa direzione.

incontri con

Innovazioni su misura per le piccole e medie imprese che vogliono far crescereil proprio business.

Nessun compromesso.

windows.it/business

Un’esperienza straordinaria,indipendentemente dal dispositivo:dai tablet ai computer convertibili, dai portatili ai PC desktop.

Insieme per investire sulle tue idee.

Social Media ROI

51

Vincenzo Cosenza spiega come misurare le strategie Web 2.0

scenari

Ampio è il dibattito sul Social Media ROI, il suo libro porta nuovi contributi alla ricerca in essere? Quali i temi chiave?Il testo cerca di sistematizzare i contributi alla ricerca e di

svelare i miti intorno al concetto di ROI dei social media.

Il tema principale è capire che non tutto quello che conta

può essere contato, ma non per questo bisogna procedere

senza punti di riferimento. E’ importante costruire un proprio

framework di misurazione, da adattare alle specifi che

esigenze.

Quando parla di indicatori nella valutazione a posteriori anche per il Social, a cosa si riferisce?Quello che sostengo è che il framework di misurazione va

impostato in anticipo e deve servire come bussola per la

valutazione delle attività.

Quali sono le metriche e i tool di misurazione più utilizzati in ambito aziendale?Sia le metriche che i tool sono tantissimi. Bisogna

individuare e scegliere quelli più adatti a capire se si stanno

raggiungendo gli obiettivi aziendali. Il libro ne illustra alcuni.

Con Blogmeter ( HYPERLINK “http://www.blogmeter.it” www.

blogmeter.it) abbiamo creato un tool di comparazione delle

pagine/profi li Facebook e Twitter che permette di accedere ad

un numero molto ampio di indicatori, attraverso i quali capire

le performance.

Quanto è diffusa in Italia la percezione organizzativa dell’importanza di misurare la propria presenza online e la propria “reputazione”?Poco. La rete sembra ancora un mondo distante, virtuale, in

grado di non incidere sulla reputazione.

Una guida italiana sul ROI dei social media, per ottimizzare l’uso professionale della gestione della

presenza in Rete. Un metodo per misurare gli obiettivi e i risultati delle attività aziendali.

52

DICEMBRE 2012

Il primo capitolo è dedicato all’evoluzione della rete,

della comunicazione e dei social media. I seguenti due capitoli

focalizzano la correlazione tra social media, web, organizzazione e strategia.

Nella parte centrale del manuale c’è poi

un approfondimento sul monitoraggio

dell’ “ascolto”. L’ultima parte

presenta una serie di strumenti di

misurazione free o a pagamento.

Nato a Lauria nel 1973, Vincenzo si

è laureato in Economia e Commercio

ed ha conseguito un Master in

Management dell’Innovazione alla

Scuola Superiore Sant’Anna di Pisa.

Ha iniziato a lavorare in Microsoft Italia nel

marketing competitivo e nelle pubbliche relazioni.

Da settembre 2007 ad agosto 2012 è stato

responsabile di Digital PR Roma (Hill+Knowlton

Strategies). In seguito è diventato Social Media

Strategist e responsabile della sede romana di

BlogMeter, la società sopracitata. L’attività di

ricerca, complementare alla pratica quotidiana

nel campo della comunicazione sui social media,

lo ha condotto all’apertura del primo Osservatorio

Facebook italiano e alla creazione della Mappa

Mondiale dei Social Network. Occasionalmente

scrive per Nòva (Il Sole 24 Ore), Panorama

Economy e fa formazione.

Da marzo 2012 fa parte degli autori del

magazine “Che Futuro!” diretto da Riccardo Luna.

In passato ha tradotto “La Bibbia del Marketing

su Facebook” di Justin Smith, mentre il suo

primo libro è “Social Media ROI” (Apogeo).

Come converge il mondo dei social network con i temi dell’It e ICT in senso stretto?I social network sono luoghi di connessione e conversazione.

L’aspetto tecnico è sempre meno importante, a meno che non

si intenda parlare di quei social network da usare in ambito

enterprise (es. yammer).

Oggi in azienda il “marketing” è sempre più coinvolto in scelte in cui la tecnologia è presente. Come si sviluppa il “mash-up” tra tecnologia e comunicazione?E’ necessario una collaborazione tra le aree del marketing

e quelle delle IT, ma la tecnologia deve essere sempre

subordinata ai superiori obiettivi aziendali. Spesso però

accade il contrario.

Come vede Lei i nuovi CRM con lo sviluppo progressivo del mondo “Social”?Ancora acerbi, ma la convergenza tra mondo CRM e Social mi

sembra utile e produttiva.

Com’è l’approccio delle aziende italiane ai social media dal punto di vista tecnologico, ma anche da quello manageriale e organizzativo?L’uso dei social media all’interno dell’organizzazione è

pressochè sconosciuto. Invece l’uso come strumento di

comunicazione sta prendendo piede, anche se a volte

l’approccio è troppo commerciale e non conversazionale.

Contestualmente al tema: come sta evolvendo la “cultura” social in Italia?Se si intende con cultura social la comprensione delle

dinamiche conversazionali, la maggior parte delle aziende

sono ancora indietro. Fanno fatica, perché sono abituate

a logiche “push” e non collaborative. Sono abituate a dare

messaggi, senza ascoltare.

Questa “cultura” è direttamente proporzionale all’evoluzione delle tecnologie interessate?Non credo. La tecnologia c’entra come abilitatore di processi

di cambiamento culturale, ma è l’utilizzo, e quindi le

dinamiche sociali, a trasformare gli aspetti culturali.

53

La recensione Internet è probabilmente il mezzo più

misurabile per chi fa comunicazione, ma spesso non è

utilizzato adeguatamente.

Oggigiorno, infatti, per sancire il successo di un’azione

di comunicazione, ci si affida “all’impressione personale”

o a non ben verificate statistiche, piuttosto che affidarsi

a metriche di analisi e misurazione.

Tuttavia una strategia di comunicazione con obiettivi

di business non è basata sull’intuizione, bensì su criteri

‘matematici’ d’analisi. Quindi, anche gli indici di rilevazione

devono essere razionalmente verificabili.

Il volume “Social Media ROI”, edito da Apogeo e scritto

dal professionista Vincenzo Cosenza, nasce con l’obiettivo

di offrire un supporto pratico e utile.

Il libro, scritto in un linguaggio non tecnico, si discosta

dalla letteratura sul social media marketing perché si pone

in un’ottica più operativa: fornisce, infatti, indicazioni utili

a capire qual è effettivamente la situazione nel panorama

italiano di settore.

Dalla retrocopertina “Internet è il più misurabile

dei media, tuttavia la mancanza di metriche condivise è

uno scoglio contro cui chi pianifica iniziative di marketing

attraverso i social media si scontra quotidianamente.

Il pericolo è quello di utilizzare in modo scorretto gli indicatori,

come il tanto mitizzato ROI (Return On Investment), o di finire

per collezionare una serie di dati numerici che si rivelano

vuoti, perché privi del contesto di riferimento, oltre che spesso

incomprensibili per decisori aziendali con poca familiarità con

la Rete. Questo libro cerca di mettere a fuoco alcuni punti

fermi: a partire dalla diffusione dei social media in Italia, fino

agli strumenti e le soluzioni per strutturare programmi di

attività coerenti con le strategie di marketing e con le funzioni

aziendali. La misurazione di obiettivi e risultati diventa così

il grimaldello per scardinare preconcetti superficiali sull’uso

dei social media, la bussola per migliorare il lavoro quotidiano

all’interno dell’azienda, la guida per immaginare il percorso

che porterà fan e follower a diventare consumatori soddisfatti

e, magari, sostenitori fedeli del brand”.

I social network sono luoghi di connessione e conversazione.

scenari

54

DICEMBRE 2012

L’evoluzione dei sistemi software a supporto della gestione

aziendale rappresenta la fase finale di un processo di

cambiamento dell’azienda che è prima di tutto culturale.

L’impresa che oggi decide di sostituire il proprio sistema

informativo sa di dover ripensare profondamente le proprie

logiche di amministrazione partendo da un’analisi critica dei

processi interni ed esterni, delle problematiche organizzative,

dei colli di bottiglia presenti. La scelta di tecnologie

e architetture adatte a supportare il passo evolutivo

rappresenta, quindi, solo l’ultimo atto di un rinnovamento che

inizia coinvolgendo la visione che l’azienda, nelle persone del

management, ha di sé, delle proprie capacità di gestione e

potenzialità di migliorare. Le capacità consulenziali che hanno

permesso al Gruppo Eurosystem Sistemarca di realizzare

Volere e avere un percorso non condizionato

Freeway® Skyline è uno stato culturale prima ancora di un prodotto: un insieme di pensieri,

processi, strategie, filosofia e tecnologia per migliorare l’efficienza e implementare il “valore” del fruitore.

La ricerca di un percorso non condizionato, per soluzioni aderenti all’identità della persona.

È l’uomo al centro dell’attenzione che crea le sue strade libere da vincoli e traccia il proprio profilo,

evidenziando i tratti del contorno che desidera. Perché si deve saper ascoltare e conoscere la

persona che si ha di fronte, prevederne i bisogni, capirne i tempi e rispondere alle sue indicazioni.

Tutto questo è Freeway® Skyline.

STRADE LIBERE DI CREARSI

ALESSIO VOLTAREL [email protected]

55

spazio a y

il proprio prodotto ERP (Enterprise Resource Planning)

Freeway® Skyline si basano, quindi, su fondamenta che

hanno una natura concettuale e metodologica prima ancora

che architetturale e tecnologica, perché non esiste vera

innovazione tecnologica che non sia guidata dall’evoluzione

delle idee.

La realizzazione di un progetto software a supporto del

rinnovamento di un’azienda e della componente IT in essa

impiegata deve attingere dal bagaglio di conoscenze e

metodologie orientate al Business Process Management, un

metodo di analisi che permette di comprendere e analizzare

i processi aziendali, evidenziarne criticità, ridisegnarli in

ottica di aumento della loro efficacia ed efficienza (Vision & Methodology). Una volta nato, il processo di evoluzione

culturale dell’azienda si estende inevitabilmente ai sistemi

tecnologici in grado di rendere il cambiamento concreto ed

effettivo.

Per sostenere efficacemente i processi rinnovati, il

software deve evolvere nella sua concezione e dotarsi di

un’architettura e una progettazione adeguate a supportare

l’automazione dei modelli di business individuati (Software Architecture & Design).

E questo non è possibile senza una specifica tecnologia di

base che permetta la realizzazione software dei processi

aziendali e dei servizi che li sorreggono per mezzo di un

sistema integrato e in grado di guidare gli utenti nello

svolgimento delle sequenze di attività previste (Infrastructure & Technology).

Visione, Progettazione e Tecnologia: mettendo insieme

questi tre ingredienti, il Gruppo Eurosystem Sistemarca, si

fa portatore di un concetto di innovazione più ampio, che

guarda alla tecnologia come mezzo, più che come fine, del

rinnovamento.

56

Un passaggio fondamentale nell’evoluzione culturale delle

aziende è riconoscere la necessità di analizzare i processi

aziendali per recuperare effi cienza e controllo, aumentare

le proprie capacità di business e di competere. La chiave di

volta per perseguire questi obiettivi è affrontare l’analisi di tali

scenari ricorrendo a competenze e metodologie orientate al

Business Process Management (BPM).

Le problematiche in gioco sono essenzialmente due.

Da un parte, le aziende sono spesso affl itte, a volte

inconsapevolmente, da problemi di processo. I fl ussi di lavoro

spesso non sono documentati, né all’interno dell’azienda,

tra i vari reparti o divisioni, né tra aziende del gruppo o con i

soggetti esterni (terzisti, fornitori, clienti, enti). Gli uffi ci o reparti

organizzano il lavoro in modo scoordinato, personale, con

supporti extra-sistema (fogli Excel). Dall’altra, le aziende vivono

tensioni contrapposte: il continuo cambiamento delle esigenze

di business dovuto alla variabilità delle richieste di mercato o di

riorganizzazione interna e i vincoli “immutabili” di fabbrica, delle

linee produttive, della gestione logistica o di altro.

Come conciliare le due tensioni? Per rispondere è necessario rifl ettere sulla natura dei processi aziendali.

Per loro natura, i processi aziendali attraversano l’azienda

letteralmente da parte a parte. Sono costituiti da sequenze ordinate di attività che investono reparti, uffi ci e mansioni;

coinvolgono utenti e sistemi in modo trasversale rispetto al

tradizionale organigramma dell’azienda.

Le aziende, soddisfatte le esigenze di base coperte oramai da

qualsiasi ERP, hanno bisogno di affrontare le problematiche

di processo (innanzitutto interne, ma non solo), riconoscendo

che vi sono ampi margini di miglioramento e di recupero di

effi cienza proprio guardando ai processi.

È inevitabile quindi che il rinnovamento delle aziende (e quindi dell’IT in esse impiegato) passi proprio attraverso la revisione dei propri processi.

Come risolvere allora i problemi di processo? Esplicitare i fl ussi di lavoro, con una modellazione aderente alle

problematiche di alto livello dell’azienda costituisce un buon inizio.

È poi necessario che in uffi ci e reparti il lavoro dei sistemi e delle persone sia coordinato e supportato da un sistema integrato. In questo modo si conciliano tensioni contrapposte.

Le esigenze di business cambiano, i processi sono per loro

natura mutevoli, le singole attività da svolgere meno, sono

più stabili e riproducibili in processi diversi. Si introduce un

disaccoppiamento tra ambito di processo e responsabilità dei

servizi aziendali, creando due livelli che possono evolvere con

due “velocità” diverse: i processi cambiano più frequentemente,

i servizi sono più “stazionari”, sono riutilizzabili in diversi

processi contemporaneamente, segregano in sé i vincoli

inamovibili.

A cosa serve quindi una metodologia di analisi per processi?

Lo stile di management che dà alla propria azienda

un’architettura di processo diventa il fulcro del cambiamento

per affrontare la competizione. Analizzare questi scenari

necessita di competenze e metodologie orientate al Business Process Management, che portino alla luce i difetti dei

processi attuali, per disegnare quelli che l’azienda si darà

nel futuro, dati gli obiettivi di business che si prefi gge

di raggiungere. L’analisi per processi diventa anche un

orientamento fondamentale nei progetti software. Questo

perché il rinnovamento delle aziende (e quindi dell’IT in esse

impiegato) passa attraverso la revisione dei propri processi;

le aziende, guardando ai processi, hanno ampi margini di

miglioramento e recupero di effi cienza all’interno e nelle

relazioni esterne; l’analisi BPM permette di modellare al

più alto livello di astrazione le attività e le entità presenti nei

processi.

Ma una automazione effi cace ed effi ciente dei processi

può essere realizzata solo attraverso un adeguato supporto

architetturale del software.

BUSINESSPROCESSBUSINESSBUSINESSMANAGEMENTPROCESSPROCESS

VISION & METHODOLOGY

DICEMBRE 2012

57

L’evoluzione culturale è accompagnata dall’evoluzione dei

sistemi software a supporto del cambiamento nelle aziende,

nel segno di una rinnovata gestione che mette al centro i propri

processi di business. Nel software c’è bisogno di un supporto

architetturale adeguato a sostenere l’automazione dei processi.

Una leva è la Service Oriented Architecture (SOA), un’altra è la

capacità di eseguire i processi a sistema.

L’automazione dei processi. Per sostenere i processi, il

software deve evolvere nella sua concezione, avere un ruolo

proattivo nei confronti delle utenze aziendali, nel riconoscimento

dei rispettivi ruoli e dei compiti da essi svolti quando coinvolti

nei processi. Il sistema deve essere in grado di dare supporto

allo svolgimento degli human workfl ow, sequenze coordinate di

attività svolte dall’uomo e di compiti svolti dal sistema. L’attività degli utenti nei processi dell’azienda è supportata dal

ruolo attivo del sistema informatico che, eseguendo il fl usso,

controlla, guida, svolge compiti di automazione, affi da attività

agli utenti, lasciando loro liberi di occuparsi dei più importanti

compiti decisionali, creativi, di ideazione. Ciò costituisce un

grande passo avanti nella produttività e nell’esperienza vissuta

nell’impiego del sistema informativo, in altre parole è un grande

contributo alla User eXperience.

L’architettura software a servizi (SOA). Il linguaggio

dei processi parla di concetti di business rilevanti, entità

e problematiche di “prim’ordine” della realtà aziendale. Si

intendono in tal senso le attività dell’utente o del sistema che

riguardano, ad esempio, clienti, listini, fornitori, prodotti, materie

prime, distinte materiali, cicli di lavorazione, ordini, fatture,

spedizioni e così via. La Service Oriented Architecture (SOA)

diventa parte del DNA di un sistema informatico che supporti

effi cacemente la realizzazione dei processi. Esso viene concepito

come scomposto in servizi guidati dalle orchestrazioni che

hanno luogo, “incarnando” così il BPM aziendale nel sistema

informatico. Tali servizi hanno un’interfaccia e svolgono compiti

di business di elevato profi lo.

Si delinea una ripartizione del sistema in due importanti livelli

di astrazione, dal punto di vista della business logic entrambi

elevati, ma ben distinti concettualmente: quello superiore nel

quale si colloca la logica di workfl ow, cioè l’implementazione

di un processo aziendale, e quello dei servizi che i workfl ow

utilizzano. Nella modellazione del software quindi la vera sfi da è progettare servizi effi caci al punto da essere riutilizzati

in contesti di processo differenti. Questo perché i processi

cambiano spesso mentre i servizi di base sono piuttosto

invarianti.

Si pensi ad esempio a un servizio di progettazione di un

articolo: tutte le aziende possono avere analogamente bisogno

di un servizio di questo tipo, mentre molto diversi possono

essere le logiche di processo che li utilizzano. Ad esempio,

un preventivo di vendita può essere confermato direttamente

in ordine oppure andare in approvazione a un responsabile

a seconda del valore; l’ordine di vendita può considerarsi da

spedire se è stato versato un acconto del 30% dal cliente e se

mancano tre giorni alla data di richiesta consegna e così via.

SOA è un supporto effi cace anche per la collaborazione tra software eterogenei. SOA viene preferibilmente impiegata anche nell’ambito dell’integrazione di software eterogenei. Aderire ad un unico linguaggio di business con cui i servizi

espongono le funzionalità mediante le proprie interfacce,

consente di creare un livello omogeneo a disposizione dei

processi, nonostante l’implementazione dei servizi sia realizzata

su sistemi software molto eterogenei. Si pensi ad esempio

all’integrazione tra un gestionale ERP e un sistema CAD di

progettazione grafi ca di ordini cliente. Schieramenti di servizi

che parlano lo stesso linguaggio di business, implementati

ciascuno sui due sistemi, rendono le peculiarità di ciascuno

segregate, nascoste, trascurabili. Lo scenario architetturale

come quello visto, ha bisogno di un supporto infrastrutturale e tecnologico coerente.

spazio a y

SERVICEORIENTEDSERVICESERVICEARCHITECTUREORIENTEDORIENTED

SOFTWARE ARCHITECTURE & DESIGN

58

DICEMBRE 2012

La realizzazione software dei processi aziendali e il

coinvolgimento attivo degli utenti nello svolgimento di attività

guidate dal sistema richiedono infrastrutture e tecnologie

software apposite. Gli “ingredienti” a supporto sono l’ambiente

di esecuzione dei workfl ow, il service bus, la working list.

Il motore di workfl ow. SOA è particolarmente adatto ad

essere impiegato dai motori di workfl ow o di orchestrazione, in analogia alla conduzione di un’orchestra che ottiene

il perfetto coordinamento dei “pezzi” coinvolti. Il sistema

deve poter eseguire i workfl ow che “incarnano” i processi

aziendali, le cui istanze possono essere in esecuzione

contemporaneamente.

Si pensi alla quantità di azioni, documenti e attività che

scaturiscono alla ricezione di una conferma d’ordine cliente a

seguito di un preventivo. Per quei cliente e ordine, ha inizio una

serie di attività che porteranno alla progettazione, produzione,

spedizione e fatturazione del bene ordinato. Con centinaia di

ordini al giorno che vengono confermati prendono vita istanze

distinte di fl usso, ciascuna con il proprio stato di avanzamento,

i momenti di attesa che un utente o il sistema svolgano un

compito, quindi di sblocco per eseguire il passo successivo.

Un motore di workfl ow può avanzare un numero virtualmente

infi nito di istanze diverse di uno stesso processo o di processi

diversi; di richiedere al sistema di svolgere attività interpellando

gli appositi servizi SOA; di richiedere agli utenti di diversi ruoli

che svolgano le dovute attività, di attendere il loro compimento

per proseguire nei passi successivi.

Altri “partner” fondamentali del motore di workfl ow sono

l’infrastruttura di service bus e la working list degli utenti.

Il service bus. È la dorsale di comunicazione nel sistema

alla quale i servizi e i workfl ow affi dano l’instradamento e la

consegna delle richieste, e dalla quale attendono le risposte.

È anche il meccanismo di confi gurazione della topologia di

collaborazione dei servizi, in modo tale che i workfl ow o i servizi

che utilizzano altri servizi non debbano conoscere dove si trovi

materialmente in esecuzione un determinato destinatario di

richiesta. Questa visione a “instradamento” unico che offre

il service bus, insieme ai concetti di elevata granularità di

business con cui i servizi si offrono nell’architettura SOA,

allontana dal rischio di aderire a una ottica semplicistica e

scorretta di “replicazione dati” tra applicazioni in peer-to-

peer (mittente e destinatario che si contattano direttamente).

Questo vale ancor di più nello scenario di integrazione fra

sistemi software diversi, consegnando un doppio benefi cio

di elevazione nella visione dei problemi: dal peer-to-peer

all’orchestrazione; dalla replicazione “dati” allo scambio di “entità”.

La working list. È dove gli utenti vedono le notifi che e le

attività da svolgere veicolati loro dai fl ussi eseguiti dal motore di

workfl ow. Ogni utente, mediante il portale del sistema oppure

su dispositivi mobili, ha a disposizione uno o più “luoghi”

interattivi nei quali i workfl ow “spediscono” le notifi che o le

attività da svolgere. Poiché nelle aziende ogni utente riveste uno

o più ruoli, il sistema interattivo e le interfacce sui dispositivi

sono opportunamente declinate alle mansioni dell’utente, in

termini di funzionalità e informazioni accessibili.

La working list è un denominatore comune a tutti gli utenti,

la differenziazione in base al ruolo in questo caso avviene nei

possibili workfl ow in cui un determinato utente può essere

coinvolto e quindi al tipo delle attività che vede elencarsi nella

propria working list. La working list dà all’utente una visione

per tipologia di attività, per priorità, per scadenza o altri criteri

che l’utente stesso può defi nire. Mediante un click l’utente può

visionare i dettagli di una notifi ca o aprire un’attività, svolgerla

con l’opportuna applicazione software, alla sua conclusione

l’esito viene restituito al workfl ow in attesa affi nché possa

sbloccarsi e avanzare. L’elenco delle notifi che e delle attività

devono poter raggiungere gli utenti su qualsiasi piattaforma,

anche su tablet o mobile phone. Il modo di offrirla e le

caratteristiche dei dispositivi impattano signifi cativamente con

l’esperienza che l’utente ha, a ribadire che anche il mondo

dei workfl ow costituisce un ambito importante della user

eXperience (UX).

WORKFLOWUSERWORKWORKEXPERIENCEUSERUSER

INFRASTRUCTURE & TECHNOLOGY

60

DICEMBRE 2012

Nomisma S.p.A. è uno dei principali istituti privati di ricerca economica a livello nazionale ed europeo.

Fondata a Bologna nel 1981 per iniziativa di Nerio Nesi e Francesco Bignardi con il sostegno di Romano

Prodi che ebbe il compito di organizzare scientifi camente il lavoro di ricerca, Nomisma è da più di 30

anni un osservatorio locale, nazionale ed internazionale sui fenomeni economici di assoluto prestigio.

AUTOMAZIONE DEI PROCESSI PER UNA NUOVA INTERAZIONE

Sessanta ricercatori, un’estesa rete di partner nazionali ed

internazionali ed una visione interdisciplinare dell’economia

supportata da competenze specifi che ed esclusive in

numerosi settori, dall’agricoltura e dall’alimentare, alle

politiche industriali e dello sviluppo del territorio, ai mercati

immobiliari e del real estate, ai servizi pubblici locali e

dell’energia. Tutto questo fa di Nomisma un’azienda di servizi

di elevato valore, che si avvale di modelli, professionalità e

strumenti di analisi per osservare i fatti dell’economia reale

e offrire consulenza decisionale alla politica economica e

industriale.

Un approccio trasversale e allo stesso tempo specializzato,

sostenuto da un apparato di ricerca articolato: per mantenere

elevati gli standard di progetto Nomisma necessitava di

semplifi care e automatizzare i processi interni, migliorandoli

in termini di effi cacia ed effi cienza. Anche a questo fi ne,

nell’anno 2006, l’azienda aveva implementato un sistema

di gestione per la qualità ai sensi della norma ISO 9001,

uno strumento di pianifi cazione e controllo delle procedure

lavorative volto al miglioramento dell’organizzazione

aziendale.

“Ma il sistema di gestione per la qualità – spiega Giorgio

Cottafavi, responsabile amministrativo dell’istituto – non

aveva risolto del tutto i nostri problemi. Veniva, infatti, gestito

L’innovazione aziendale che passa dall’IT

61

in modo decentrato nei vari gruppi di ricerca utilizzando

strumenti cartacei ed elettronici diversi e, anzi, aveva fatto

nascere l’esigenza di una maggiore sinergia fra i diversi

ambiti aziendali”. “Per questo motivo – aggiunge Francesco

Masi, responsabile tecnologie e servizi informativi – nel 2009,

in controtendenza rispetto al momento di crisi, fu deciso di

investire in un nuovo sistema informativo che, mantenendo

centrale il sistema di gestione per la qualità, permettesse

di raggiungere due obiettivi: automatizzare la gestione dei

processi core dell’azienda, ossia i progetti di ricerca; e

innovare la gestione e la condivisione delle informazioni tra

le risorse interne al fi ne di ottimizzare l’organizzazione del

lavoro”.

La soluzione al problema è stata trovata dopo diverse

ricerche sostituendo il loro vecchio sistema informativo, di

tipo anagrafi co e basato su tecnologie eterogenee, con la

soluzione Freeway® Skyline di Eurosystem, un software

unico che da una parte ha valorizzato i fl ussi di lavoro,

automatizzandoli, e dall’altra ha saputo integrare le diverse

banche dati Nomisma, centralizzando le informazioni.

Il rinnovo del sistema informativo si è realizzato attraverso

5 step fondamentali: modellazione dei processi principali,

progettazione del Portale Servizi come unico canale

informativo dell’azienda, confi gurazione di un modello di

controllo di gestione dei progetti, implementazione di un

avanzato sistema di archiviazione documentale e di un

sistema di reportistica di Business Intelligence.

Nella fase iniziale di progetto, è stata effettuata un’analisi

fi nalizzata a comprendere i processi precedentemente

formalizzati dal sistema qualità, individuare possibili

miglioramenti in termini di effi cienza e di effi cacia,

comprendere i reali bisogni degli attori coinvolti. Grazie

all’implementazione di una metodologia di Business Process

Management, Eurosystem ha modellato i 5 processi di

business fondamentali per Nomisma, ossia la realizzazione

di bandi, offerte a mercato, programmi di iniziativa interni,

commesse di progetto, proposte di conferimento incarico.

La progettazione dei diagrammi di fl usso e l’ingegnerizzazione

di alcune fasi chiave dei processi ha avuto ricadute positive

sia in termini di maggiore consapevolezza interna sui

metodi di lavoro sia in termini di risparmio di tempo per

le risorse impiegate in essi. Con l’implementazione di

stories

62

DICEMBRE 2012

Freeway® Workfl ow Server, infatti, i processi sono oggi

gestiti e monitorati da un sistema automatico che dirige e

verifi ca l’avanzamento degli stati di lavorazione, i livelli di

autorizzazione e di fi rma digitale dei documenti. A seguito

della analisi e modellazione, Eurosystem ha suggerito e

portato a termine la realizzazione di un Portale Servizi,

strumento integrato in Freeway® Skyline per l’archiviazione

e la consultazione di tutte le informazioni inerenti i progetti

di ricerca. Il Portale Servizi ha risposto ad una richiesta

ben precisa: una tecnologia che consentisse di accedere

alle informazioni gestionali utilizzando come criteri l’area di

appartenenza dei progetti/ricerche e una profi lazione degli

utenti in base ai ruoli aziendali (ricercatori, capi progetto, capi

area, personale amministrativo, etc..).

Grazie ad esso, l’utente può, richiamando un progetto,

visualizzare la relativa offerta, il team di professionisti

coinvolti, la strutturazione del piano di progetto, il time sheet

delle ore lavorate, la contabilità di commessa (budget e

consuntivo), nonché i contratti associati, attivi e passivi, e

la loro fatturazione. Con l’implementazione di un avanzato

sistema di archiviazione documentale, anche i processi di

produzione e archiviazione di documenti cartacei sono stati

automatizzati e digitalizzati. Oltre alla documentazione della

Ricerca fi nale, prodotto e patrimonio di Nomisma, moltissimi

altri documenti possono essere oggi archiviati, in apposite

classi documentali, e richiamati direttamente dal Portale

Servizi. Il sistema è stato arricchito implementando Freeway®

Business Intelligence: un sistema di reportistica che

permette di consultare la grande mole di dati a disposizione

attraverso la predisposizione di report che vengono inviati

automaticamente ogni mese ai capi area.

Rinnovando il proprio sistema informativo, Nomisma ha

potuto mettere a fuoco i fl ussi di lavoro interni che la

caratterizzavano, capire quali erano le aree più problematiche

e implementare un metodo standard per gestire ogni fase di

processo secondo regole condivise e automatiche. Innovazione

dell’organizzazione che passa dall’IT, quindi, facendone

sempre la leva strategica di un’evoluzione più importante.

63

VMware, Inc. 3401 Hillview Avenue, Palo Alto, CA 94304 USA Tel 877-486-9273 Fax 650-427-5001 www.vmware.com VMware, Inc. Via Spadolini, 5 - Edificio A - 20141 Milano - Tel. (+39) 02 3041 2700 Fax: (+39) 02 3041 2701 www.vmware.itCopyright © 2011 VMware, Inc. Tutti i diritti sono riservati. Questo prodotto è protetto dalle leggi sul copyright vigenti negli Stati Uniti e in altri Paesi e da altre leggi sulla proprietà intellettuale. I prodotti VMware sono coperti da uno o più brevetti, come indicato nella pagina http://www.vmware.com/go/patents.

VMware è un marchio registrato o un marchio di VMware Inc. negli Stati Uniti e/o in altre giurisdizioni. Tutti gli altri marchi e nomi menzionati possono essere marchi delle rispettive società.

Risolvi con successo le problematiche IT più pressanti con le soluzioni di virtualizzazione VMware per le aziende in crescita. I vantaggi concreti iniziano qui.

Gestire le risorse IT di un’azienda in crescita non è mai stato facile. Oggi, di fronte all’erosione progressiva dei budget, a sistemi IT sempre più complessi e a utenti

La virtualizzazione, in grado di trasformare l’ambiente IT, è la risposta migliore a queste sfide. Scopri come rendere

semplificando la gestione IT, ottimizzando l’esperienza degli utenti e riacquistando visibilità e controllo sulle risorse.

Scopri i vantaggi concreti garantiti da VMware visitando www.vmware.com/go/realworld/IT

Risorse limitate. Utenti esigenti.Scadenze serrate. La virtualizzazione ti semplifica la vita.

informazione pubblicitaria

Storage scalabile, funzionalità di deduplica, integrazione completa per una protezione dei dati di nuova generazioneMigliaia di organizzazioni di tutto il mondo hanno

implementato ambienti operativi IBM i per gestire

le proprie applicazioni aziendali con elevati volumi

di transazioni.

Considerando i budget IT spesso ridotti, e data l’importanza

critica che rivestono i dati gestiti con sistemi operativi IBM

i, le aziende sono interessate a migliorare le operazioni

di backup ed eliminare i rischi di sicurezza associati alle

tradizionali strategie di protezione dei dati, contenendo

contemporaneamente i costi.

Oggi, gli utenti IBM i possono usufruire di tali vantaggi

operativi ed economici grazie a EMC Data Domain Virtual Tape Library per IBM i.

I sistemi EMC® Data Domain rappresentano una rivoluzione

continua nel mondo del backup su disco, dell’archiving e

del Disaster Recovery, grazie alla funzionalità di deduplica in

linea ad alta velocità, che riduce in media di 10-30 volte le

dimensioni dei dati di backup. Questo ha contribuito infatti

a rendere il backup su disco ancora più conveniente per la

conservazione on-site a lungo termine dei dati e ancora più

effi ciente per la replica in rete sui siti di disaster recovery.

I sistemi Data Domain sono in grado di offrire prestazioni

migliori grazie all’architettura SISLTM (Stream-Informed

Segment Layout): questo approccio incentrato sulla CPU

riduce al minimo il numero di spindle del disco richiesti

per raggiungere il throughput necessario ad eseguire

operazioni critiche a singolo fl usso. I sistemi archiviano una

sola volta ogni sequenza di dati univoca, consentendo una

conservazione su disco effi ciente per ripristini rapidi e affi dabili.

Così, la conservazione in sede e fuori sede può essere estesa

implementando la tecnologia basata su snapshot.

Inoltre, i sistemi Data Domain sono compatibili con tutte le

principali applicazioni di backup, si integrano facilmente con

le infrastrutture storage esistenti e supportano più metodi

simultanei di accesso ai dati: VTL su Fibre Channel, accesso

remoto NDMP su Ethernet per sistemi NAS (Network

Attached Storage), protocolli NFS e CIFS su Ethernet e EMC Data Domain Boost. La fl essibilità di implementazione e

la semplicità di amministrazione consentono di adattarsi

rapidamente ai cambiamenti delle esigenze aziendali.

L’integrazione con l’opzione software Data Domain Virtual

Tape Library per IBM i non richiede modifi che dell’ambiente

operativo esistente. È infatti suffi ciente collegarsi al sistema

Data Domain, direttamente o attraverso l’infrastruttura

SAN FC, affi nché il server consideri il sistema Data Domain

come una libreria a nastro fi sica. L’applicazione IBM Backup

Recovery and Media Services (BRMS) crea policy di backup

per proteggere i dati delle applicazioni, senza installare

componenti software aggiuntivi.

Il software EMC Data Domain Replicator consente di

replicare i dati in modo effi ciente sulle reti esistenti per il

Disaster Recovery o per il consolidamento di ambienti

aziendali distribuiti, ed elimina la necessità di gestire e

trasportare le cartucce dei nastri. Con DD Replicator, i

dati IBM i su nastri virtuali archiviati sul sistema EMC Data Domain possono essere replicati in modo effi ciente tramite

WAN. Solo i dati deduplicati vengono replicati sul sito di

destinazione, assicurando un’effi cienza della larghezza di

banda fi no al 99%. Dal momento che il processo di replica

Data Domain non utilizza risorse host IBM i, la replica può

essere eseguita in contemporanea al backup, garantendo la

massima tempestività di esecuzione del disaster recovery.

I dati su nastro virtuale deduplicati e compressi possono

essere crittografati.

I tape virtuali contenenti immagini di backup completi e

incrementali sono protetti grazie alla DIA (Data Invulnerability

Architecture). La ripristinabilità dei dati viene verifi cata al

momento del backup e ricontrollata continuamente, mentre il

RAID 6 con dual disk parity assicura ulteriore protezione dalla

perdita dei dati.

Gli amministratori possono così contare su una gestione

centralizzata. L’interfaccia intuitiva semplifi ca la confi gurazione

e la gestione continuativa dell’opzione VTL, e la confi gurazione

iniziale e gli aggiornamenti possono essere eseguiti per

più sistemi contemporaneamente al monitoraggio degli

stati dei sistemi e dello stato delle operazioni di sistema.

Infi ne, la creazione semplice e intuitiva di script, insieme al

monitoraggio SNMP, assicura una maggiore fl essibilità di

gestione.

65

Tra i notevoli disagi arrecati da un

importante aggravio delle procedure

di gestione dei rapporti di lavoro,

emergono dal testo di Legge alcune misure volte a favorire le aziende.

Uno dei pilastri della riforma di cui si

è più discusso è infatti la cosiddetta

“fl essibilità in entrata”, vale a dire la

possibilità per i lavoratori di accedere

ad un impiego e per i datori di far fronte

alle necessità che richiedano l’utilizzo

di nuovo personale senza troppi vincoli

di preavviso o durata. Proprio su queste

opportunità si concentrerà in modo

sintetico la nostra attenzione.

Contratto a-causale

Il più rilevante intervento in questo senso

è l’introduzione del contratto “a-causale”,

o in altre parole, del contratto di lavoro a termine per stipulare il quale non è necessario specifi care la causa:

è ora infatti possibile, con riguardo

ai contratti a tempo determinato e ai

contratti di somministrazione, che il

primo contratto stipulato non rechi una

causa giustifi catrice, a patto che la sua

durata non sia superiore ai 12 mesi. Tale

contratto non potrà essere prorogato.

Meno vantaggiosi sono invece

altri aspetti di questa nuova forma

contrattuale: è stata introdotta una

maggiorazione dei costi del lavoro

subordinato pari all’1,4% nel caso

di sottoscrizione di contratti a tempo

determinato, inoltre sono stati

incrementati i tempi di necessaria

sospensione tra la stipulazione di un

contratto a termine e l’altro (60 giorni

nel caso di contratto di durata inferiore

a 6 mesi, 90 giorni nel caso di contratto

di durata dai 6 mesi in su). Ciò posto,

è comunque da riscontrare in questa

nuova normativa una mano tesa nei

confronti dei datori di lavoro che

intendano assumere manodopera per

sopperire a necessità temporanee.

Lavoro accessorio

Un altro rilevante intervento della riforma

inteso ad agevolare la fl essibilità in entrata si è avuto con riguardo alla disciplina del lavoro occasionale accessorio, da non confondere con

le prestazioni occasionali a ritenuta

d’acconto. In passato tale forma di

rapporto di lavoro, già di per sé di

natura fl essibile, sopportava il peso di

vincoli che ne limitavano la fruibilità: tali

vincoli erano di natura soggettiva (con

riguardo all’età del lavoratore assunto)

e oggettiva (con riguardo al tipo di

attività per cui a tale forma di rapporto

era possibile ricorrere). Con l’intervento

della riforma tali vincoli sono stati rimossi, rendendo il lavoro accessorio

sempre attivabile a prescindere

dalle caratteristiche dei prestatori

o dall’attività. L’unico limite posto è

economico e attiene al tetto di 5.000 €

per i compensi percepibili entro l’anno

dalla totalità dei committenti (un tetto

più specifi co è posto per le prestazioni

a favore di un singolo committente, le

quali non possono determinare compensi

superiori a 2.000 €).

Apprendistato

A favorire l’accesso al mondo del lavoro

è rivolto anche l’intervento della riforma

in tema di apprendistato, materia

già fatta oggetto di disciplina da un

decreto legislativo del settembre 2011.

La riforma è intervenuta modifi cando

alcuni punti della normativa previgente,

menzioniamo ad esempio:

contrattazione collettiva e dagli accordi

interconfederali di individuare durate minime non inferiori a sei mesi;

mancata qualifi ca, obbligo

di applicazione della regolamentazione

dell’apprendistato durante il periodo di

preavviso;

2013 del numero di apprendisti che

possono essere, allo stesso tempo,

alle dipendenze dello stesso datore di

lavoro (il quale, se ha alle dipendenze più di 10 lavoratori, potrà assumere apprendisti fi no ad un rapporto di 3 a 2 con le maestranze qualifi cate, per le aziende fi no a 10 lavoratori resta

confermato il rapporto 1 a 1).

ScenariRiforma Fornero: Novità importanti ma circoscritte per la fl essibilità “positiva”

Dal 18 luglio 2012 le aziende italiane si stanno adeguando al nuovo mercato del lavoro ispirato dalla Legge 92/2012, cosiddetta “riforma Fornero”, che imposta un ordinamento lavoristico fondato su temi imprescindibili quali: fl essibilità in entrata, fl essibilità in uscita ed ammortizzatori sociali.

RICCARDO GIROTTO

66

DICEMBRE 2012

In generale tali modifi che hanno

ricondotto a un’unica fattispecie

impositiva, le cessioni di immobili di

ogni categoria effettuate da qualunque

soggetto passivo e verso qualunque

tipologia di soggetto cessionario. Tale

fattispecie si concretizza nell’esenzione IVA, ex. art. 10 D.P.R. 633/72, ferma

restando la possibilità per il cedente di

optare per l’imponibilità all’atto della

cessione. Unica eccezione riguarda

le cessioni di fabbricati da parte di

imprese di costruzione o ristrutturazione

effettuate entro cinque anni

dall’ultimazione dei lavori per le quali è

rimasto l’obbligo di assoggettare ad IVA il

corrispettivo.

Nell’attuale quadro normativo risultano,

pertanto, eliminate alcune fattispecie di imponibilità obbligatoria, prima fra tutte quella relativa alle cessioni di immobili strumentali per natura effettuate verso soggetti privati. Ecco dunque che una vasta platea di soggetti potrà trarne indubbi vantaggi economici: pensiamo al

caso più comune del professionista o dell’imprenditore individuale che decidesse di “estromettere” l’immobile strumentale utilizzato nell’attività per destinarlo alla sfera privata. Entrando nel vivo delle disposizioni

normative, si deve rilevare che

generalmente le operazioni di

autoconsumo o di destinazione dei beni

d’impresa a fi nalità estranee all’esercizio

dell’attività si considerano assimilate alle

cessioni a titolo oneroso ex art. 2, co. 2

n. 5 D.P.R. 633/1972 e comportano,

pertanto, l’emissione di un’autofattura

imponibile ad IVA, la quale rappresenta

un costo secco per l’estromissione. La norma continua a valere naturalmente

per la generalità dei beni ma, per

effetto della nuova formulazione

dell’art. 10, co. 8-ter D.P.R. 633/1972, non attrae più l’autoconsumo del fabbricato strumentale per natura posseduto in regime di impresa, arte o professione. Un’opportunità senz’altro interessante

per le imprese costituite in forma societaria che intendessero assegnare ai soci i fabbricati strumentali posseduti, sia che tale operazione

rappresenti una scelta volontaria che

“obbligata”: quest’ultima nel caso di

imprese in fase liquidatoria che abbiano

riscontrato diffi coltà nella dismissione

dell’attivo, o di altre che si trovino nelle

condizioni di dover valutare la defi nitiva

cessazione dell’attività, fattispecie

tutt’altro che rara in questa critica fase

economico-fi nanziaria.

Naturalmente la convenienza

dell’operazione deve essere valutata

tenendo conto dell’eventuale obbligo di

rettifi ca della detrazione iva per effetto

della variazione del prorata (salvo che

la cessione rappresenti un’operazione

“occasionale”) o di rettifi ca dell’iva detratta sull’acquisto o costruzione

dell’immobile, qualora la successiva

rivendita venga attuata entro un

decennio (artt. 19, co. 5 e 19-bis DPR

633/1972).

Per quanto concerne, infi ne, gli aspetti reddituali della cessione dell’immobile

strumentale per natura, premesso che

anche nelle ipotesi di autoconsumo

il corrispettivo di vendita costituisce

sempre un ricavo o genera una plusvalenza (o minusvalenza), è

possibile valutare alcune interessanti

eccezioni.

In primo luogo ci si riferisce alle

plusvalenze generate dalla vendita o l’estromissione dell’immobile da parte del professionista, in seconda

battuta ci si riferisce a tutti gli immobili strumentali per natura per i quali sia stata effettuata la rivalutazione ai sensi del D.L. n. 185/2008, operazione

questa che assumerà effi cacia a partire

dall’1.1.2014.

Concludiamo dunque illustrando in

termini numerici alcuni esempi.

D.L. Crescita Opportunità nelle cessioni o assegnazioni di immobili strumentali

Le modifi che alla disciplina IVA sulle cessioni di fabbricati introdotte dal D.L. n. 83/2012 in vigore dal 26 giugno offrono interessanti opportunità in campo immobiliare, in speciale modo per quanto concerne la cessione di immobili strumentali.

RUGGERO PAOLO ORTICA

67

Scenari

caso 3Professionista che “estromette” l’immobile strumentale in esenzione IVA. Costo dell’operazione:

Imposta Ipotecarie

e catastali

Imposta

di registro

Rettifi ca IVA (nel caso

di immobile acquisito o

terminato entro il 2002)

Imposte sui redditi

(in caso di acquisizione dell’immobile

in periodo non rientrante nel triennio

2007-2009)

zero zero zerozero

caso 1Società (non immobiliare) che cede o assegna gli immobili strumentali posseduti ai propri soci in esenzione IVA. Costo dell’operazione:

Imposta Ipotecarie

e catastali

Imposta

di registro

Rettifi ca IVA (nel caso

di immobile acquisito o

terminato entro il 2002)

Imposte sui redditi (in caso di

precedente rivalutazione ad un valore

superiore a quello di cessione o

assegnazione a partire dall’1.1.2014)

4 % zero zero168 €

caso 2Imprenditore individuale che “estromette” l’immobile strumentale in esenzione IVA. Costo dell’operazione:

Imposta Ipotecarie

e catastali

Imposta

di registro

Rettifi ca IVA (nel caso

di immobile acquisito o

terminato entro il 2002)

Imposte sui redditi (in caso di

precedente rivalutazione ad un valore

superiore a quello di cessione o

assegnazione a partire dall’1.1.2014)

zero zero zerozero

GRUPPO EUROSYSTEMSISTEMARCA e BEGHELLIpartner per il risparmioenergeticoLa sede del Gruppo Eurosystem Sistemarcasi rinnova, grazie all’utilizzo di corpi illuminantia basso consumo Beghelli.Una partnership all’insegna della green economye del risparmio energetico quella avviata tra Gruppo Eurosystem Sistemarca e Beghelli,gruppo bolognese punto di riferimento nelcomparto dell’illuminazione d’emergenza,a risparmio energetico e dei sistemi elettroniciper la sicurezza.

L’azienda ha deciso di aderire a questa iniziativa proposta dal

suo installatore di fi ducia LA2R ELETTROIMPIANTI – BEGHELLI

POINT di zona (di Dosson di Casier – Treviso).

La collaborazione ha portato alla sostituzione a costo zero

della lampade installate presso la sede del Gruppo Eurosystem

Sistemarca con 145 corpi illuminanti Beghelli, capaci

di garantire un notevole risparmio in termini di consumi e,

conseguentemente, di investimento economico.

Le lampade Beghelli, già nei primi mesi di installazione

(curata dal Beghelli Point La2R), hanno generato infatti

un risparmio di 3.390,85 kW/h, pari al 67,75% dei consumi

registrati precedentemente, con una riduzione di 8.568 kg

di CO2 all’anno.

Questa iniziativa si inserisce nell’ambito del progetto

“Un Mondo Di Luce a costo zero Beghelli”, un nuovo

modo di proporre, con formula “chiavi in mano”, gli impianti

di illuminazione ad aziende ed enti pubblici, coniugando una

tecnologia d’avanguardia con il concetto di servizio integrato,

già largamente diffuso in altri settori.

Questa soluzione garantisce un minore impatto

ambientale rispetto a sistemi di illuminazione tradizionale

ma anche un risparmio effettivo, immediato e misurabile,

sulle spese per l’energia elettrica.

Un progetto, quindi, dalla duplice valenza: economica e

ambientale.

informazione pubblicitaria

6969

70

DICEMBRE 2012

Cosa signifi ca essere un commerciale in un’azienda di information technology?G. Mussi: “Fare il commerciale, in questo ambito, signifi ca

prendersi la responsabilità di contribuire al successo della

società cui apparteniamo. Ci vuole una forte predisposizione

ai rapporti umani, disponibilità a confrontarsi ogni giorno e

spirito di adattamento a situazioni sempre diverse. Conta

avere una forte ambizione nel raggiungimento dell’obiettivo di

vendita”.

Rispetto a quando avete iniziato questa carriera, quali sono le differenze nella metodologia di lavoro?F. Pellizzari: “La più evidente differenza è che, negli anni

passati, l’agente commerciale operante nel settore dell’IT

era un portatore di innovazione e di nuovi modi di concepire

l’ambito aziendale. La prima informatizzazione, infatti, ha

trasformato completamente le metodologie di lavoro. Con

il passare del tempo, invece, le aziende hanno avuto modo

di confrontare autonomamente le diverse soluzioni offerte

dal mercato. Si è arrivati a una sorta di banalizzazione della

soluzione informatica, ma non è così perché ancora oggi

il prodotto tecnologico è e deve essere lo strumento di un

cambiamento più profondo dell’azienda e non l’origine di

questo stesso cambiamento”.

Qual è la peculiarità del vostro esercitare? M. Cavagna: “Nel fare il nostro lavoro, noi rappresentiamo

la nostra azienda, perciò, necessariamente, dobbiamo

acquistare credibilità e fi ducia nei clienti. Ciò che deve

trasparire, durante una trattativa, è la nostra disponibilità.

Dobbiamo porre molte domande e saper ascoltare per

comprendere appieno le problematiche della clientela, al fi ne

di poterle fornire la soluzione più effi cace”.

Nel mercato dell’Information Technology è più attrattivo e funzionale un prodotto standardizzato o un prodotto prettamente fl essibile?L. Piovesan: “Dobbiamo distinguere le soluzioni infrastrutturali

da quella gestionali. Per la parte software gestionale, infatti,

è indispensabile fornire una sistema personalizzabile che sia

disegnato sulla base dei modelli organizzativi dell’azienda,

mentre per quella hardware non è sempre necessario. In

entrambi i casi, tendiamo a progettare e realizzare una

soluzione su misura delle esigenze del cliente”.

LAVORARE CON IT E ICTQuesta rubrica è stata pensata per dare spazio alla voce delle persone che vivono e operano in questo “mondo”

ELEONORA BIRAL [email protected]

71

Aggiornamento continuo e condivisione delle informazioni con il reparto tecnico: quanto contano?G. Guerrato: “Per quanto concerne l’aggiornamento, è molto

importante conoscere il mercato e cosa offre. Certo, la nostra

conoscenza tecnica del prodotto ha un limite, oltre il quale

si inseriscono le fi gure del reparto tecnico. Ciò che conta è

sapere che questi prodotti esistono e che tipo di innovazione

possono portare. Con loro abbiamo un rapporto quasi

empatico e questa sinergia valorizza le nostre competenze

commerciali”.

Cosa rappresenta, per una donna, lavorare all’interno del mercato dell’Information Technology?D. Darè: “Qualche anno fa, il settore dell’IT era un ambito

prettamente maschile. Anche nei corsi di formazione c’erano

poche donne. È un campo che è stato scoperto e cavalcato

dapprima da soli uomini ma, piano piano, anche noi donne

ci siamo ricavate il nostro spazio. È cambiato l’approccio a

questo mondo dell’IT, e per noi donne è diventato un settore

affascinante. Il bello dell’IT è quello di essere in continua

evoluzione”.

Cosa chiedono in più, negli ultimi tempi, i clienti? Cos’è il vantaggio per loro?G. Parini: “I clienti, in genere, vogliono risparmiare. Sono alla

ricerca di soluzioni IT che permettano loro di spendere sempre

meno, guadagnando di più. Ogni azienda Cliente presenta

delle problematiche diverse, di gestione o infrastrutturali,

spesso molto variabili e per le quali richiedono delle soluzioni

complesse: quello che noi facciamo è individuare il sistema

giusto che li aiuti a lavorare più facilmente e nel contempo

ad ottenere una reale riduzione dei costi. Questo per il cliente

rappresenta un enorme vantaggio”.

Quali sono le prospettive future del mercato dell’IT?F. Pellizzari: “È un mercato sicuramente molto infl azionato e

vede la presenza, da qualche anno, di moltissimi protagonisti

al suo interno con un’offerta di soluzioni sempre più ampia.

Il cambiamento del mercato ha modifi cato il valore

dell’elemento IT nelle aziende e la tecnologia dall’essere

fattore indispensabile è diventata semplicemente utile.

Questo per noi signifi ca andare alla ricerca di quel valore

aggiunto. E di solito è un vantaggio immateriale, legato,

più che al prodotto in sé, alla sua capacità di supportare

evoluzioni aziendali come riorganizzazioni interne,

accorpamenti, rinnovamenti. Si tratta di una sfi da sempre

più grande: cogliere nelle richieste del cliente, il benefi cio

immateriale che lo stesso sta cercando in una sistema

estremamente concreto, come può essere un prodotto IT”.

Gli intervistati in ordine: Domenica Darè, commerciale per l’infrastruttura IT da 20 anni nel

Gruppo Eurosystem Sistemarca, Franco Pellizzari, commerciale per l’infrastruttura IT da 6 anni nel Gruppo, Luca Piovesan, commerciale per l’infrastruttura IT da 22 anni nel Gruppo, Giuseppe Mussi, commerciale per gestionale Freeway® Skyline da 22 anni nel Grupp, Marino Cavagna, commerciale per gestionale Freeway® Skyline da 12 anni nel Gruppo, Giovanni Guerrato, commerciale per l’infrastruttura IT da 7 anni, Giacomo Parini, commerciale per l’infrastruttura IT da 1 anno nel Gruppo

“Ci vuole una forte

predisposizione

ai rapporti umani,

disponibilità a confrontarsi

ogni giorno

e spirito di adattamento

a situazioni sempre diverse”

conosciamoci

STILE LIBERO

72

DICEMBRE 2012

La medicina del lavoro e, più in genere, tutto l’ambito

della prevenzione e della sicurezza sul lavoro negli ultimi

due decenni sono radicalmente cambiati, soprattutto per

quanto concerne i contenuti della sorveglianza sanitaria

che il medico competente deve attuare sul posto di lavoro.

I cosiddetti rischi lavorativi tradizionali, legati soprattutto ad

esposizione a rumore o a polveri nocive o a fi bre, sono di

gran lunga passati in secondo piano perché in gran parte

abbattuti, e l’attenzione attualmente si è spostata sui rischi

da sovraccarico biomeccanico delle strutture muscolo

scheletriche e sui rischi emergenti come ad esempio quelli

legati alla ingegnerizzazione dei nanomateriali.

NANOTECNOLOGIE E NANOMATERIALI: quali pericoli per i lavoratori esposti?

In collaborazione con il Centro di Medicina

Luciano SalvadoriLaureato in medicina e chirurgia, con specializzazione in medicina del lavoro all’Università degli Studi di Padova. Dal 1989 è medico del lavoro, di riferimento per le aziende delle province di Treviso e Pordenone. Esercita la libera professione presso il Centro di Medicina di Conegliano.

La nanotecnologia è un ramo della scienza applicata che si occupa del controllo della materia di

dimensioni inferiori al micrometro e della progettazione e realizzazione di dispositivi (nanomateriali) in

tale scala dimensionale, i quali permettono di “riadattare” la materia rivelandone proprietà sorprendenti

in termini, ad esempio, di resistenza termica, meccanica o superconduttività.

LUCIANO SALVADORI

73

L’ILO, Istituto Internazionale del Lavoro, ancora nel 2010,

ha espresso preoccupazione per i rischi ancora sconosciuti,

in ambiente di lavoro, provenienti dalle nuove tecnologie,

evidenziando che “di solito le nuove scoperte avvengono e

sono applicate dall’industria prima che siano ben chiari i loro

effetti sulla salute e sulla sicurezza”.

La nanotecnologia è un ramo della scienza applicata che si

occupa del controllo della materia di dimensioni inferiori al

micrometro e della progettazione e realizzazione di dispositivi

(nanomateriali) in tale scala dimensionale, i quali permettono

di “riadattare” la materia rivelandone proprietà sorprendenti

in termini, ad esempio, di resistenza termica, meccanica o

superconduttività. Le nanotecnologie non rappresentano una

singola tecnologia o un’unica disciplina scientifi ca, ma uno

strumento che contribuisce a fornire al prodotto un valore

aggiunto applicabile in molti settori e numerose discipline

scientifi che.

Alla fi ne del 2010 l’INAIL, con l’ex ISPESL in esso confl uito,

ha avvertito l’esigenza di elaborare e pubblicare un corposo

“Libro Bianco sull’esposizione a nanomateriali ingegnerizzati

ed effetti sulla salute e sicurezza nei luoghi di lavoro”,

nato dal lavoro multidisciplinare di un network nazionale

di ricercatori, rappresentanti di Istituzioni e mondo delle

imprese.

I nanomateriali e le nanotecnologie hanno trovato negli ultimi

anni un rapido sviluppo ed un impiego sempre più allargato:

si calcola un tasso di crescita annuo del 25%, misurato su

indicatori come prodotti sul mercato, brevetti, pubblicazioni,

forza-lavoro, fondi per la ricerca, etc, con un impiego previsto

nel settore a livello mondiale, nel 2020, di circa 6 milioni di

lavoratori, e con una buona presenza dell’Italia; altre stime

parlano addirittura di 10 milioni di lavoratori a livello mondiale,

entro il 2014, coinvolti nel settore a diretto contatto con i

nano materiali. I prodotti nanotecnologici attualmente più

utilizzati sono quelli a base di carbonio (nano tubi, fullereni),

ossidi metallici (titanio, zinco), metalli zero-valenti (argento,

alluminio, rame, molibdeno, zinco), quantum dots

(semiconduttori nanocristallini colloidali), dendrimeri (composti

macromolecolari polimerici), nano materiali compositi, nano

materiali di argento.

Tutti questi trovano impiego in vari comparti produttivi

fondamentali: dispositivi elettromedicali, farmaceutica,

elettronica, informatica, energia fotovoltaica, pigmenti, creme

solari, trasporti, tessile e moda, alimentare, materiali da

costruzione, meccanica avanzata, nella purifi cazione di acque,

nei sedimenti o suoli, nelle telecomunicazioni, etc.

Da ricordare, inoltre, che il rischio da nanoparticelle di metallo

è anche ambientale, derivante dalle marmitte catalitiche dei

veicoli di trasporto.

Gli ambiti professionali interessati alla problematica relativa

alle esposizioni a nanomateriali e nano particelle riguardano

sia i settori di produzione sia cicli di lavorazioni o processi che sviluppano particelle di dimensioni

nanometriche come sottoprodotti di reazioni termiche o

fi siche. L’esposizione al rischio da nanoparticelle aerodisperse

avviene attraverso diverse vie.

La via inalatoria è la più comune, tanto più pericolosa

proprio in funzione delle piccolissime dimensioni del

materiale inalato, con deposito predominante a livello degli

alveoli polmonari oltre che nelle regioni tracheobronchiale e

faringolaringea.

Gli effetti nocivi possono esplicarsi quindi a livello dell’albero

respiratorio ma anche nel resto dell’organismo poiché le NP

medicina e lavoro

STILE LIBERO

74

DICEMBRE 2012

possono venir assorbite nel sangue e manifestare danno a livello di altri organi in relazione soprattutto alla loro

caratteristiche chimico-fi siche. Un’altra via di esposizione è

quella per contatto cutaneo, potenzialmente possibile anche a

cute integra ad esempio per gli ossidi di titanio e zinco.

Altra via di penetrazione può essere il sistema olfattivo (mucosa nasale e nervo olfattivo) o il sistema gastroenterico con la deglutizione del muco che incorpora

le NP oppure attraverso il contatto orale con superfi ci

contaminate.

Quali possono essere gli effetti sulla salute dei nanomateriali ingegnerizzati?Studi epidemiologici su popolazioni esposte non sono

ancora disponibili, per cui le attuali informazioni derivano da

simulazioni di laboratorio. Possiamo quindi parlare ancora

solo di effetti potenziali, ma che sono una buona base di

partenza per approfondimenti clinici successivi e per mettere

a punto adeguati sistemi di prevenzione quando sarà

necessario.

Gli effetti evidenziati riguardano: la tossicità genetica per

i nanotubi di carbonio e le particelle di ossidi metallici; la tossicità cellulare per i nanotubi di carbonio, i fullereni

e alcune particelle metalliche e particolari tipi di quantum

dots; a livello respiratorio (fi brosi, accumulo con risposte

infi ammatorie anche asbesto-simili) per i nano tubi di

carbonio; a livello cutaneo (azione irritativa locale e

penetrazione nel circolo sistemico), anche se numerose creme protettive solari contengono TiO2 e ZnO, senza

evidenza pratica fi nora di effetti dannosi; per quanto riguarda

il sistema nervoso centrale ovvero stress ossidativo ed

alterazione dell’integrità della barriera emato-encefalica);

cardiovascolare (ateromi, trombosi arteriosa e aggregazione

piastrinica, oltre all’infi ammazione sistemica ormai

considerata uno dei fattori predisponenti all’aterosclerosi):

per i nano tubi di carbonio; immunologico (possibilità di

stimolazione di risposta autoimmunitaria).

Vari sono i progetti di ricerca fi nanziati in ambito europeo,

con signifi cativa presenza di organizzazioni italiane, che

riguardano gli impatti sull’ambiente, la salute e la sicurezza

delle nanotecnologie.

Le criticità nascono, da una parte, dall’evidenza che non

esistono ancora metodologie validate per la valutazione del

rischio in ambiente lavorativo e le conoscenze sui rischi

per la salute sono scarse e, dall’altra, dalla consapevolezza

che nei prossimi anni le nanotecnologie avranno una

diffusione esponenziale. Nessun allarme, ma secondo

l’INAIL “è necessario sviluppare la ricerca nel settore con particolare attenzione alla analisi del rischio per i lavoratori esposti ed evidenziare le criticità e i bisogni delle politiche di salute e sicurezza dei lavoratori, correlati con lo sviluppo delle nanotecnologie”.

Ci dovranno essere un approccio integrato, sostenibile,

responsabile e socialmente accettato e uno sforzo attento

alla possibilità di combinare il progresso scientifi co e la

competitività industriale con le esigenze di prevenzione e

protezione della salute.

75www.veeam.com

Veeam ONEPotente, semplice e accessibile:

Monitoraggio in tempo reale

Ottimizzazione delle risorse

Documentazione e reportistica di gestione

Veeam MP e SPIMonitoraggio VMware scalabile, fault-tolerant e senza agenti direttamente in:

Microsoft System Center

HP Operations Manager

#1 VM BackupBackup rapido ed efficace

Ripristino rapido e flessibile

2-in-1: backup e replica, insieme in un'unica soluzione facile da utilizzare e... funziona!

perVMware vSphere e Microsoft Hyper-V

Veeam ONEVeeam MP e SPIVirtualization Management

Veeam Backup & Replication

Virtualization-Powered Data Protection

informazione pubblicitaria

Il data center affi dabile, sicuro e sempre disponibileIn un mercato sempre più competitivo

e specializzato, NORDATA si propone come

valore aggiunto per il business e l’organizzazione

delle Imprese che credono e investono nella

consulenza quale punto di partenza determinante

per il proprio successo.

Nordata è costituita da professionisti senior che nel corso degli

anni hanno acquisito l’esperienza necessaria per affrontare le

complesse e sempre diverse problematiche legate al mondo IT.

Nordata Srl nasce dall’esperienza di professionisti che hanno

trasferito il proprio impegno decennale sotto un comune

denominatore, per rispondere al meglio alle sempre più esigenti

richieste di Connettività, Networking, Sicurezza

ed Alta Affi dabilità, per le imprese.

L’ attività di Nordata può essere riassunta in due concetti

fondamentali: alta affi dabilità e massima disponibilità.

I Servizi informativi sono diventati vitali per le aziende che ne

dipendono fortemente nella articolazione dei processi interni,

produttivi, amministrativi e nella gestione delle relazioni con

l’ esterno. Le aziende necessitano sempre più di avere dei

sistemi nei quali l’ alta affi dabilità sia un elemento determinante

per poter garantire una continuità di servizio.

Flessibilità, personalizzazione e costante attenzione nella

realizzazione di progetti commisurati alle esigenze e

caratteristiche dei clienti, rappresentano i punti di forza peculiari

dell’attività di Nordata.

La sala macchine è stata concepita come il luogo più effi ciente

nel quale far risiedere hardware dedicato al trattamento dei dati

senza richiesta di presenza umana.

Il sito fornisce un ambiente tecnico sicuro adatto ad accogliere

applicazioni critiche e dati sensibili, e un altissimo livello di

sicurezza e continuità di servizio per i server e gli altri apparati

in esso ospitati. La sala è stata progettata e realizzata

adottando le più moderne tecnologie, per garantire il più

elevato livello di servizio agli utenti, 24 ore su 24, 7 giorni su 7,

365 giorni all’anno. La struttura garantisce la sicurezza fi sica e

logica dei dati e servizi di alto livello qualitativo.

Da diversi anni Nordata ha instaurato un rapporto di

Partnership con vari Carrier, occupandosi prevalentemente

di connessioni in fi bra ottica, connessioni su Ponti Radio,

connessioni satellitari.

Presso la sala dati, molteplici operatori di telecomunicazione

consegnano connettività attraverso diverse tecnologie.

La sala è centro stella, o nodo periferico, di molte reti WAN

(Wide Area Network, reti geografi che) sia private (per lo più

MPLS, Multi Protocol Label Switching ovvero VPN gestire dall’

operatore) che pubbliche (VPN in Internet). La sala dati fornisce

anche accesso a Internet ai sistemi cliente (virtuali e fi sici) con

indirizzamento IP del sistema autonomo di Nordata.

Ad ogni cliente di NORDATA

non resta che dedicarsi

al proprio business.

www.nordata.it

77

trekking 2.0Intervista a Alberto Pellizzari, poliziotto, alpinista, viaggiatore

Scalate e trekking: passioni nate da lontano. Com’è cambiato oggi viaggiare e organizzare spedizioni.Che dire, innanzitutto, oggi i viaggi li organizzo in prima

persona integralmente, attraverso internet. Fino a 10 anni

fa mi dovevo affi dare alle agenzie di viaggio, con un costo

superiore e anche meno coinvolgimento personale nella fase

di organizzazione. Ma in questi anni, grazie a una tecnologia

sempre più avanzata e alla portata di tutti, mi è senz’altro

più semplice reperire informazioni di ogni sorta e con facilità

ed anche organizzare il viaggio in completa autonomia.

Infatti, scelgo la destinazione, cerco il materiale informativo

e quando sono convinto, sempre attraverso web, organizzo i

mezzi di trasporto e la logistica.

Mi è più facile contattare in loco agenzie che mi facciano

trovare l’equipaggiamento tecnico in un container al mio

arrivo. Anche le dotazioni sono migliori: in alta montagna

strumenti assolutamente importanti cui non posso rinunciare

sono il localizzatore GPS e il telefono satellitare.

Inoltre, grazie a internet mi è più facile raccontare delle mie

spedizioni a più persone usando il mio sito

(www.albertopellizzari.com). È più semplice così creare

contatti anche con possibili sponsor.

Quando la tecnologia le è stata assolutamente indispensabile?Nell’ascensione ad alta quota in Nepal, per una nevicata

imprevista, ho smarrito il percorso tracciato e solo grazie

al GPS sono riuscito a ritrovare il cammino fatto all’andata,

evitando, inoltre, con estrema sicurezza i crepacci non

visibili alla vista. Con il GPS potevo muovermi quasi a occhi

bendati. Trovo il telefono satellitare strategico per chiedere

aiuto in caso di pericolo con estrema velocità, ed anche per

restare in contatto con i cari rimasti a casa. Infatti, quando

sono in alta montagna cerco di chiamare i miei genitori ogni

2 giorni. Il satellitare nella mentalità degli scalatori d’oggi è

uno strumento indispensabile, anche se viene meno l’aspetto

avventuroso della spedizione come per gli alpinisti di 20 anni

fa. Noi abbiamo forse perso l’aspetto dell’esplorazione, però

ci abbiamo guadagnato nella sicurezza psicologica e anche

nella serenità. Ora abbiamo molti vantaggi, anche se pericoli

ne esistono lo stesso, come una valanga imprevista. Non a

caso Messner ci chiama “turisti di montagna”, sostenendo

che il vecchio alpinismo non esista più. Infatti, nessuno tenta

più ascensioni come faceva lui con materiale e conoscenze

completamente diverse.

il viaggio

STILE LIBERO

7979

Come sceglie le destinazioni?Io scelgo le località in base alle emozioni che mi procurano

le immagini che posso trovare ovunque: dal cinema, alle

fotografie nelle riviste, a immagini strappate dalla televisione.

Naturalmente, per mia natura, approfondisco in maniera

quasi maniacale ogni particolare prima di decidere

d’intraprendere un nuovo viaggio. Poi i tempi di preparazione

variano: se si tratta di una spedizione in alta montagna mi

serve almeno un anno per la preparazione fisica e tecnica.

Si cerca anche i compagni di viaggio?In realtà viaggio spesso da solo anche in montagna, ma

ascensioni difficili non le compio mai in solitaria. Ho dei

compagni di scalata, anche stranieri che conosco attraverso

tour operator in loco, cui mi affido. Ovviamente mi auguro,

in queste occasioni, di trovare persone innanzitutto con

esperienza, tecnicamente e fisicamente preparate, e anche

ben disposte.

Cosa la colpisce nei luoghi che visita?Io amo viaggiare: mi piace ammirare i paesaggi non noti e

confrontarmi con una vita differente dalla mia quotidianità.

Ho potuto vedere in questi anni diversi ambienti, anche

urbani. In questo momento sono attratto dai grandi spazi

aperti come se ne trovano in Mongolia o in Siberia. Quello che

mi rimane particolarmente impresso sono i colori e i profumi,

come le mille sfumature che assume la sabbia del deserto

libico al tramonto, o il limpido azzurro del ghiaccio puro.

Prossima scalata che vuole fare?La prossima sfida, nel 2013, dovrebbe essere la scalata

di due vette gemelle di 7mila mt, Nun e Kun in India, in

occasione del centenario della prima ascensione dell’alpinista

ufficialmente scalato. Inoltre, mi piacerebbe tentare di nuovo

la scalata di un 8mila. La prima volta mi sono dovuto fermare

pochi metri prima per condizioni meteorologiche avverse e

per mancanza di forze.

L’IMPORTANTENON È L’IDEA, MA LA CAPACITÀ DI CREDERCI FINO IN FONDO.

EZRA POUND

Alberto Pellizzari45enne trevigiano di Riese Pio X,poliziotto di professione, ma soprattutto “alpinista”, e viaggiatore. La sua filosofia di vita: “L’importante non è tanto l’idea, ma la capacità di crederci fino in fondo” (Ezra Pound). Il suo grande amore per la montagna è nato grazie alle lunghe passeggiate con i suoi genitori sin da piccolo lungo il Montegrappa. Poi le Dolomiti venete e a 23 anni i primi trekking in montagna anche all’estero con le prime vette andine in Ecuador e in Perù, fino alla vetta del Baruntse in Nepal (7.220 mt).

informazione pubblicitaria

Le soluzioni NAS di Iomega garantiscono alle imprese sicurezza, disponibilità, accessibilità delle informazioni e business continuityLe esigenze attuali delle aziende e la tipologia

dei dati da esse gestiti, oltre alla loro costante

crescita, portano a sottolineare l’importanza di uno

storage dove le soluzioni NAS offerte da Iomega

rappresentano la combinazione ideale essendo in

grado di unire affi dabilità, fl essibilità e diversi livelli

di sicurezza a prezzi accessibili per realtà distribuite

e aziende di medie o piccole dimensioni che, al

pari delle grandi aziende, presentano gli stessi

requisiti di protezione e sicurezza, disponibilità e

accessibilità delle informazioni.

I server di rete sono fondamentali per la condivisione di fi le,

per le applicazioni e per i dati di importanza strategica, nonché

per l’hosting degli ambienti Web e di posta elettronica. Al fi ne

di garantire una disponibilità elevata, è tuttavia necessario un

sistema che funzioni in modo continuo, garantendo accesso

costante ai dati critici e alle risorse di rete dell’azienda per

assicurare quella business continuity che Iomega ridefi nisce

“Unstoppable Computing™”.

Per ottenere un livello elevato di continuità sono necessari

più server ridondanti, confi gurati in modo tale che un server

secondario assuma il controllo completo in caso di errore o

guasto del server primario, in modo rapido ed effi ciente, con il

minimo impatto sulle normali attività aziendali.

La serie StorCenter Px di Iomega, disponibile nelle versioni

desktop e rack-mount, è caratterizzata da elevate prestazioni e

funzionalità avanzate grazie a unità disco server class SATA da

1TB, 2TB, 3TB e, a breve, anche da 4TB, capaci di assicurare

livelli di operatività continua e maggiore affi dabilità nel caso di

applicazioni aziendali business critical quali videosorveglianza

“always on”. Incorporando livelli di storage multi-tier e

di sicurezza di classe aziendale, la gamma di dispositivi

StorCenter Px spazia dai modelli diskless fi no a quelli popolati

e con capacità di storage nativo fi no a 36TB.

Iomega offre così soluzioni e servizi di virtualizzazione, backup,

archiviazione, disaster recovery e business continuity in grado

di assicurare elevate performance e affi dabilità RAID, oltre

all’integrazione con Avamar per il backup e una qualità server

per gli ambienti di virtualizzazione con le certifi cazioni VMware,

Citrix e Windows Server.

In questo contesto, ciò che propone Iomega è il

consolidamento dello storage su sistemi di tipo NAS, come ad

esempio il nuovo Iomega NAS StorCenter px12-450r, pensato

per consentire applicazioni aziendali quali la deduplicazione

del backup, infrastrutture server virtualizzate, gestione di

database e applicazioni storage-based. StorCenter px12-450r

è caratterizzato dal nuovo processore della famiglia Intel Xeon

con il modello l’E3-1200 v2, da 8GB RAM e dalla possibilità

di utilizzare HDD da 4TB. Inoltre, lo StorCenter px12-450r

utilizza l’ultima versione del software EMC® LifeLine™, un

sistema operativo avanzato che offre agli utenti una vasta

gamma di funzionalità cloud e di classe enterprise. Inoltre,

questa soluzione permette di gestire i più recenti sistemi di

video management (VMS) per la video sorveglianza e integra il

software leader di mercato McAfee VirusScan Enterprise per

una protezione a livello nativo.

La semplicità di utilizzo e l’accessibilità delle soluzioni

Iomega consentono di benefi ciare delle potenzialità della

virtualizzazione anche a realtà aziendali con esigenze IT

modeste e senza staff IT dedicato, come ad esempio studi

professionali o piccole aziende.

81

IL PERSONAGGIO: LUCA GHESER

Capacità fi sica e tecnologia in pista per la migliore performance

La sua storia sciistica è cominciata nel 1975 a Lavarone,

all’età di quattro anni. Secondo la famiglia il piccolo aveva già

un grande talento, non a caso due anni dopo ha affrontato

le prime gare nella categoria baby e cuccioli, e a 11 anni

gareggiava con scioltezza nella categoria superiore.

Un infortunio alla schiena lo ha costretto a stare fermo

per qualche anno; successivamente, appena sedicenne, è

stato selezionato per la squadra del Comitato Trentino e ha

cominciato a gareggiare a livello internazionale.

Negli anni a seguire Luca Gheser, oltre ad allenarsi con gli

atleti del Centro Sportivo dell’Esercito, ha scelto di seguire

corsi come allenatore e maestro di sci, fi no al conseguimento

del Master Istruttori, entrando nella crème dello sci nazionale.

E dal 1999 ha cominciato a formare maestri di sci, come

recentemente quelli dello Sci Club Tezenis.

Tecnica e tecnologia hanno segnato importanti cambiamenti

nella pratica sportiva, e la storia personale di Gheser

rappresenta un signifi cativo esempio: “poco tempo fa –

racconta lo sportivo trentino – mi è capitato di rivedere alcune

immagini di gara dell’era Alberto Tomba, campione olimpico

a Calgary.

È sorprendente notare la differenza rispetto alla tecnica

moderna: minor velocità di avanzamento durante la discesa

e diverse posture del corpo, come anche qualità e quantità

del movimento tra le porte. Considerando che la tecnica nello

sci alpino è, prima di tutto, un adattamento al materiale con

cui si scende il pendio, sicuramente è merito della tecnologia

LA RIVOLUZIONE DELLA SPECIE

Nello sport, come nel lavoro, si richiede all’atleta sacrifi cio, concentrazione e dedizione per riuscire

a dare il meglio di “ciò che si è”. Questi principi sono sicuramente ben riassunti in Luca Gheser,

grande sportivo italiano.

percorsi

STILE LIBERO

82

DICEMBRE 2012

e della ricerca nel settore, degli ultimi decenni, ad aver

portato benefi cio non solo agli atleti di alto livello ma anche

al comune sciatore”. Secondo Gheser la chiave che ha dato

la svolta è stato l’avvento dello sci “sciancrato”, ossia il

diverso rapporto di larghezza tra punta, centro e coda dello

sci, che ha permesso allo sciatore di avere una gran facilità in

ingresso curva, limitando al minimo gli sbandamenti anche in

spazi ristretti e a più bassa velocità. Allo stesso tempo sono

state introdotte le piastre antivibranti, posizionate sullo sci per

dargli stabilità e per permettere maggiori inclinazioni.

Gli sci, poi, sono stati accorciati drasticamente con

l’introduzione di nuovi materiali nella loro costruzione, come

titanio e particolari fi bre di vetro intrecciate che hanno reso

molto elastico e resistente l’attrezzo. Inoltre, l’affermarsi

di discipline parallele allo sci alpino, hanno portato a una

maggiore differenziazione della attrezzatura e nella tecnologia

applicata: nel freeride (sci fuori pista), gli sci sono stati portati

a larghezze notevoli per permettere il galleggiamento sulla

neve e a una forma concava con punte e code sollevate

rispetto al centro sci, per facilitare i cambi di direzione dove il

manto nevoso non è compatto.

Nel freestyle (sci a libera interpretazione) la costruzione a

doppie punte, con l’attacco montato nel centro dello sci,

ha permesso allo sciatore di compiere evoluzioni e salti

con andature all’indietro come se stesse scendendo in

avanti. Anche nell’abbigliamento sono state apportate delle

migliorie: le solette hanno avuto un’evoluzione sorprendente

per la scorrevolezza e velocità dello sciatore, grazie ai nuovi

materiali impiegati e alla creazione di “impronte” sempre più

sofi sticate, una sorta di disegno inciso sulla soletta che ha

permesso di ridurre al minimo l’attrito con la neve.

Gli scarponi sono stati resi più performanti nelle mescole delle

plastiche per garantire una fl essione ottimale in qualsiasi

condizione ambientale. Innovazione sì, ma Luca Gheser

sottolinea che “nello sci alpino la tecnologia ha permesso

una performance talmente alta degli atleti, che ha costretto

la Federazione Internazionale a fare qualche passo indietro in

materia di regolamenti, al fi ne di limitare la resa dei materiali.

Lo sci ha comunque un suo fascino e una sua fi losofi a legata

all’elemento umano. La cosa che mi ha sempre affascinato

in questo sport è il senso di libertà – continua l’atleta – Un

consiglio che mi sento di dare a tutti gli appassionati è di

scegliere l’attrezzo più adatto alle proprie capacità tecniche

e all’utilizzo che ne consegue, facendosi consigliare dal

maestro di sci di fi ducia. E, naturalmente, avvicinarsi alla

stagione sciistica con una base di preparazione fi sica: essere

in buona forma signifi ca anche prevenire infortuni sopratutto

in questo sport”.

82

Luca Gheser è nato a Trento nel 1971, quarto di otto fratelli. Attualmente vive a Lavarone ed è maestro di sci dal 1991, mentre dal 1996 è allenatore federale di 3°livello e istruttore nazionale.

informazione pubblicitaria

“Qui e Ora”: il cloud computing secondo VMwareA seguito del VMworld Europe 2012, il principale

evento in Europa dedicato alla virtualizzazione

e cloud computing che si è tenuto a Barcellona

a inizio ottobre, abbiamo chiesto a Matteo Uva,

Channel Manager di VMware Italia, un bilancio

sulle novità presentate da VMware.

“Right Here, Right Now” è stato lo slogan dell’edizione di quest’anno del VMworld, cosa signifi ca?“Qui e ora”, signifi ca semplicemente che il tempo per un IT

basato sul Cloud Computing è arrivato. Tutti gli ingredienti sono

davanti ai nostri occhi, la solidità delle tecnologie, la maturità

degli utenti che ormai pretendono, giustamente, di fruire di

servizi IT moderni ed in linea con quest’era in cui l’informazione

viaggia sempre con noi, un’economia diventata globalizzata

e quindi estremamente competitiva e che cerca nei servizi IT

lo strumento su cui sviluppare modelli di business innovativi,

insomma tutto ci dice che è tempo di Trasformare. Una

nuova era in cui i Data Center siano in grado di realizzare la

promessa del Cloud Computing attraverso la Virtualizzazione.

Questo il fi lo conduttore che ha guidato gli 8.200 partecipanti

(a cui si devono aggiungere i 20.000 presenti all’evento di

fi ne Agosto a San Francisco) attraverso le sessioni tecniche e

commerciali del VMworld di Barcellona. VMware ha un ruolo

cruciale in questo processo di trasformazione. Gli ultimi dieci

anni hanno visto il fenomeno della Virtualizzazione dei server

x86 trasformare profondamente il modo di fruire dei servizi IT

nel mondo. Basti pensare che oggi il 60% dei server nel mondo

sono virtualizzati e che circa il 79% delle aziende europee che

possiedono un’infrastruttura IT virtualizzata ha già trasferito sul

cloud almeno parte delle applicazioni.La Virtualizzazione quale

terreno fertile in cui affonda le radici il Cloud Computing e il

processo evolutivo dei Data Center. Nella nostra Vision, quindi,

lo strato di Virtualizzazione permea l’intero DataCenter in tutte le

sue componenti rendendole più agili e dinamiche in linea con le

necessità dei servizi di Cloud Computing.

Può spiegarci nel dettaglio il vostro nuovo approccio?SDDC (Software-Defi ned Datacenter) rappresenta la naturale

evoluzione della nostra strategia. Se ripensiamo a quanto è

avvenuto in questi ultimi anni attraverso la virtualizzazione dei

server è facile comprendere il signifi cato del SDDC. In questi

anni abbiamo osservato le tecnologie di Virtualizzazione

intervenire nelle architetture tradizionali x86 separando le

componenti HW (CPU, Memoria, Dischi, NIC, etc) dalle

componenti SW (OS, Dati, Applicazioni), le quali sono state

“racchiuse” “isolate” e “protette” attraverso la creazione di

VM (Virtual Machine). In questo modo abbiamo ottimizzato

l’utilizzo dei server x86 e reso più agile e sicura la gestione dei

carichi di lavoro applicativo (VM). Attraverso SDDC vogliamo

estendere i vantaggi della virtualizzazione a tutti i servizi del

datacenter: calcolo, storage, networking e i relativi servizi

associati alla disponibilità e alla sicurezza. Per fare questo

abbiamo sviluppato nuovi prodotti e realizzato anche molte

importanti acquisizioni; una fra tutte quella di Nicira, uno dei

maggiori specialisti di software-defi ned networking, avvenuta

nel mese di luglio, che ha permesso di estendere la capacità di

astrazione all’ambito della rete, fi no ad oggi ancora fortemente

legata al mondo dei device hardware.

Cosa cambia concretamente a livello di offerta per VMware per il cloud computing? Abbiamo annunciato la suite vCloud 5.1, che include tutte le

componenti necessarie a realizzare la trasformazione del Data

Center. Alla base della suite vi è naturalmnete vSphere 5.1, una

versione aggiornata della nostra piattaforma di virtualizzazione,

la più diffusa nel mondo, che include in questa nuova release

oltre 100 nuove funzionalità. vCloud Suite contiene inoltre

vCloud Networking & Secutiry (per la virtualizzazione dei servizi

di Rete e di sicurezza), vCenter Operation Management nella

sua nuova versione e tutti gli altri moduli utili a completare un

Data Center software centrico.

La gestione dei cloud è anch’essa una priorità oggi?Certamente, la gestione ed il controllo devono essere delle

certezze per i responsabili IT. Se Cloud Computing vuol dire

agilità, ottimizzazione degli investimenti, self service per gli

utenti che possono autonomamente scegliere i servizi IT

attraverso un approccio a catalogo, ma tutto questo deve

avvenire in un processo che metta i responsabili dei Datacenter

nella condizione di avere un controllo ottimale dell’intera

infrastruttura fi sica e virtuale. Un Cloud senza controllo è

un controsenso. Per questo motivo VMware ha realizzato

una serie di strumenti che consentono la gestione a 360°

dell’intero servizio Cloud. Le proposte di VMware per il cloud

management estendono, quindi, il concetto di software-

defi ned datacenter e ricalibrano essenzialmente il concetto di

gestione sull’era del cloud consentendo ai clienti di operare

a “livello cloud” e iniziare ad agire quali broker di servizi IT nei

confronti delle rispettive aziende.

84

DICEMBRE 2012

Intervista a Massimo Scarpa campione di golf

Massimo Scarpa, classe ’70, è professionista dal 1992, dopo

aver vinto il Campionato Europeo Dilettanti. Ha giocato nei

vari circuiti professionistici, dal Tour europeo al secondo tour

sfi da di livello, tra il 1993 e il 2006. Ha vinto una volta il Tour

Europeo e due volte il Challenge Tour. Campione per 3 volte

di seguito al Campionato Nazionale Omnium, tra il 1998 e il

2001. Ha giocato nella squadra italiana, nel 1999, all’Alfred

Dunhill Cup a St Andrews, battendo il tre volte campione

Payne Stewart. È noto per essere un giocatore ambidestro.

Golf e tecnologia: un tandem sempre più intrecciato?Il golf è ancora uno sport in cui l’elemento umano conta e il

gesto tecnico è la parte predominante. Nonostante questo

presupposto, la ricerca nel settore ha migliorato la pratica

della disciplina e la prestazione di molti atleti. La tecnologia

è entrata nella realizzazione della nuova attrezzatura come

anche nell’allenamento, alzando così il livello medio.

Ci può fare un esempio?Un giocatore poco potente, oggigiorno, grazie alla nuova

tecnica di allenamento con sostegno informatico che

analizza la velocità di rotazione del corpo dell’atleta e, nel

contempo, la partenza della pallina e la potenza della mazza

può migliorare le proprie prestazioni. Inoltre, ha la possibilità

di scegliere l’attrezzatura più idonea con un certo anticipo.

Prima, diverse “doti” restavano inespresse, anche se

comunque il talento ancora fa la differenza.

Quanto conta possedere l’attrezzatura più innovativa?Molto. L’evoluzione del golf può essere spiegata

Massimo Scarpa, team manager delle nazionali italiane di golf, ha risposto ad alcune domande

sulla sua attività di atleta e preparatore di professionisti.

CONCENTRAZIONEE INNOVAZIONE Gli Skills del nuovo professionista

principalmente dallo sviluppo dell’attrezzatura usata per giocare, come

le moderne migliorie nella pallina da golf e nelle mazze. La pallina

ha continuato a svilupparsi, infl uenzando notevolmente il modo di

giocare. Inoltre, oggi, quasi tutti gli atleti si servono di simulatori e

club fi tting che analizzano integralmente le caratteristiche fi siche del

giocatore. Come anche gli studi biomeccanici sostengono lo studio

dell’impiego muscolare in essere. Ma questi elementi sono importanti

nella fase della preparazione piuttosto che in gara.

La tecnologia è parte integrante della preparazione atletica?Un tempo la preparazione atletica in palestra era considerata in

maniera negativa. Negli anni è cambiato l’approccio, e attrezzi di

allenamento come gli “elastici” o le “macchine a corsia libera” sono

diventati strumenti indispensabili di allenamento che permettono di

esercitare lo sforzo fi sico come anche quello mentale.

Esistono limiti imposti all’applicazione della tecnologia nella disciplina?Si, vincoli sono stati introdotti dalla Federazione, altrimenti

bisognerebbe rivedere anche i campi da gioco perché obsoleti.

Ad esempio, la USGA (United States Golf Association) ha

recentemente limitato il così detto Coeffi ciente di Restituzione (COR)

sport

STILE LIBERO

86

DICEMBRE 2012

a 0.83 nel tentativo di mantenere la competitività del gioco.

Il COR è un innovativo profi lo della faccia dei driver che

permette maggiori distanze della pallina se colpita ad elevata

velocità nel centro della faccia.

Lei a questo sport ha dedicato la vita professionale: cosa l’appassiona di questa disciplina?Il bello di questo sport è senz’altro la capacità di aggregare

persone di diversa generazione.

Si può dire che propone anche uno stile di vita: una continua

ricerca di concentrazione e impegno strategico. Inoltre,

sottintende la responsabilità personale: il giocatore è

“controllore” del proprio score, non esistono arbitri esterni.

Il limite è che resta uno sport individuale.

È per questo che ho lavorato, in questi anni di preparatore

tecnico italiano, per formare non solo idealmente, ma anche

nel concreto, un team “nazionale” che crei aggregazione e

sostegno nei momenti di gara, soprattutto all’estero.

Chi si avvicina oggi a questo sport?Nell’immaginario delle persone continua ad essere uno sport

d’élite, anche se in realtà è ormai meno costoso di altre

discipline sportive.

Il costo delle attrezzature è variabile e ci sono campi da gioco

sparsi ovunque e non necessariamente in club privati.

La Federazione in questi anni sta lavorando per promuovere

il golf a tutti i livelli, e la speranza è che anche in Italia possa

ampliarsi sempre più il numero di praticanti. Anche i mezzi di

informazione, come la televisione, stanno portando un grosso

sostegno alla promozione di questo sport.

Infi ne, ha qualche giocatore a cui si è ispirato maggiormente?Sicuramente, Severiano “Seve” Ballesteros Sota, golfi sta e

architetto spagnolo che fu una fi gura di riferimento in questo

sport a cavallo di 3 decenni. Genio e sregolatezza assieme!

Ho anche avuto l’onore di giocare con lui.

88

DICEMBRE 2012

Ingredienti x 4persone Pasta: lasagne 400 gLa pasta può essere fatta in casa o comperata, fresca o secca, l’importante è che la sfoglia sia sottile.

Farcia: radicchio di Treviso 600 g + un gambo a parte per le decorazioni capesante 4 + una di riserva

burro 30 + 10 g farina 00. 40 g latte freddo 500 ml scalogno 1; aglio spicchio 1 olio extra vergine di oliva qb.worcestershire sauce qb. pepe nero al mulinello qb. coriandolo in polvere o i semi pestati al mortaio qb.

di Luisa Giacomini cuoca per passione

L’acqua di mare& l’erba voglioLa cucina a modo mio: cucina trendy, facile o un po’ elaborata, ma alla portata di tutti e di tutte le situazioni.

C’era una volta…le lasagne alla bolognese! Il piatto

prelibato della domenica, il vanto delle brave cuoche di casa

e la gioia della famiglia. In questa preparazione classica della

cucina italiana, si misuravano le abilità di affermati chef e le

valutazioni erano in base alla delicatezza, al gusto e al giusto

rapporto tra pasta, salsa bechamel dal lieve sentore di spezia,

ragù alla bolognese e Parmigiano Reggiano. Ognuno aveva la

sua ricetta, ognuno la reputava migliore, infi nite le varianti.

Ora, questa pietanza è stata completamente distrutta

nell’immaginario collettivo dei buongustai dall’attuale

gastronomia “pronto in tavola”, rosticcerie e preparazioni

surgelate industriali, per l’uso di conservanti e prodotti

spesso di qualità inferiore. Trattorie e ristorazioni di basso

livello hanno banalizzato le lasagne alla bolognese a tal

punto da decretarne la morte nelle proposte dei menù

della ristorazione odierna. Peccato! Ma la tradizione ed il buonsenso sono dure a morire. La tradizione si

reinventa, rinascendo dalle sue stesse ceneri, si trasforma

in interpretazione creativa mantenendone la personalità, alla

faccia di chi trova la bechamel roba vecchia e superata…ma

di questa e di nascosto, ne lecca il cucchiaio.

La novità creativa: Rose di mare al radicchio di Treviso e capesante. È l’interpretazione della tradizione, una

monoporzione molto buona e delicata, morbida e

gradevolmente croccante. Accattivante la presentazione

coreografi ca, si presenta come una lasagna aperta, dalla

forma del fi ore di rosa. A seconda della stagione, mantiene

la personalità della ricetta, rinnovandosi a seconda della sua

composizione.

C’era una volta: la novità creativa e la tecnologia in cucina

Porcellane Museo

Marquise by R. Ginori

Treviso

Rose di mare

al radicchio

di Treviso

e capesante

89

In una padella profumare un fi lo d’olio evo con l’aglio schiacciato,

eliminarlo, spadellare le capesante a fuoco vivace ma non troppo,

spolverare con un pizzico di coriandolo, poco pepe e sale. Dividere

i frutti di mare dal fondo di cottura e tenerlo da parte. Tagliare le

noci in quattro fettine, tenere da parte quelle più belle con il corallo

a vista.

Tagliare il radicchio a pezzetti regolari. In una padella far soffriggere

delicatamente e con poco olio lo scalogno tritato. Quando il soffritto è

trasparente, versare il radicchio, stufarlo a fi amma bassa, insaporire

con poco pepe, alcune gocce di worcestershire sauce e sale qb. (se

il radicchio risulta molto amaro aggiungere un pizzico di zucchero

e un goccio di latte). Mettere il coperchio e portare brevemente a

cottura.

Amalgamare 10g di burro, spegnere e aggiungere il fondo di

capasanta.

In un pentolino prepariamo il roux, sciogliere 30 g di burro a fuoco

basso, fuori dal fuoco versare la farina, lavorarla con il burro sino

ad ottenere una crema molto densa, sul fuoco aggiungere il latte

poco alla volta, stemperare eventuali grumi con la frusta. Proseguire

con un mestolo e mescolare fi no al raggiungimento del bollore,

proseguire per tre minuti, salare e spegnere.

In una padella larga e bassa, con acqua salata e un cucchiaio d’olio,

sbollentare per un minuto i quadri di pasta, 5/6 per volta, scolarli

con la schiumarola e passarli in acqua ghiacciata per bloccare la

cottura. Deporli sul canovaccio ad asciugare. Ritagliarli in quadri, 9

cm per lato.

Montare le rose su carta da forno posta in una teglia del forno,

mettere il primo quadro di pasta, solo al centro, non in tutto il quadro,

versare un cucchiaino da the di radicchio stufato, sopra uno di roux

e una fettina di capasanta. Proseguire con gli strati scomponendo gli

angoli del quadro, i quali non devono combaciare ma essere separati

come petali di un fi ore, non sovrapporre le fettine di capasanta, ma

alternarle nel volume così da evitare uno spessore della rosa di mare

troppo alto. Non mettere le fettine tenute da parte nell’ultimo strato.

gratin e degli angoli arricciati verso l’alto, guarnire mettendo la

fettina con il corallo sopra al centro della rosa, proseguire la cottura

per altri 5 minuti e togliere dal forno. Dopo averla posta in un piatto,

lucidare appena con un fi lo d’olio, spargere qui e là pochi pezzettini

di radicchio.

Vino da abbinare: Alto Adige Muller Thurgau - (Trentino Alto

Adige), Prosecco di Conegliano e Valdobiadene (Veneto) - Collio

Sauvignon (Friuli Venezia Giulia).

Conservazione: Le rose di mare si possono congelare o meglio

surgelare per avere un prodotto pronto come appena fatto.

Si consiglia di surgelare le monoporzioni a crudo, abbattere la temperatura

in contenitori che le proteggano, oltre che dal gelo, da eventuali colpi che

rovinerebbero la preparazione e i “petali”.

http://www.luisagiacomini.com/

esecuzione

Una premessa: congelare e surgelare, dove sta la differenza?

A una persona non esperta di cucina queste parole potrebbero

sembrare due sinonimi, ma la differenza esiste e per la

conservazione e il mantenimento del valore nutritivo degli

alimenti è molto importante.

Congelare signifi ca abbattere la temperatura degli alimenti

in un tempo lungo, con la conseguente formazione di

macrocristalli. Surgelare signifi ca abbattere la temperatura

degli alimenti rapidamente, con la conseguente formazione

di microcristalli. La diversità consiste al momento dello scongelamento del prodotto: i macrocristalli disperdono nel

liquido i valori nutritivi, consistenza e gusto; i microcristalli, al

contrario, non recano alterazioni nella composizione del cibo,

lasciandolo succulento o fragrante come appena fatto.

Per una surgelazione corretta anche a casa ecco, allora,

l’abbattitore di temperatura casalingo!

Proposti da alcuni anni, se ne parlava ma di concreto vi era

molto poco. Pochi modelli e dai costi inavvicinabili per un

mercato dal budget medio, gli abbattitori di cucina rimanevano

una prerogativa della ristorazione e dell’industria alimentare.

La realtà odierna, nelle proposte innovative, non consiste solo in

velocissimi abbattitori della temperatura per la surgelazione, ma

vere e proprie macchine tecnologiche all’avanguardia.

Sono programmate per il raffreddamento rapido di un cibo caldo

e quindi sano, essendo bloccate le proliferazioni batteriche; ma

anche per il raffreddamento rapido delle bevande in genere.

scongelamento a temperatura controllata della pietanza che

preserva così le sue proprietà organolettiche e nutrizionali.

Per mantenere il cibo come fosse nel frigorifero, rigenerandolo

al momento e cuocendolo nell’ora prestabilita per il rientro a

casa, in modo da poter consumare un piatto pronto e caldo

cucinato da noi stessi.

Non solo, un valido aiuto per la lievitazione degli impasti,

in qualsiasi condizione meteorologica. Infi ne, la proprietà

di un programma per il sistema della cottura lenta a bassa

temperatura, preservando tutta la tenerezza delle carni e del

pesce, dalla succulenza all’esaltazione del gusto. Tutto questo a

casa nostra, in tutta tranquillità e fi nalmente a costi concreti di

mercato che incontrano il pubblico medio.

TECNOLOGIAIN CUCINA La tecnologia della corretta conservazione e

dell’igiene alimentare: un concetto rivoluzionario che

ha dettato lo standard del mercato, innovandolo con

“l’abbattitore di temperatura casalingo”.

cucina

STILE LIBERO

informazione pubblicitaria

DLP software bladeA fronte del continuo incremento di casi ed eventi

legati alla perdita di dati, le aziende devono

intraprendere azioni specifi che, fi nalizzate a

proteggere le informazioni sensibili e riservate in

loro possesso.

Ad essere minacciati sono soprattutto i dati riservati e

confi denziali di dipendenti e clienti, i documenti legali e le

informazioni attinenti alla proprietà intellettuale delle aziende;

la sfi da a cui far fronte consiste nel neutralizzare tali minacce

e situazioni di pericolo, senza ostacolare o diminuire la

produttività dei dipendenti o sovraccaricare il personale IT con

compiti ed attività supplementari.

Pur continuando ad evolversi, la tecnologia non fornisce

ancora un supporto atto a comprendere le intenzioni degli

utenti. Per proteggere i dati sensibili, i prodotti di Data

Loss Prevention (DLP) fi nora disponibili richiedevano tempi

di implementazione molto lunghi, attività amministrative

alquanto onerose e costi ingenti. Check Point DLP Software

Blade™ unisce tecnologia e processi garantendo una

strategia DLP di massima effi cacia; è l’unica soluzione che

consente alle aziende di evitare la perdita di dati proteggendo

preventivamente le informazioni sensibili dallo smarrimento

involontario.

VANTAGGI FONDAMENTALI

PREVIENE LA PERDITA DI DATI SENSIBILI

E DI INFORMAZIONI DI BUSINESS CRITICHE

La tecnologia UserCheck consente agli utenti di porre

rimedio a violazioni e incidenti in tempo reale.

UNISCE TECNOLOGIA E PROCESSI PER

IMPLEMENTARE UNA DLP DI MASSIMA EFFICACIA

L’innovativo motore di classifi cazione_dati MultiSpect correla

con precisione ineguagliata utenti, contenuti e processi.

IMPLEMENTAZIONE SEMPLICE E RAPIDA A

GARANZIA DI UNA PREVENZIONE IMMEDIATA DELLE

PERDITE DI DATI

Protezione già dal 1° giorno di tutti i dati sensibili con policy

pre-confi gurate e supporto a 360 gradi

per formati fi le e dati di qualsiasi tipo.

91

Recenti studi dell’Unione Europea hanno dimostrato

che l’inserimento di piante e verde in uffi cio, vicino alle

postazioni di lavoro, migliora il rendimento dei dipendenti, diminuisce numerosi disturbi fi sici, riduce lo stress e rende l’ambiente più sano e salubre.

Perché allora non dedicare uno spazio di questa rivista al

verde in uffi cio? Come non solo non far morire le piante da

uffi cio, ma soprattutto come farle crescere e prosperare, così

da metterle in condizione di assorbire le nocività di cui sopra.

Innanzitutto, qualche consiglio per iniziare: non comprare

mai piante che non conosciamo, ma facciamoci aiutare dal

nostro fi orista di fi ducia per scegliere quella che fa per noi e

ci rispecchia meglio.

Scelta la pianta che fa per il nostro ambiente lavorativo,

troviamole la giusta collocazione, possibilmente

posizionandola vicino ad altre così si crea un microclima che

le aiuta a prosperare e alla luce (senza sole diretto).

Le piante grasse stanno bene al sole perciò si possono

mettere davanti la fi nestra.

Infi ne, come curarle. Intanto, è utile abituarsi a guardarle per capire di cosa hanno bisogno. Possono avere sete

e questo si può intuire semplicemente toccando il terreno.

Oppure possono avere qualche parassita. Di solito è

abbastanza frequente la cocciniglia, se compare occorre

toglierla subito con le mani oppure con un batuffolo di cotone

imbevuto di alcol. Eliminare sempre, inoltre, le foglie gialle.

Segnali di malessere? Possono essere tante foglie secche,

macchie, o altro. Basta cercare in internet, la soluzione si

trova sempre velocemente, ma probabilmente sono state

annaffi ate eccessivamente.

E per fi nire, considerato il periodo, parliamo della Stella di Natale, pianta che nel periodo delle festività acquista grande

fascino. Come fare per farla durare fi no alla befana?

Innanzitutto, occorre trovare un posto con molta luce ma

senza sole diretto, e lontano da fonti di calore altrimenti

perde le foglie perché non ama il troppo caldo.

Liberate le foglie da eventuali confezioni e fatela respirare.

Deve essere annaffi ata con acqua tiepida solo quando

la terra è asciutta, magari aggiungendo poco zucchero.

Qualcuno consiglia di mettere dei chiodi di ferro tra il terriccio

e il vaso e versarci l’acqua sopra quando si annaffi a.

E, per concludere, non teniamo la povera pianta in uffi cio fi no

a ferragosto! Ci sono tecniche per mantenerle folte e far loro

rifare le foglie rosse, ma non sono semplici ed è meglio farlo

a casa. Buon Natale e buon anno nuovo!

Proveniente dal Messico, la Stella di Natale è una pianta tropicale della famiglia delle Euphorbiacee. A dicembre fa la sua comparsa nelle case, negli uffi ci, nei negozi per via dei colori sgargianti che rimandano al periodo delle festività.

La stella di NataleRallegra le feste, riduce lo stress e migliora il rendimento! CARLA SBICEGO [email protected]

uffi cioverde

STILE LIBERO

92

DICEMBRE 2012

Apple Inc.

Apple Inc.

Apple Inc.

Cisco Systems, Inc.

Cisco Systems, Inc.

Cisco Systems, Inc.

Dell Inc.

Dell Inc.

Dell Inc.

ge

nn

aio

20

10

dic

em

bre

20

10

ge

nn

aio

20

11

dic

em

bre

20

11

ge

nn

aio

20

12

no

ve

mb

re 2

01

2

EMC Corporation

EMC Corporation

EMC Corporation

Facebook, Inc.

Facebook, Inc.

Facebook, Inc.

Hewlett-Packard

Hewlett-Packard

Hewlett-Packard

(quotazioni dal 18.05.2012)

n.q.

n.q.

LA TECNOLOGIA IN BORSA

93

IBM Corporation

IBM Corporation

IBM Corporation

Microsoft Corporation

Microsoft Corporation

Microsoft Corporation

Oracle Corporation

Oracle Corporation

Oracle Corporation

Sap Ag

Sap Ag

Sap Ag

Apple 525,62

Cisco 17,94

Dell 9,56

EMC 23,56

Facebook 22,17

HP 13,08

IBM 185,85

Microsoft 26,66

Oracle 29,95

Sap 71,04

quotazioni al 15.11.2012

Fonti: INDICE Nasdaq e NYSE

Apple 405,00

Cisco 18,63

Dell 14,63

EMC 21,54

Facebook -

HP 25,76

IBM 183,88

Microsoft 25,96

Oracle 25,65

Sap 52,95

quotazioni al 30.12.2011

Fonti: INDICE Nasdaq e NYSE

Apple 322,56

Cisco 20,23

Dell 13,55

EMC 22,90

Facebook -

HP 42,10

IBM 146,76

Microsoft 27,91

Oracle 31,30

Sap 50,61

quotazioni al 31.12.2010

Fonti: INDICE Nasdaq e NYSE

Cop

yrig

ht ©

2012 Y

ahoo

! In

c. I

dati

qui i

nser

iti h

anno

uno

sco

po p

uram

ente

illu

stra

tivo

e di

vulg

ativ

o, n

on h

anno

qui

ndi a

lcun

a fi n

alità

di l

ucro

valg

ono

qual

i sug

gerim

enti.

Le

quot

azio

ni s

ono

trat

te

da N

YSE

e N

asda

q Le

info

rmaz

ioni

son

o tu

tte

forn

ite “

così

com

e so

no”.

Lo

stor

ico

dei d

ati p

er la

rea

lizza

zion

e de

i gra

fi ci e

gli

aggi

orna

men

ti gi

orna

lieri s

ono

forn

iti d

a C

omm

odity

Sys

tem

s, In

c. (C

SI).

Lo s

torico

dei

dat

i int

erna

zion

ali,

gli a

ggio

rnam

enti

gior

nalie

ri, i

l rie

pilo

go s

ui f

ondi

, i r

endi

men

ti de

i fon

di, i

dat

i sul

div

iden

do e

su

Mor

ning

star

Inde

x so

no f

orni

ti da

Mor

ning

star

, Inc

.

Dat

i fi n

anzi

ari s

tatu

nite

nsi f

orni

ti da

Edg

ar O

nlin

e e

tutt

i gli

altr

i dat

i fi n

anzi

ari f

orni

ti da

Cap

ital I

Q. L

o st

oric

o de

i dat

i int

erna

zion

ali s

ono

forn

iti d

a Th

omso

n Fi

nanc

ial N

etw

ork.

10titoli

STILE LIBERO

94

DICEMBRE 2012E 2012

La parola alla nostra Community

Daniele Lago [ Amministratore Delegato Lago Spa ]

“I social media rappresentano uno strumento dalle

enormi potenzialità. La capacità di gestirli e governarli è

probabilmente la discriminante perché questa “potenza”

possa evolversi in opportunità o, al contrario, in insuccessi.

Nell’uso delle piattaforme social come canale di

comunicazione esterna ciò che cambia maggiormente rispetto

al passato è il concetto di trasparenza. Oggi, un’azienda che

decide di comunicare con il proprio pubblico servendosi dei

social media deve prima interrogare se stessa, chiedendosi

“Che tipo di azienda voglio essere? Quanto trasparente?”.

Le imprese devono ripensare se stesse, innovando il proprio

approccio al mondo esterno, prim’ancora che gli strumenti e

le tecnologie per interfacciarsi ad esso.

A questo proposito, mi piace ricordare una frase dell’artista

Carmelo Bene che diceva: “Bisogna smettere di produrre

capolavori, bisogna essere dei capolavori”. Be’, io credo che

oggi ci siano azioni, processi o meglio storie da raccontare

che riguardano quello che la fabbrica è, più che quello che

produce. E questo desiderio di narrazione non ha origine dal

mondo tecnico ma necessita delle più moderne tecnologie

per esprimersi. Certo, la molteplicità e la continua evoluzione

NEW MEDIAPER L’INNOVAZIONE SOCIALE

I Social Media cambiano i modelli di interazione e collaborazione tra persone. Questo accade anche per

le imprese, dove possono integrarsi al modo di lavorare e dialogare sia con il pubblico esterno sia

con gli interlocutori interni, per facilitare la condivisione delle informazioni. Quali opportunità si

aprono per l’impresa e che tipo di problematiche?

95

dei mezzi social a disposizione delle imprese oggi aprono

scenari complessi, spesso critici per quelle aziende che non

riescono ad orientarsi e a comprendere come generare valore

con essi. In questo caso, la qualità di un team competente,

pronto a recepire il cambiamento culturale sotteso a queste

logiche, costantemente e rigorosamente aggiornato, può fare

la differenza e tradurre il mezzo in un’innovazione di valore

per tutta la squadra”.

Enrico Barbi [ Socio ICA SYSTEM Srl ]

“I social network offrono sicuramente nuove opportunità

alle strategie di marketing delle aziende. Siamo passati

rapidamente da una società centrata sulla produzione, in

serie, di beni materiali ad un’altra in cui la qualità del servizio

è premiante, e le informazioni devono passare velocemente.

Gli strumenti social aiutano a superare le barriere di

conoscenza che spesso si creano nelle imprese, e a

interfacciare persone e idee in modi nuovi, impossibili sino

a pochi anni fa. I vantaggi che ne derivano sono molteplici:

le aziende possono entrare in contatto diretto con i propri

clienti o potenziali pubblicizzando un marchio, un prodotto,

un servizio; la capacità di trovare informazioni e persone più

rapidamente velocizza il processo decisionale, consentendo

alle imprese di essere più agili e competitive, e alle persone

di essere più produttive. Credo, comunque, che sia ancora

minimo il numero di aziende, soprattutto nella piccola e

media impresa, che monitorizza davvero i social network per

individuare potenzialità per il proprio business.

Ad esempio, per avere indicazioni rispetto alla concorrenza o

al posizionamento della propria impresa. Ritengo ci sia ancora

scarsa conoscenza sull’impostazione di un sistema di raccolta

e analisi delle informazioni ricevute dai social network, e

scarsa propensione all’investimento nell’ambito: ancora

poche sono le aziende che vantano nel proprio organico un

esperto di social network. Probabilmente si tratta di sviluppare

maggiormente la cultura aziendale verso una nuova forma

di comunicazione: aggregativa, interattiva, rapida. Il futuro

è certamente fatto di una crescente interazione con questi

strumenti del web”.

Giuseppe Milan [ Direttore Generale Unindustria Treviso ]

“Così come avviene nelle aziende, anche in Unindustria

Treviso seguiamo con attenzione questo processo in atto che

sta trasformando e amplifi cando le modalità di informazione

e comunicazione e, quindi, con implicazioni future anche

nelle relazioni associative. In questi anni abbiamo voluto

sperimentare alcune iniziative, come una community, per

valutare la modalità più effi cace nel cogliere le opportunità

offerte dal web. Di grande interesse è stato anche il progetto

“Business 2.0. Lab” realizzato quest’anno da Unindustria

Treviso Servizi & Formazione, in collaborazione con

l’Università di Milano.

È un percorso di formazione, della durata di un anno, dedicato

al web marketing che consentirà a un gruppo di aziende del

territorio di sperimentare le molteplici opportunità e curiosità

aperte dall’online. Nel 2013 prenderà il via la seconda

edizione”.

Gli strumenti social aiutano

a superare le barriere

di conoscenza che spesso

si creano nelle imprese,

e a interfacciare persone e idee

in modi nuovi, impossibili sino

a pochi anni fa.

a più voci

STILE LIBERO

Mauro Busetto [ Responsabile Area Amministrazione e Finanza Nastrofl ex Spa ]

“I social media permettono di comunicare e di svolgere

attività creative ed espressive, e consentono a ognuno di noi

di mettere facilmente a disposizione degli altri il contributo

personale alla cultura e alla società. A mio avviso, la piccola

e media impresa del Nord-est non comprende le reali

potenzialità di questi mezzi e spesso diffi da di essi, ritenendo

chi li utilizza come strumento operativo dell’azienda poco

focalizzato sulle dinamiche reali del mercato. Credo che

un’impresa che utilizzi dei buoni piani di pubblicazione dei

contenuti tramite il web possa infl uire positivamente sul

proprio rendimento. Infatti, si può utilizzare la presenza sui

“social” non solo per accrescere l’ “awareness” del proprio

marchio o per acquisire contatti commerciali, ma anche per

reperire informazioni aggiornate, condividere conoscenza,

supportare clienti utenti, offrire servizi. Attraverso “social”

come Facebook, Twitter, Linkedln, Google, e altri ancora, le

imprese hanno un’opportunità unica di condividere idee,

apprendere con rapidità delle buone pratiche, riproporre

successi e creare reti d’impresa”.

Barbara Stella [ Addetta Amministrazione Gruppo Eurosystem Sistemarca Srl ]

“L’utilizzo dei social media come strumento di comunicazione

interno all’azienda può aprire nuove opportunità, soprattutto

in termini di velocizzazione e semplifi cazione della

condivisione delle comunicazioni, anche se con ponderazione.

I sistemi di chatting aziendale, per esempio, possono facilitare

alcuni scambi di informazioni in tempo reale, ma non possono

sostituirsi completamente a sistemi già esistenti come l’email.

I social media possono portare un vantaggio se utilizzati nelle

circostanze idonee: per comunicazioni semplici, ad esempio,

che non necessitano di approvazioni uffi ciali. Nel mio

percorso professionale, infatti, ho imparato che la velocità di

risposta può essere causa di superfi cialità e che non sempre

paga. Credo dunque che nell’ambito della comunicazione

interna aziendale, questi strumenti possano accostarsi

a quelli già esistenti, integrandoli. Per quanto riguarda

la comunicazione esterna, i social media rappresentano

certamente uno strumento di marketing di grande impatto.

Anche in questo secondo caso, però, ritengo che debbano

essere gestiti con strategia partendo da un’accurata analisi

preliminare dei messaggi da veicolare e dei pubblici di

riferimento”.

96

DICEMBRE 2012

permettono di comunicare e di svolgere attività creative ed espressive, e consentono a ognuno di noi di mettere facilmente a disposizione degli altri il contributo personale alla cultura e alla società

Barbara Stella, Mauro Busetto,Daniele Lago, Enrico Barbi, Giuseppe Milan

La matita di Sue

fumetti

STILE LIBERO

N. 00 - Dicembre 2012pubblicazione bimestrale

Registrazione Tribunale di Treviso n. 201 del 09/11/2012

Il Gruppo Eurosystem Sistemarca srl è in fase di registrazione al ROC Registro degli operatori di Comunicazione

direttore responsabileLeonardo Canal

coordinamento editorialeMita Cipriani Franco

hanno collaboratoGian Nello Piccoli, Stefano Moriggi, Gianni Favero, Eleonora Biral, Giovanna Bellifemine, Franco Brunello, Uberto Di Remigio, Paola Pretto, Diego Romano, Alessio Voltarel, Stefano Biral, Ruggero Paolo Ortica, Riccardo Girotto, Luciano Salvadori, Carla Sbicego, Luisa Giacomini, Maurizio Sue, Massimo Manica

progetto e realizzazione graficaclaim brand industry claim.it

segreteria e sede operativaVia Newton 21, 31020 Villorba (TV), telefono 0422.628711, fax [email protected]

editoreGruppo Eurosystem Sistemarca Srl, via Newton 21, 31020 Villorba (TV)

per la pubblicitàGruppo Eurosystem Sistemarca Srl, via Newton 21, 31020 Villorba (TV), telefono 0422.628711

stampaMediagraf SpaViale della Navigazione interna 89, 35027 Noventa Padovana (PD)

Nell’eventualità in cui immagini di proprietà di terzi siano state qui riprodotte, l’Editore ne risponde agli aventi diritto che si rendano reperibili.

Porrà inoltre rimedio, su segnalazione, a eventuali involontari errori e/o omissioni nei riferimenti.

99EMC2, EMC, and the EMC logo are registered trademarks or trademarks of EMC Corporation in the United States and other countries. © Copyright 2012 EMC Corporation. All rights reserved.

TRANSFORMS ITCLOUD