Logyn - password not required
-
Upload
eurosystem -
Category
Documents
-
view
260 -
download
0
description
Transcript of Logyn - password not required
1
Dicembre 2012
LUNGO LA VIADELL’INNOVAZIONEI PASSI CHE FANNO LA STORIA DELL’IT
incontri con scenari stile libero
4
6
51
42
26
4
ALESSANDRO VARDANEGA MATERIALE, IMMATERIALE, SOCIALE
PRESENTE E FUTURO DELL’INDUSTRIA TREVIGIANA
NICOLA CINIEROIBM: STORIA DI UN SECOLO
DI TECNOLOGIA E CONOSCENZA
STEFANO MORIGGI PENSARE CON LE MACCHINE!
È LA TECNOLOGIA CHE CI RENDE UMANI...
VINCENZO COSENZA SOCIAL MEDIA ROI
incontri con
scenari
5
editoriale di Gian Nello Piccoli
incontri con ALESSANDRO VARDANEGA
Materiale, immateriale, socialeENZO RULLANI
Le reti d’impresa nella nuova eraNICOLA CINIERO IBM: storia di un secolo di tecnologia e conoscenza
focusLungo la via dell’innovazione
scenariC’è futuro per l’ICT in Italia? STEFANO MORIGGI
PENSARE CON LE MACCHINE!
La tecnologia entra nel mondo della fotografi a storicaSocial Media RoiFisco & Lavoro: Riforma ForneroD.L. Crescita
storiesCome nasce un caso di successo Recus: l’IT che fa la differenza Automazione dei processi
spazio a yStrade libere di crearsi
stile libero CONOSCIAMOCI
Lavorare con IT e ICT
MEDICINA E LAVORO
Nanotecnologie e nanomaterialiIL VIAGGIO
Trekking 2.0PERCORSI
Il personaggio Luca GheserSPORT
Innovazione per il nuovo professionistaCUCINA
L’acqua di mare & l’erba voglioUFFICIOVERDE
La Stella di Natale10 TITOLI
La tecnologia in borsaA PIÙ VOCI
New Media per l’innovazione socialeFUMETTI
La matita di Sue
3
6
22
42
1654
7011
26
37 72
77
81
84
88
91
92
94
97
5165
30
3460
77
84
ALBERTO PELLIZZARI IL VIAGGIOTREKKING 2.0
MASSIMO SCARPA SPORTINNOVAZIONE PER IL NUOVO PROFESSIONISTA
stile libero
SOMMARIO
6
DICEMBRE 2012
La Terza Rivoluzione Industriale ha, di fatto, introdotto una nuova “cultura” d’impresa. La provincia di Treviso, che in passato fu l’Offi cina del Nordest, come ha assimilato questo cambiamento?Vorrei partire dal titolo di un appuntamento di qualche anno
fa del Gruppo Giovani Imprenditori di Unindustria Treviso
che bene esemplifi ca il senso del cambiamento in atto nelle
nostre imprese: “Dalla fabbrica all’industria”. La rifl essione,
anticipatrice dell’attuale periodo di cambiamento, evidenziava
come l’economia della “fabbrica”, intesa come manifattura
in senso stretto, si spostasse per effetto dei processi di
globalizzazione sempre più nelle Economie emergenti a basso
costo del lavoro.
Il nostro sistema produttivo è, e sarà, chiamato a
valorizzare al massimo la propria elevata specializzazione
trasformandola in “industria” in senso compiuto, quale luogo
di accumulazione e impiego della conoscenza, capace quindi
di guidare processi manifatturieri, qui e altrove, inseriti in
un processo complesso che inizia con la fase di ideazione,
progettazione, design, industrializzazione per arrivare alla
comunicazione, commercializzazione e vendita.
Capitale umano e conoscenza sono quindi le leve dello
sviluppo presente e futuro di questo territorio, che non dovrà
però dimenticare la cultura della “fabbrica”, ovvero la capacità
manifatturiera che rimane il nostro asset distintivo.
L’evento era del 2004, oggi le aziende trevigiane come rispondono a questa “nuova cultura” che vede strategici nella catena produttiva gli elementi della conoscenza e del capitale umano?Fondazione Nordest afferma che anche in una “tradizionale”
media impresa metalmeccanica del nostro territorio le
persone impiegate nei reparti produttivi non sono più la
maggioranza della forza lavoro, mentre un buon 50% dei
dipendenti è rappresentato da fi gure professionali addette a
funzioni “terziarie”. È l’industria, per riprendere quanto detto,
che diversamente dalla “fabbrica” ormai comprende al suo
interno numerose funzioni legate alla conoscenza che prima,
almeno nelle imprese medio – piccole, erano sicuramente
meno presenti.
L’impresa è oggigiorno attenta a ciò che sta a “monte” e a
“valle” della catena produttiva, cioè è chiamata a presidiare
una catena del valore ben più lunga e complessa rispetto al
passato.
6
Intervista ad Alessandro Vardanega, presidente di Unindustria Treviso
PRESENTE E FUTURO DELL’ INDUSTRIA TREVIGIANA
MATERIALE,IMMATERIALE, SOCIALE
7
incontri con
“In passato, alcuni fattori hanno permesso una crescita straordinaria: ad esempio la propensione al rischio perché il contesto sociale era ancora agli inizi e poteva rilanciare”
7
“Oggi, l’impresa presidia ciò che sta a ‘monte’e a ‘valle’ della catena produttiva: ovvero la capacità di progettazione, ideazione e il rapporto con il mercato”
TREVISO DUEProgetto dell’architetto svizzero
Mario Botta. Il complesso
ospita istituzioni pubbliche
e private, abitazioni e spazi
commerciali. Dal 2011 è sede
di Unindustria Treviso
8
DICEMBRE 2012
Quali sono questi aspetti? Un tratto che accomuna aziende eccellenti è il fatto che
presidiano quella parte della catena che sta a “monte”, ovvero
la capacità di progettazione, ideazione, design. Questi sono gli
elementi che creano funzioni immateriali.
E poi, a “valle”, quindi intendo il rapporto con il cliente finale
che spesso in passato è stato vissuto in maniera indiretta
perché vendevamo a grossisti e facevamo i contoterzisti,
mentre oggi va seguita attentamente la relazione con il
consumatore perché ti permette di intercettare e capire i
bisogni dell’aspetto produttivo.
Il valore si colloca, quindi, molto più che in passato nella
parte iniziale e finale del ciclo pur rimanendo, naturalmente,
essenziale la componente manifatturiera in senso stretto, che
è eccellenza e vocazione del nostro territorio.
È una manifattura che si va sempre più terziarizzando così
come, in parallelo, i servizi si vanno “industrializzando” nel
creare una sintesi virtuosa e competitiva nei mercati.
Il nuovo valore diventa l’immateriale…
Nel percorso evolutivo diventa importante il fatto di creare
“valore” nei prodotti anche oltre il dato produttivo, pure
essenziale, comunicandone ad esempio il dato di innovazione,
il legame con il territorio, la qualità estetica e il design.
Tecnologia è conoscenza?Abbiamo attraversato in questi ultimi vent’anni almeno
due grandi cambiamenti che segnano una discontinuità
irreversibile rispetto al passato: l’apertura globale dei mercati
e la diffusione delle tecnologie in particolare quelle ICT. Tutto
questo ha trasformato l’organizzazione e i processi aziendali.
Inoltre, le tecnologie di comunicazione fanno accedere
agevolmente a conoscenze presenti in tutto il mondo.
Questo ha anche messo in discussione il concetto di
distretto, su cui si è fondata una parte importante del nostro
sviluppo industriale. Un tempo, infatti, le conoscenze su un
determinato comparto produttivo erano patrimonio proprio del
Alessandro Vardanega, 49 anni, sposato e padre di Francesco, è presidente di Industrie Cotto Possagno S.p.A., azienda del comparto laterizi e coperture.
Laureato in Economia Aziendale a Ca’ Foscari, ha maturato una decennale esperienza professionale in una primaria società internazionale di organizzazione e revisione contabile prima di assumere la responsabilità dell’azienda di Possagno, nata nel 1998 dall’unificazione di cinque imprese tra le quali quella che, da più generazioni, è della famiglia dello stesso Vardanega.
Alessandro Vardanega ha, inoltre, maturato una significativa esperienza associativa. In ambito nazionale, quale presidente, dal 2002 al 2006, dei Produttori Italiani di Coperture e tuttora come Vicepresidente di Andil, l’Associazione nazionale degli industriali dei laterizi aderente a Confindustria. In ambito trevigiano è stato, prima, presidente del Gruppo Laterizi – Calce – Cemento e, successivamente, vicepresidente di Unindustria Treviso con delega al Territorio, Utilities e Fonti Energetiche. È stato anche presidente di Unint, il consorzio promosso dall’Associazione per favorire le collaborazioni e aggregazioni tra imprese. È stato presidente di Proetica, l’associazione promossa in provincia di Treviso per lo sviluppo di modelli avanzati di responsabilità sociale d’impresa. Il 24 maggio 2008 è stato eletto presidente di Unindustria Treviso e riconfermato nel 2012 per un ulteriore biennio. È componente della giunta e dal 2012 anche del consiglio direttivo di Confindustria.
8
9
distretto, dove occorreva esserci e inserirsi.
Oggi invece, grazie alla rete, si può disporre di conoscenze
“originali”, anche se sviluppate in contesti lontani, a costi
molto inferiori rispetto a prima.
Un esempio molto pratico è il Gps usato ormai dovunque.
La possibilità di accedere a questi saperi è quindi essenziale
per le imprese e la Comunità. Per questo la banda larga è
un’infrastruttura altrettanto strategica di un’autostrada se non
di più. Anche su questo, purtroppo, scontiamo un ritardo che
si aggrava di anno in anno.
Il passo successivo è un argomento a Lei caro:Questa fase di crisi e di forte trasformazione rende
indispensabile che si ricreino le condizioni per un nuovo
Patto Sociale tra imprese e territorio. Occorre ripensare a
quanto avvenuto nel Dopoguerra quando questa comunità
ha avviato una grande stagione di sviluppo, che ha portato
benessere e opportunità, fondata su valori e obiettivi condivisi.
Erano condivisi, ad esempio, la propensione al rischio – in un
contesto sociale comunque povero –, la grande laboriosità,
il senso di responsabilità e di appartenenza. Eravamo una
popolazione giovane in un territorio con ampia disponibilità
di spazio: questo ci ha permesso di diventare la “fabbrica”
non solo delle aree più sviluppate di questo Paese ma anche
dell’Europa e oltre.
Raggiunto il benessere, e dandolo evidentemente per
scontato, si è passati a un approccio indifferente nei confronti
delle ragioni delle imprese, viste, quando va bene, solo
come strumento di arricchimento personale e non come
“infrastruttura sociale”.
Questo periodo di pesante crisi ci pone adesso di fronte a
una fase di cambiamento e forte discontinuità, pur partendo
da condizioni sicuramente migliori rispetto al passato. Anche
in questo caso occorre condivisione e alleanza tra imprese
e comunità per non rischiare il declino. Ho ripetuto in più
occasioni che senza impresa non c’è lavoro, senza lavoro non
c’è famiglia e senza famiglia non c’è società.
Interazioni quindi anche con le istituzioni:La competitività territoriale ha, come detto, la sua premessa
fondamentale nella condivisione tra imprese e Comunità, e a
questa devono seguire provvedimenti coerenti da parte delle
istituzioni, locali e nazionali, e dagli altri soggetti che operano
per lo sviluppo.
Potremmo diventare ben più attrattivi per gli investimenti se
vi fosse un sistema normativo più semplice e snello, un fisco
che potesse essere incentivo forte per le nuove iniziative
(come avviene in molti Paesi), costi dell’energia che non
fossero più alti del 30% rispetto al resto d’Europa.
E occorre conoscere com’è effettivamente l’impresa, che
nei mercati globali opera quotidianamente, e comprendere
ad esempio il valore di quell’immateriale (marchi, brevetti,
reti commerciali..) che non viene adeguatamente pesato
dal sistema finanziario nella determinazione del credito alle
aziende.
Per chiudere la nuova impresa e il ricambio generazionale.Infine, nel ripensamento della strategia aziendale c’è anche
un inevitabile impatto nell’organizzazione dell’impresa.
Anche per quanto riguarda il passaggio generazionale, tema
dibattuto a lungo e considerato un fattore di rischio per il
sistema imprenditoriale di questo territorio.
In realtà, il ricambio generazionale è già in corso, spesso
determinato anche dai processi di cambiamento in atto.
Possiamo rilevare come siano numerosi gli esempi di
successo, in cui la nuova generazione si affianca a quella
dei padri garantendo continuità e la tradizionale laboriosità,
ma apportando anche nuove competenze e nuovi modelli
organizzativi in azienda, che vedono il coinvolgimento
maggiore dei collaboratori e la delega di funzioni di
responsabilità a figure manageriali che operano insieme
all’imprenditore.
“Nel percorso evolutivo diventa importante il fatto di creare ‘valore’ nei prodotti […]. Si deve dare al manufatto i segni di riconoscibilità e di appartenenza a una comunità”
“I grandi cambiamenti, che la crisi ha accelerato, sono l’apertura dei mercati e la diffusione delle tecnologie. Queste ultime ti permettono di gestire in modo più efficiente i processi aziendali”
“L’impresa deve poter contare in una condivisione con la Comunità. […]C’è bisogno di rifondare un patto sociale in un rapporto di scambio che deve essere reciproco”
9
incontri con
10
DICEMBRE 2012
Potenti e completi, flessibili e affidabili
Archiviazione, sorveglianza video, virtualizzazione e soluzioni cloudProtezione, gestione e condivisione dei file importanti. La gamma di unità di storage di rete Iomega® StorCenter™ offre condivisione dei contenuti professionale e protezione dei dati avanzata. Con una capacità fino a 48 TB, la gamma Iomega® StorCenter™ garantisce prestazioni, velocità e affidabilità migliori di sempre.
©2012 Iomega Corporation. Tutti i diritti riservati. Iomega, StorCenter e il logo stilizzato “i” sono marchi o marchi registrati di Iomega Corporation negli Stati Uniti e/o in altri Paesi. I nomi di altri prodotti, marchi o società menzionati nella presente documentazione sono marchi o designazioni dei rispettivi proprietari www.iomega.com.
* Solo su alcuni modelli www.iomega.com
- Prestazioni elevate con Intel® Celeron, Intel Atom o il
nuovo processore Intel Quad-Core Xeon
- Una soluzione conveniente per la virtualizzazione dei
server, certificata per Windows®, VMware® e Citrix®
- Tecnologia cloud integrata
- Ambienti PC, Mac e Linux
- Soluzioni integrate per la gestione e l’archiviazione dei
contenuti di sorveglianza video: centinaia di modelli
di videocamere IP supportati.
- McAfee VirusScan Enterprise* integrato
- Installazione in tre passaggi facile e veloce attraverso
un’interfaccia Web intuitiva
- Protezione dei dati avanzata con supporto RAID
- Capacità massima di 48 TB
11
A guardare semplicemente i grafi ci dell’andamento del giro
d’affari legato all’industria delle It e Ict in Italia ci sarebbe
poco da stare allegri. Dal 2010 al 2012 il business del Global
digital market, limitatamente ai primi nove mesi dell’anno,
secondo i dati Assinform, è sceso da 71 milioni di euro a
meno di 69 e le previsioni dicono che scenderà almeno di un
altro milione nel 2013.
Le prospettive sugli investimenti sulle Ict per servizi non
residenziali, poste a confronto con quelli degli altri paesi del
mondo, pone poi l’Italia in posizioni imbarazzanti, al di sotto di
quelli di Spagna, Portogallo e Corea.
Il tema di fondo da tenere ben presente, tuttavia, è che
questo settore non è come tutti gli altri, nel senso che
l’oggetto da studiare, nelle analisi di mercato e nelle
proiezioni di evoluzione, è mobile, quasi sfuggente, capace di
cambiare il proprio perimetro in tempi brevissimi e di relegare
domani nell’area del “tradizionale” ciò che oggi appare
altamente innovativo.
E qui inizia già una prima importante distinzione che, anche in
Italia, vede trend divergenti. Se il segmento tradizionale – cioè
quello dell’hardware, dell’assistenza tecnica, dei software
non “open source” – denota una diminuzione fra il 2011
Il Mercato richiede nuovi investimenti e sostegno dal Governo
Presentati i dati Assinform 2012 sull’andamento del mercato IT e ICT in Italia. Un mercato che nel nostro
Paese sarà condizionato in modo decisivo da due fattori che non dipendono dai player privati del settore,
vale a dire la propagazione delle reti a larga banda sul territorio e la concretizzazione
dell’ “Agenda digitale” del Governo (dati Assinform 2012).
C’È FUTUROPER L’ICT IN ITALIA?
scenari
GIANNI FAVERO
12
DICEMBRE 2012
e il 2012 di almeno 2,5 punti percentuali, quella correlata
alle componenti aggiuntive e innovative, che corrisponde
grosso modo alla sesta parte del fatturato complessivo,
evidenzia invece un aumento di quasi il 7%. Si tratta, in
estrema sintesi, di tutto ciò che ha a che fare con sistemi di
connessione in mobilità, con il “cloud” – vale a dire, sempre
semplifi cando, l’affi damento dei dati a server decentrati
accessibili ovunque via web – con servizi di produzione e
di adeguamento di software su piattaforme libere e, per
quanto riguarda l’hardware, la fetta che comprende il mondo
di tablet e smartphone. Fra la prima metà del 2011 e il
corrispondente periodo di quest’anno, infatti, il mercato dei pc
ha perso il 14,7% per il comparto dei desktop e ben il 18,6%
per i notebook, area che è stata sensibilmente erosa dal
contestuale incremento dei tablet, la cui vendita in Italia ha
fatto registrare in un anno un corposo +77,1%.
“Oltre alla connessione in mobilità, cioè uno dei capisaldi
della grande sfi da – rileva Giuseppe Bincoletto, presidente
del Gruppo Terziario Innovativo di Unindustria Treviso – l’altro
grande aspetto dello scenario dell’immediato futuro sarà
la transizione da software e server chiusi a componenti
“standardizzate” ed aperte. Facciamo un esempio: i gestionali
aziendali da “cassaforte” dei dati, i più moderni diventano
banca delle informazioni se non addirittura bottega dei servizi
aziendali, con cui l’azienda non solo risponde alle richieste
commerciali, ma spesso le stimola proponendo servizi e
opportunità.
Oggi, grazie all’introduzione di standard internazionali, i
sistemi si “parlano” sempre di più. Questo signifi ca meno
costi in digitazioni e licenze e una grande fl uidità nei processi,
specie in ambito globale”.
13
Sullo sfondo, in ogni caso, rimane il fatto che il mercato
complessivo delle It/Ict in Italia sarà condizionato in modo
decisivo da due fattori che non dipendono dai player privati
del settore, vale a dire la propagazione delle reti a larga
banda sul territorio e la traduzione in realtà delle buone
intenzioni dell’“Agenda digitale” del Governo.
“Per le autostrade informatiche, in primo luogo la
penetrazione della fi bra ottica, siamo all’età della pietra –
ammette Bincoletto – mentre sulla digitalizzazione delle
funzioni nei rapporti fra cittadini/imprese e amministrazione
pubblica, c’è una grande attesa.
Speriamo ardentemente che non venga delusa, perché il
modello “smart city” che riassume tutti questi fl ussi è naturale
per i nativi digitali, ovvero una importante e crescente parte
dei cittadini attivi in questo Paese”.
L’infrastrutturazione per Internet veloce, intanto, procede ma
non rapidamente come atteso, tanto che più di qualcuno
pronostica il sorpasso della banda larga via cavo da parte
delle reti radio dei vari operatori telefonici che, ormai,
promettono velocità da sogno anche via etere.
Ma attenzione a non fare della velocità l’unico totem.
“Conviene andare a passi graduali. Non possiamo pensare
– conclude il presidente del Gruppo Terziario Innovativo degli
industriali trevigiani – a zone in cui i dati viaggiano a 100 Mb
ed altre no, perché il valore vero è la diffusione capillare, e la
velocità del sistema la dà il tratto più lento. Realisticamente,
con linee a 3 Mb reali disponibili veramente ovunque, ci
sarebbe da esser contenti; è terribile continuare invece con
questa diffusione a macchie di leopardo che soddisfa appena
poco più della metà del territorio”.
scenari
informazione pubblicitaria
Moltiplicata per 3 la velocità dei dati in rete geografi ca WANE per 20 la velocità del Disaster RecoverySilver Peak, società specializzata nelle soluzioni
di ottimizzazione delle WAN è stata recentemente
nominata Leader nel Gartner Magic Quadrant.
L’azienda sviluppa appliance fi siche e virtuali progettate
per ottimizzare le prestazioni della WAN riducendo allo
stesso tempo i costi. Grazie all’approccio esclusivo adottato
vengono assicurati altissimi livelli di scalabilità e fl essibilità
per supportare in modo strategico importanti iniziative IT,
come il consolidamento dei data center, la migrazione dei
dati, le procedure di disaster recovery, la centralizzazione e la
virtualizzazione di server e desktop.
Da prove sul campo si dimostra una eccellente soluzione per
risolvere problemi di larghezza di banda e di latenza e per
migliorare le prestazioni e l’affi dabilità della replica dei
dati, il backup e il disaster recovery attraverso una rete WAN.
Prodotto di punta dell’azienda è la Virtual Acceleration
Open Architecture (VXOA), software pluripremiato per
l’ottimizzazione della WAN. Le tecnologie alla base delle
VXOA e in grado di accelerare le applicazioni aziendali in
modo effi cacie e allo stesso tempo affi dabile sono: Network
Memory™, tecniche di accelerazione della rete TCP,
tecniche MPLS e VPN IP per preservare l’integrità della
rete; e policy effi caci di Quality of Service (QoS) per assicurare
l’assegnazione di priorità appropriate alle applicazioni e
l’allocazione di risorse di rete adeguate.
La soluzione Silver Peak Network Memory™ esamina tutto
il traffi co inviato tra client e server, archiviando le informazioni
come istanza locale nelle appliance Silver Peak. Le informazioni
ripetitive vengono distribuite localmente invece di essere inviate
attraverso la WAN, migliorando le prestazioni delle applicazioni
e l’utilizzo della WAN.
I problemi comuni di distribuzione dei pacchetti associati alle
tecnologie WAN condivise vengono risolti attraverso l’uso di
tecnologie MPLS e VPN IP che agiscono in tempo reale
e includono, ad esempio, Forward Error Correction (FEC)
adattiva e Packet Order Correction (POC) per risolvere il
problema dei pacchetti persi o fuori ordine.
Grazie alle varie tecniche di accelerazione TCP per
mitigare l’impatto della latenza della WAN, ad esempio il
dimensionamento regolabile delle fi nestre e gli avvisi selettivi,
è possibile risolvere il problema intrinseco della verbosità
(“chattiness”) che può altrimenti compromettere le prestazioni
delle applicazioni attraverso una WAN.
Infi ne, tecniche avanzate di Quality of Service (QoS) danno
priorità al traffi co e garantiscono la disponibilità di risorse di
rete. La Virtual Acceleration Open Architecture (VXOA),
oltre ad essere utilizzata in tutti i prodotti NX, VX e VRX di Silver
Peak, include funzioni avanzate anche per l’integrazione con
prodotti di terze parti, come router, switch, server e array di
storage.
Per maggiori informazioni
su Silver Peak
consultate il sito italiano
http://www.silverpeak.it/
15
Nel corso di questi difficili anni Unindustria Treviso è stata pro-
tagonista di una grande trasformazione che ha seguito due
grandi direttici: la ricerca di una sempre maggior capacità di
comprensione delle esigenze espresse dalle imprese e la messa
a punto di una nuova generazione di servizi. Per sottolineare
questo impegno nasce il marchio “Unindustria c’è”. Non si tratta
di una semplice campagna di comunicazione, ma di un impegno
morale e operativo che l’Associazione assume nei confronti di
ciascuna impresa associata. “Unindustria c’è” è anche lo slogan
e il segno grafico attraverso il quale verranno identificate le
iniziative di promozione e di informazione riferite ai nuovi servizi.
In un momento storico, in un mercato e in una società segnati
dalle incertezze, come anche dalle opportunità, Unindustria c’è!
Gli imprenditori trevigiani ci possono contare.
una opportunità da condividere
16
DICEMBRE 2012
I Passi che fanno la Storia dell’IT
COPERTINA
The Economist
aprile 2012
16
Sulla copertina del numero dell’Economist c’è un uomo seduto a una scrivania, intento a lavorare con
tastiera e mouse, collegati a uno stabilimento industriale in miniatura dal quale escono automobili,
aeroplani e utensili. Il disegno illustra come si stia realizzando in questi anni la 3° rivoluzione industriale.
Una nuova “era” – cosparsa di idee, prove, e scelte – che si apre a questo millennio, nell’epoca della
digitalizzazione, con un universo in accelerazione e, quindi, con signifi cativi mutamenti dei sistemi
produttivi e infrastrutturali, e soprattutto culturali. (Il Post, 2012)
LUNGO LA VIA DELL’ INNOVAZIONE
18
DICEMBRE 2012
Dal telefono di Antonio Meucci di fi ne 800, a Guglielmo
Marconi che apre l’era del wireless con un’apparecchiatura
capace di inviare segnali intelligibili a una distanza di circa
2400 km, passando per il primo calcolatore elettronico a
programma memorizzato di John Neumann, e per la prima
calcolatrice elettronica italiana chiamata Pisana, incrociando
il primo personal computer dell’italianissimo Pier Giorgio
Perotto nel ’65, assistendo all’introduzione nel mercato del
microprocessore a opera di Federico Faggin nel ’70, e alla
progressiva convergenza e integrazione di informatica e
telecomunicazioni.
Fino ad arrivare, negli anni 80, al protocollo http (HyperText
Transfer Protocol) e, nel successivo decennio, ai providers,
fornitori commerciali di accesso alla rete.
In un secolo di storia abbiamo vissuto un’accelerazione
considerevole nello sviluppo della tecnologia, con ricadute
rilevanti nel contesto produttivo, infrastrutturale, culturale
e sociale. Eppure i cambiamenti sono ancora in atto: basta
pensare all’impressionante evoluzione fatta nell’ambito
della telefonia, così come nelle reti multimediali interattive
che saranno su cavo. Eppure, il vero cambiamento è quello
dell’ambiente culturale: in questa nuova epoca, infatti,
si parla, non solo di comunicazione, ma sopratutto di
trasparenza delle informazioni e di partecipazione. Mutano
gli scenari e i rapporti di interscambio di informazioni e di
educazione.
Nel 2011 il 52,2% della popolazione di 3 anni e più utilizza
il personal computer e il 51,5% della popolazione di 6 anni
e più naviga su Internet. Gli utenti di Internet che hanno
utilizzato la rete prevalentemente per spedire o ricevere
e-mail sono l’80,7%, e per cercare informazioni su merci e
servizi il 68,2%.
Le tecnologie, quindi, sono oggi vere e proprie leve
strategiche e sociali. Nell’industria l’impatto della tecnologia
porta con sé una nuova gestione delle attività aziendali.
Non a caso, in un suo studio Richard Nolan1 sostiene
che l’information technology rappresenta la leva della
trasformazione organizzativa, l’elemento strategico il cui
sviluppo può essere suddiviso in tre macro periodi: l’era del
Mainframe tra gli anni ’40 e ’60, in cui il “sapere tecnologico”
focus
19
e la gestione degli strumenti rimane in mano ad un numero
ristretto di persone specializzate e non esiste un’interazione
con l’utenza.
In seguito, fi ne anni ’60, si passa all’era del così detto “Stand
Alone”, cioè del personal computer dotato di capacità propria
di elaborazione, con una maggiore autonomia nella gestione
dei dati e delle informazioni. Infatti, la maggiore accessibilità ai
dati e agli strumenti sposta l’attenzione delle aziende verso il
mondo dell’ICT innestando una nuova rifl essione nei confronti
dello sviluppo e sulla necessaria convergenza del sapere
manageriale con quello tecnologico. Infi ne, con l’era della Rete,
nella seconda metà degli anni ’80, diventa diffusa la possibilità
di connettere i personal computer all’interno di una struttura
(rete locale, o rete del client-server): si tratta di un nuovo
approccio di condivisione. In conclusione, Internet negli anni
90 esplode in tutte le sue sfaccettature.
Da quel periodo, comincia una profonda rifl essione del ruolo
della tecnologia dell’informazione anche in azienda: dalla
semplice gestione delle attività, diventa una leva in base alla
quale l’impresa ripensa in maniera radicale il proprio modo di
fare business e quindi a volte la propria mission.
La tecnologia dell’informazione è un concetto fondamentale
della terza rivoluzione industriale che ha dato vita alla Società
dell’Informazione. Siamo di fronte, adesso, da una parte a
un nuovo vigoroso clima di fi ducia intorno alla scienza e alla
tecnica che alimenta forme di “neopositivismo”, ma anche
aspre critiche, dall’altra rischiamo di soffrire il problema del
“digital divide”, che mette in contrapposizione un gruppo
ristretto di persone in grado di governare le nuove tecnologie a
una massa che rischia di non poter esercitare completamente i
propri diritti di cittadinanza. E allora si inseriscono interrogativi
e dibattiti sui quali la Comunità dell’era tecnologica deve
dialogare, ricordandosi che esiste anche una “responsabilità
sociale” per via di questa nuova gestione di dati.
1Strategic Information Management - Challenges and
strategies in managing information systems , Robert D.
Galliers and Dorothy E. Leidner - Third Edition - Butterworth
Heinemann; Nolan, R.L. 2001
20
DICEMBRE 2012
TECHNOLOGICAL DISCONTINUITY
OR
GA
NIZ
ATIO
NA
L L
EA
RN
ING
1960 1975 1980
*
*
STEPB
DATA PROCESSING ERA MICRO ERA
20
1895
1945
1948
1955
Guglielmo Marconi apre l’era del wirelessDopo numerosi esperimenti, Marconi mise a punto un’apparecchiatura con cui riuscì a inviare segnali intellegibili a
una distanza di circa 2.400 km, usando un’antenna direzionale. Fondò a Londra la Marconi’s Wireless Telegraph and
Signal Company, nella quale lavorarono diversi scienziati a un ulteriore perfezionamento dei progetti.
John von Neumann e la nascita del computerPrese avvio il progetto EDVAC (Electronic Discrete Variable Computer) sotto la guida di John von Neumann. Nacque,
così, il primo progetto di calcolatore elettronico a programma memorizzato.
invenzione del transistor che rende possibile la miniaturizzazione degli apparati di telecomunicazioneL’età dell’elettronica dei semiconduttori iniziò nel 1948 con l’invenzione del transistor presso i laboratori americani
della Bell Telephon. In pochi anni l’introduzione del transistor rivoluzionò il mondo dell’elettronica, aprendo la strada
alla miniaturizzazione degli apparecchi elettrici. Si diffuse, allora, la produzione di televisori, radio, elettrodomestici.
nasce la calcolatrice elettronica PisanaLa CEP è la prima calcolatrice elettronica italiana per le ricerche scientifi che, nata per suggerimento di Enrico Fermi.
Le province di Pisa, Lucca e Livorno nel 1953 misero a disposizione la somma di 150 milioni di lire per la realizzazione
di un sincrotrone e per progettare e costruire un calcolatore elettronico.
21
Fonte: AICA, Associazione italiana informatica e calcolo distribuito.
The stages theory of growth. Fonte: R.L. Nolan 2001
1995
*
2010
YSTEP
NETWORK ERA
21
focus
1965
Anni ’70
Anni ’80
Anni ’90
nasce il personal computer dell’italiano Pier Giorgio PerottoQuarant’anni fa, nelle sale dell’esposizione Bema Show di New York, veniva presentato il modello Programma 101.
Si chiamava la “perottina” dal nome del suo inventore Piergiorgio Perotto. Si trattava di un calcolatore da scrivania, con
stampante integrata, con design avveniristico per l’epoca.
le tecnologie dell’informatica vengono mutuate dalle telecomunicazioni, siamo agli albori dell’ICTLa trasmissione di informazioni tra calcolatori connessi in rete fra loro, avviata negli anni ’60, costituì fenomeno di grande
portata pratica: la progressiva convergenza e integrazione di informatica e telecomunicazioni. Questi due settori, quindi,
trovarono un punto di convergenza, dopo che si erano sviluppati per lungo tempo indipendentemente l’uno dall’altro.
avvento del world wide webWWW: presso il CERN di Ginevra, fu defi nito il protocollo HTTP (HyperText Transfer Protocol) che permetteva, tramite
dei collegamenti (link), la lettura dei documenti (che possono contenere anche risorse di tipo multimediale) in modo non
sequenziale (ipertestuale).
compaiono i providers, fornitori commerciali di accesso alla reteLe origini del fenomeno dei portali e l’introduzione di tale termine nel lessico dei nuovi media risalgono al 1997. In pochi
anni il Web, da strumento esoterico per tecnofi li, si era trasformato in un fenomeno di massa.
22
DICEMBRE 2012
Intervista a Enzo Rullani, professore di Economia della Conoscenza e di Strategie di impresa presso la Venice International University
LE RETID’IMPRESANELLA NUOVA ERA:UNA NUOVACULTURA
La nuova economia della conoscenza: sviluppi e prospettive futureLe reti d’impresa vengono spesso pensate come rimedio
a una forma specifi ca di “debolezza” che caratterizza il
capitalismo industriale italiano, frammentato in una miriade
di piccole e piccolissime imprese, fi nora aggregate, grazie
al collante territoriale, in un centinaio di distretti industriali,
specializzati nei vari prodotti del made in Italy.
Aggregando le imprese, senza far venire meno la loro
autonomia individuale, la rete consentirebbe di prendere
due piccioni con una fava: mantenere l’ossatura dell’attuale
assetto produttivo, basato sull’imprenditorialità diffusa;
realizzare, grazie alla rete, quelle economie di scala e di
specializzazione (reciproca) che sono precluse alle piccole e
piccolissime imprese.
Tutto vero, tranne che per un particolare: le imprese che
fi nora si sono maggiormente spinte nella sperimentazione
di forme di alleanza, di cooperazione e di specializzazione
reciproca tra imprese sono state le grandi e grandissime.
Sia nell’organizzazione delle fi liere sia nell’affrontare problemi
nuovi, per i quali è utile cooperare con altri. In realtà, la
proliferazione di queste alleanze e forme di co-innovazione e
cooperazione mette in evidenza il fatto che la rete di imprese
– che somma competenze e risorse complementari – non
è solo un rimedio alla debolezza della piccola scala, ma è la
forma tipica di organizzazione richiesta dal nuovo paradigma
emergente: il capitalismo globale della conoscenza.
Che impone una priorità: il sistematico ri-uso della
conoscenza altrui, in tutti i casi in cui si tratta di acquisire
competenze che non si hanno, di velocizzare l’apprendimento,
di estendere il proprio raggio di azione, di accreditare
signifi cati standard e certifi cazioni utili.
Non si tratta di una prosecuzione delle traiettorie coltivate in
passato, ma di una vera a propria discontinuità. Si tratta di
mettere consapevolmente, e senza rimpianti, una distanza tra
passato e futuro, che rivede criticamente il primo e prepara
intenzionalmente il secondo. Un passaggio diffi cile, ma che
va fatto se si vuole capire, organizzare, proiettare il nostro
mondo dalla vita e dalla produzione verso il nuovo paradigma
con cui dobbiamo fare i conti. Trovando anche il vocabolario
giusto, che consenta di prefi gurare e raccontare la transizione
da compiere.
23
Lei pensa che questo vocabolario manchi e sia dunque ancora da mettere a punto?Certamente. È ormai diventato un luogo comune dire “viviamo
nella società della conoscenza” o “adeguiamo il nostro modo
di lavorare alle esigenze dell’economia della conoscenza”.
Affermazioni vere e importanti, ma di cui spesso sfugge il
contenuto: che cosa signifi ca, infatti, vivere nella società della
conoscenza o lavorare nell’economia della conoscenza?
Se la conoscenza è diventata la principale risorsa produttiva,
e dunque il motore che genera il valore e presidia la
competitività, è anche vero che – salvo poche eccezioni
– facciamo fatica a renderci conto dei cambiamenti che
tutto ciò comporta. Abbiamo dunque bisogno di guardare
anche all’economia del valore con nuovi occhi, se vogliamo
riconoscere e padroneggiare il nuovo, già presente nella
realtà.
Pensiamo solo a questo: il lavoro che una volta era lavoro
energetico – un lavoro muscolare, di fatica, che trasforma la
materia prima in prodotto fi nito – è ormai diventato nella sua
quasi totalità (anche in fabbrica) un lavoro di tipo cognitivo.
Ossia lavoro che non trasforma direttamente la materia, ma
produce conoscenze (informazioni, idee, decisioni, relazioni,
signifi cati ecc.). E sono queste conoscenze a mettere in
funzione le macchine o gli altri strumenti cui è delegata la
trasformazione materiale degli oggetti e degli ambienti in cui
viviamo.
Lo stesso vale per il capitale: una volta era quasi totalmente
impiegato in assets materiali (edifi ci, macchine, magazzino
di materie e prodotti fi niti); oggi è impiegato sempre più
spesso nella formazione di assets immateriali (conoscenze,
tecnologie, brevetti, soluzioni, relazioni, impegni ecc.). Senza
contare che anche il valore delle macchine ha perso relazione
con il valore dei materiali impiegati per costruirle e dipende
invece, in gran parte, dalle conoscenze più o meno innovative,
più o meno esclusive, che vi sono incorporate. I fattori
produttivi, dunque, hanno assunto natura cognitiva.
E lo stesso vale per i processi che li impiegano, e per il
consumo che generano alla fi ne della fi liera. Anche questo
consumo vale in funzione dei signifi cati e delle esperienze
emotive che lo accompagnano, non solo per i processi
materiali che contiene.
Che conseguenze operative ha questa nuova centralità della conoscenza nella produzione?Questo spostamento della produzione (di valore) dal versante
materiale a quello immateriale ha grandi conseguenze sul
modo con cui deve essere organizzato il sistema produttivo,
per creare ricchezza ed acquisire vantaggi competitivi rispetto
ad altri. La nuova giovinezza delle reti tra imprese discende,
appunto, da questa premessa.
Le reti servono infatti a sfruttare al meglio una caratteristica
fondamentale dell’immaterialità: la conoscenza è una risorsa
che – al contrario delle risorse materiali – non si consuma
con l’uso e che può essere riprodotta a costo zero (se
perfettamente codifi cata) o a costi comunque largamente
inferiori ai costi di (prima) produzione, nel caso che essa
rimanga implicita o dipendente dal contesto e dalle persone
che la possiedono. In una rete in cui le conoscenze di
ciascuno possono essere messe al servizio di tutti gli altri, la
propagazione diventa una fonte importante di valore aggiunto,
per tutto il sistema, perché l’apprendimento fai-da-te che
sarebbe necessario se ciascuno agisse isolatamente – con
i costi, i tempi e i rischi necessari – si traduce in una forma
di apprendimento collettivo che ha costi, tempi e rischi molto
inferiori. Oggi, per produrre valore non basta infatti fare
onestamente il proprio mestiere (come in passato facevano
l’artigiano, il fabbro, il lavoratore tradizionale), ma occorre:
1) avere buone idee (innovazione);
2) moltiplicarne l’uso (propagazione).
Sono questi due i nuovi mestieri che alimentano la
generazione del valore e di conseguenza la crescita
economica.
Se Apple ha oggi la quotazione di borsa che ha, è perchè
Steve Jobs ha avuto buone idee, che ha portato avanti con
determinazione; ma è anche perché le ha plasmate in forme
moltiplicabili (l’iPhone, l’iPad ecc.), riuscendo a realizzare
milioni di ri-usi. E in questo ampio bacino di ri-uso, defi nito
che non
SI TRATTA DI METTERE CONSAPEVOLMENTE, E SENZA RIMPIANTI, UNA DISTANZA TRA PASSATO E FUTURO, CHE RIVEDE CRITICAMENTE IL PRIMO E PREPARA INTENZIONALMENTE IL SECONDO.
24
DICEMBRE 2012
dai volumi degli apparecchi proposti al consumo, ha attratto
i venditori di musica (una canzone scaricabile a 0,99 dollari)
e i produttori di applicazioni (per lo store Apple delle apps).
Moltiplicando in questo modo anche il valore delle canzoni e
delle applicazioni agganciate all’iPhone.
Le reti di impresa formali e informali nella nuova era.Per allargare il bacino di ri-uso e ottenere grandi
moltiplicatori, l’essenziale – come abbiamo detto – è la
propagazione della conoscenza, trasferendola dal suo
contesto di origine a molti possibili users.
Questa propagazione deve appoggiarsi a regole e canali
che rendano effi ciente il passaggio delle conoscenze dal
produttore ai molti utilizzatori e soprattutto che rendano
conveniente, per le diverse parti in causa, la prosecuzione
del processo nel corso del tempo.
Da questo punto di vista, è importante notare che sia il
mercato (lo scambio di merce contro un prezzo) che la
gerarchia (il trasferimento realizzato all’interno alla grande
impresa, sotto il comando del vertice) sono poco effi cienti
quando si tratta di trasferire la conoscenza. Il libero scambio
di mercato, infatti, porterebbe il prezzo della conoscenza
(codifi cata) rapidamente verso lo zero (ossia verso il livello
del costo di riproduzione), ragion per cui – per evitare
questo esito – si deve disciplinare lo scambio di conoscenze
attraverso vincoli (il brevetto, il diritto di autore ecc.) che ne
riducono artifi cialmente il bacino di propagazione e che fanno
sorgere tutta una serie di controindicazioni (soprattutto in
presenza di Internet).
Restrizioni analoghe devono essere accettate se si pensa
a propagazioni per via gerarchica, all’interno della grande
impresa: la conoscenza deve essere auto-prodotta (con
scarso uso della conoscenza altrui) e auto-sfruttata
all’interno, con i costi, i tempi e i rischi conseguenti a questa
limitazione del bacino di approvvigionamento e di uso.
La rete, nel capitalismo globale della conoscenza di oggi
consente di andare oltre i limiti della propagazione di puro
mercato e di quella realizzata all’interno della grande impresa.
Creando una piattaforma collaborativa tra imprese dotate di
storie e competenze diverse, la rete consente di realizzare
forme di condivisione delle conoscenze molto vantaggiose
(per la co-innovazione, per la specializzazione reciproca, per
l’estensione del bacino di vendita), senza perdere il controllo
di quanto messo a disposizione di altri.
Nella rete si può infatti scambiare o cedere le proprie
conoscenze all’interno di una cornice fi duciaria e contrattuale
che garantisce impegni reciproci, in modo da ridurre di molto
il pericolo di comportamenti opportunistici.
Le tre forme di propagazione (mercato, gerarchia, rete) sono
in realtà complementari e co-esistenti: il mercato può essere
un mezzo veloce di propagazione per diffondere conoscenze
“protette” (dalla proprietà intellettuale) o comunque non
strategiche. La gerarchia interviene nelle relazioni in cui
occorre mantenere un controllo diretto e centralizzato sulla
catena cognitiva, anche a costo di sostenere investimenti
Membro di svariati comitati scientifi ci (tra i quali quello del Centro Studi di Confi ndustria e di Symbola), ha insegnato anche presso le università Ca’ Foscari di Venezia, Vita-Salute San Raffaele, Milano e Bocconi.
Tra i suoi temi di ricerca: economia della conoscenza, crisi della modernità, innovazione e produttività, reti di impresa, drivers dello sviluppo nel capitalismo globale della conoscenza, lavoro, management e formazione nell’impresa postfordista, terziario innovativo e sentieri di sviluppo dell’economia italiana, impresa e istituzioni nella transizione attuale, il territorio tra dimensione locale e mondializzazione, evoluzione dei distretti industriali e delle imprese multinazionali.
Tra i suoi libri: La fabbrica dell’immateriale. Produrre valore con la conoscenza (Roma 2004); Il capitalismo personale. Vite al lavoro (con A. Bonomi, Torino 2005); Innovare. Re-inventare il Made in Italy (con M. Plechero, Milano 2007); Modernità sostenibile. Idee, fi liere e servizi per uscire dalla crisi (Venezia 2010); Reti di impresa e idee motrici, QP, Quaderni della Programmazione n. 27 (con Francesca Pedon), Università di Trento e Provincia autonoma di Trento, Trento, 2011; Innovazione e produttività. Alla ricerca di nuovi modelli di business per le imprese di servizi, Angeli, Milano, 2012 (con Cantù C., Paiola M., Prandstraller F., Sebastiani E.); L’innovazione nelle imprese agricole. Usi nuovi della conoscenza, Veneto Agricoltura, Legnaro, 2012 (con altri autori).
Enzo Rullaniprofessore di Economia della conoscenza presso la Venice International University
25
rilevanti, assumendone il rischio relativo. La rete occupa la
Terra di Mezzo tra le due polarità classiche, intervenendo
in tutte quelle situazioni in cui la condivisione – se bene
organizzata – genera valore, grazie all’uso del collante
collaborativo.
Questa Terra di Mezzo si va espandendo sempre di più, man
mano che le imprese si trovano nella necessità di limitare
investimenti e rischi, focalizzandosi su una core competence
limitata e ricorrendo, per tutto il resto, a fi liere sempre più
estese e articolate, regolate dal mercato o più spesso da
rapporti stabili di collaborazione.
In Italia abbiamo avuto esperienza di questa diffusione di
reti che, pur rimanendo informali, legano fornitori e clienti in
rapporti di stabile collaborazione (fi liere), o che addensano
le imprese di un settore in un particolare luogo (distretto
industriale), facendo sì che il territorio diventi fattore
produttivo perché fornisce alle imprese gli uomini, i servizi e
le conoscenze che servono a certi usi. In altri casi, le reti sono
nate invece dalla condivisione di una matrice intellettuale e
professionale, fatta da università e centri di ricerca (si pensi al
rapporto tra la California e le imprese del settore ICT).
Quando questi rapporti di collaborazione stabile tra imprese
diverse e complementari comportano impegni di investimento
di rilievo, è inevitabile che l’informalità della relazione venga
integrata o sostituita da una formalizzazione contrattuale
e giuridica. In passato abbiamo avuto esempi di questa
formalizzazione attraverso strutture collaborative formalizzate
come le cooperative, i consorzi, le Associazioni Temporanee
di Impresa (ATI, per le gare pubbliche), le joint ventures e le
alleanze tecnologiche.
Da qualche anno è entrato a far parte della normativa
italiana anche il “contratto di rete”: un contratto in cui un
certo numero di imprese mette a fuoco un progetto comune,
associandovi un organo di governo e – volendo – un fondo
patrimoniale. In alternativa si possono costituire reti con altre
forme giuridiche come la Srl di scopo, il franchising, la licenza
di uso di un brevetto o di una soluzione tecnica, gli scambi
azionari o dei processi di vera e propria fusione.
I servizi innovativi e tecnologici come asset per rifondare le dinamiche del mercato anche del manifatturiero.Se le imprese del made in Italy devono entrare a far parte
di fi liere globali e investire nella produzione di conoscenze
o relazioni esclusive, che altri non hanno e non possono
facilmente imitare, è gioco forza immaginare che una
trasformazione del genere non può essere addossata
sulle spalle delle tante piccole e piccolissime imprese
che hanno una esperienza limitata alla fabbricazione del
prodotto materiale. L’industria deve, in altri termini, diventare
intelligente, facendo spazio al lavoro cognitivo e agli assets
immateriali. Si pensi alla rivoluzione ICT in corso e alla sua
proiezione a scala planetaria.
Nei paesi in cui la produzione industriale è realizzata, in
prevalenza, da grandi imprese, l’intelligenza che serve per
questa trasformazione sarà ottenuta investendo nel sapere e
nelle competenze interne dell’impresa. Non esclusivamente,
certo, ma in modo prevalente. Ogni impresa si preoccuperà
di rafforzare il management, la ricerca e sviluppo, il sistema
ERP, il marketing e la distribuzione, e, in generale, le
professionalità qualifi cate dei propri dipendenti.
Ma in un paese come l’Italia, dove la dimensione media
delle imprese manifatturiere è intorno ai 10 addetti, la strada
percorribile è un’altra: bisogna sviluppare una rete di imprese
di servizi, che, sulla base di un rapporto collaborativo stabile,
fornisca alle imprese manifatturiere esistenti le conoscenze
e le relazioni necessarie, avendo la possibilità di servire non
un solo cliente, ma dieci o cento, fi no a raggiungere la scala
necessaria dei ri-usi.
Le reti di impresa hanno un ruolo critico anche sotto questo
versante: devono mettere insieme, nelle fi liere e nei territori,
non solo grandi e piccole imprese, ma anche manifattura e
servizi avanzati.
LA RETE, NEL CAPITALISMO GLOBALE DELLA CONOSCENZA DI OGGI CONSENTE DI ANDARE OLTRE I LIMITI DELLA PROPAGAZIONE DI PURO MERCATO E DI QUELLA REALIZZATA ALL’INTERNO DELLA GRANDE IMPRESA.
incontri con
26
DICEMBRE 2012
Me ne rendo perfettamente conto. In un paese in cui i valori
(qualsiasi cosa si intenda con questo termine delicato e
scivoloso) sono tradizionalmente rappresentati e tutelati da
umanisti o prelati, sostenere pubblicamente – come ho fatto
qualche anno fa – che la “tecnologia ci rende umani” – non
poteva che suonare a molti come una provocazione. E, infatti,
così andarono le cose. Dibattiti, polemiche, accuse: insomma,
tutto quel che serve alle idee per vivere, circolare e magari,
ogni tanto, contribuire a scalfi re pregiudizi così diffusi e radicati
da essere persino considerati ideali universali.
Ma ora – complice l’uscita del primo numero di Logyn – credo
sia giunto il momento di ribadire e rilanciare. E non certo per
il gusto di irritare le sensibilità altrui. Al contrario, lo scopo
è quello di sottolineare con un piccolo contributo l’urgenza
di insuffl are nel dibattito culturale italiano quel minimo di
educazione scientifi ca senza la quale è diffi cile comprendere
la complessità della società contemporanea. Figuriamoci
affrontarla...
E dunque, mi concederò la libertà (che per alcuni sarà una
licenza) di avanzare una proposta: se davvero vogliamo – come
da più parti si auspica – provare a immaginare un nuovo
umanesimo, allora dobbiamo cominciare a pensare con le macchine. Ovviamente, come si avrà modo di appurare nella
lettura del presente articolo, l’intento non è quello di voler
“ridurre” (o addirittura “sostituire”) la facoltà e l’esercizio del
pensiero con le funzionalità operative di macchine sempre più
performanti.
Si tratterà piuttosto di mettere in luce alcuni aspetti
dell’intricato rapporto tra uomo e macchina per indagare
alcune delle dinamiche entro cui ha preso forma il nostro
modo di agire e pensare sulla scena del grande teatro del
mondo. Un percorso attraverso cui – mi auguro – si possa
PENSARE CON LE MACCHINE! È LA TECNOLOGIA CHE CI RENDE UMANI... STEFANO MORIGGI
2727
Si occupa di teoria e modelli della razionalità, di fondamenti della probabilità, di pragmatismo americanocon particolare attenzione al rapporto tra evoluzione culturale, semiotica e tecnologia.Già docente nelle università di Brescia, Parma, Milano e presso la European School of Molecular Medicine (SEMM), attualmente svolge attività di ricerca presso l’Università degli Studi di Milano Bicoccae l’Università degli Studi di Bergamo.Esperto di comunicazione e didattica della scienza, è consulente scientifi co Rai e su Rai 3 è uno dei volti della trasmissione “E se domani. Quando l’uomo immagina il futuro”. Tra le sue pubblicazioni si ricordano: “Le tre bocche di Cerbero. Il caso di Triora. Le streghe prima di Loudon e Salem” (Bompiani, 2004); (con E. Sindoni) “Perché esiste qualcosa anziché nulla? Vuoto, Nulla, Zero” (Itaca 2004); con P. Giaretta e G. Federspil ha curato “Filosofi a della Medicina” (Raffaello Cortina, 2008). Più recentemente (con G. Nicoletti) ha pubblicato “Perché la tecnologia ci rende umani. La carne nelle sue riscritture sintetiche e digitali” (Sironi, 2009); (con A. Incorvaia) “School Rocks. La scuola spacca”, (San Paolo, 2011).
Stefano Moriggi
storico e fi losofo della scienza
intuire l’importanza di una discussione pubblica, informata (e
possibilmente non ideologica!) su rischi e opportunità impliciti
nel progredire delle scienze e delle tecnologie.
Ma procediamo per gradi, magari con un paio di quesiti rivolti
in particolare a coloro che sono impegnati a proteggere una
“umanità” sempre più minacciata dalla “tecnoscienza” in un
inviolabile tabernacolo concettuale (oltre che fi sico).
Di cosa si parla davvero quando si parla di umanità? E da dove
provengono le convinzioni etiche e culturali stratifi cate nel
tempo attorno a questa idea?
Domande di questo tipo se le poneva già a suo tempo il grande
logico e matematico inglese Alan Mathison Turing – lui che a
soli venticinque anni compilò un manifesto del nuovo ordine
tecnologico (On computable numbers) e che nel 1943, mentre
dava il meglio di sé tra le mura del laboratorio di Bletchley Park
per realizzare le macchine che sarebbero riuscite a decrittare
il linguaggio in codice dell’aviazione e della marina tedesca
(Enigma), confi dava al collega Donald Bayley il suo sogno di
“costruire un cervello”. In altre parole, una macchina pensante...
Alan sapeva bene che la sua ambizione sarebbe stata percepita
dai più come un nuovo peccato originale, come l’ennesima
imperdonabile tracotanza di chi vuole replicare il gesto di Dio.
Nel suo ormai classico Macchine calcolatrici e intelligenza (1950), infatti, prendeva amaramente atto di quanto diffusa e
culturalmente trasversale fosse l’idea per cui “ci piace credere
che l’uomo sia in qualche modo misterioso, superiore al resto
del creato”. E per i palati più raffi nati, tale misteriosa superiorità
di Homo sapiens era invece declinata da irreprensibili baluardi
dell’umanità come “il potere del pensiero”. Costoro – scriveva
Turing – “sono più inclini a basare la loro credenza nella
superiorità dell’uomo proprio su questo potere”.
Di fronte a siffatti tentativi di salvaguardare dietro un’aura di
mistero l’inviolabile superiorità/integrità dell’umano, Turing si
limitava a osservare che tale approccio non fosse abbastanza
solido da meritare una confutazione, e che semmai “sarebbe
più appropriata una consolazione”. Per lui erano solo le
obiezioni di chi ha la “testa nella sabbia”. E come contraddirlo?
Non si tratta qui di contrapporre a tanta diffi denza i meriti delle
macchine di Alan Mathison, grazie a cui dal 1943 in avanti
gli alleati furono in grado di decifrare i messaggi in codice del
nemico, battendolo sistematicamente sul tempo (non a caso
Turing, vinta la guerra, fu insignito per la sua opera di una
prestigiosa onorifi cenza militare dal governo britannico). Infatti,
non è in questione l’uso e l’utilità della tecno-scienza – ai
successi del gruppo di Bletchley Park si potrebbero, fi n troppo
facilmente, contrapporre le tragiche conseguenze del progetto
Manhattan. In gioco sono, invece, i signifi cati più profondi della
relazione uomo-macchina, e le dinamiche che intrecciano
l’evoluzione di strumenti e dispositivi con i modi in cui di epoca
in epoca siamo stati – e ci siamo detti – umani.Chi preferisce mantenere la testa nella sabbia fatica a intuire,
per esempio, che riprodurre artifi cialmente (sperimentalmente)
un fenomeno naturale signifi ca anzitutto comprenderlo. Le
macchine non sono solo strumenti per fare, ma anche per
pensare. Sognare di costruire un cervello, ovvero una macchina
in grado di simulare alcune delle funzioni cognitive dell’essere
umano, non è un atto che trasuda tracotanza. Al contrario,
testimonia l’umile sforzo di chi, per tentativi ed errori, cerca di
sviluppare e perfezionare concreti modelli di comprensione del
mondo. Riprodurre il corpo da un’articolazione alle reti neurali
– al di là delle potenziali ricadute biomediche o informatiche
– incarna lo sforzo di quel sapere pubblico, rivedibile e
controllabile (che è la scienza moderna) di interrogare la natura
(in questo caso umana) per intuirne le leggi.
28
DICEMBRE 2012
La resistente diffi denza a pensare con le macchine – per
lo meno nei termini sopra indicati – è il sintomo della grave
carenza di cultura ed educazione scientifi ca (e tecnologica) che
dovrebbe essere bagaglio comune non solo dei professionisti
della ricerca ma di ogni cittadino che voglia dirsi tale – e
dunque libero di comprendere per scegliere criticamente –oproprio in una società in cui, sempre più, molti dei suoi diritti
(oltre che molti dei suoi doveri) sono stati ridefi niti proprio dai
progressi della scienza e dalla pervasività della tecnologia.
E non solo i diritti...
Infatti, questo è il punto. Ovvero, l’impatto concreto e culturale
di una tecnologia dilagante che suscita timori; semina angoscia
e soprattutto continua a eccitare la fervida immaginazione
di numerosi profeti di sventura che dalla carta stampata
agli schermi televisivi, dalle cattedre universitarie ai pulpiti,
declinano – ciascuno a suo modo – l’eclissi dell’umano,
predicando ricette e rimedi per cercare di salvare in qualche
modo anime e corpi. C’è chi insegue il nomos della Terrasnel giardinetto della propria villetta a schiera, chi propone
moratorie contro l’uso (e l’abuso) di computer e telefonini
responsabili di ridurre ogni relazione in connessione, e chi
insiste a riproporre vecchi adagi fi losofi ci contro la tecnica,
rimpiangendo antichi modi di abitare “poeticamente” il mondo.
Nulla da obiettare, ovviamente, su scelte e idiosincrasie di
ciascuno, ma come ha recentemente notato il sociologo
francese Gilles Lipovetsky, l’ansiogeno dilagare di questo
variopinto “immaginario sociale del prodotto genuino”, dai
bisogni più frivoli (viaggi nelle terre selvagge, revival del
vintage, menu a chilometro zero) fi no alle convinzioni e
credenze più complesse (parlar chiaro in politica, ricerca
spasmodica di radici culturali e spirituali, vivere “secondo
natura”) è comprensibile nei termini di una nostalgia verso un
passato idealizzato da contrapporre a stili di vita costantemente
riscritti dall’evoluzione tecnico-scientifi ca.
Alla “contraffazione” tecnologica si cerca di rimediare con
l’“autenticità” della natura; alla fallibilità del sapere scientifi co
si tende a preferire la rassicurazione del valore indiscutibile
e assoluto. Ma l’equivoco di fondo – osserva a ragione
Lipovetsky – sta nel fatto che “l’autentico non è il contrario
dell’ipermoderno: è solo una delle sue facce, una delle
manifestazioni del nuovo volto del benessere, il benessere
emotivo, carico di attese sensibili e risonanze culturali e
psicologiche”. I nipotini (più o meno consapevoli, più o meno
raffi nati) di fi losofi come Jean Jacques Rousseau e Martin
Heidegger potrebbero quanto meno sperimentare una
prospettiva alternativa, qualora facessero proprio – almeno per
qualche istante – un approccio meno “epocale” (per non dire
apocalittico) al mondo della civilizzazione e della tecnologia.ooMagari spingendosi persino a contemplare l’ipotesi che anche
la ricerca scientifi ca, l’innovazione tecnologica – e dunque
anche la cultura d’impresa – siano pratiche portatrici di
signifi cati e valori più di quanto si sia disposti ad ammettere.
Come? Di nuovo, si tratterebbe di provare a pensare con le macchine, questa volta però facendo particolare attenzione
alla storia e all’evoluzione del rapporto tra individui, strumenti
e ambiente. E allora, come soprattutto la genetica delle
popolazioni e l’evoluzione culturale magistralmente mostrano,
sarebbe più agevole intuire che strumenti e macchine hanno
da sempre articolato e riplasmato azioni e consuetudini di
individui, gruppi, comunità e società. Il che, di conseguenza,
ha permesso e defi nito nuove etiche e, più in generale, inediti
quadri concettuali che hanno contribuito a riscrivere signifi cati
e valori, compreso il modo stesso di dirsi (oltre che di essere)
umani. A tal proposito, ha colto nel segno l’esperto di mass media Derrick De Kerckhove quando – proprio ragionando sulleapiù avanzate tecnologie della comunicazione – scriveva che noi siamo la continua reinvenzione delle nostre stesse invenzioni. In
altre parole, ciò signifi ca che siamo animali culturali; e la cultura
(tecnoscienza compresa, ovviamente!) incarna il più effi cace e
rapido complesso di strategie di adattamento all’ambiente.
Altro che provocazione, quindi! La tecnologia ci ha reso – e
ci rende umani – nei modi in cui ha consentito – e consente
– relazioni e interazioni sempre più complesse e pregnanti in
cui cogliere quell’intreccio di strumenti e signifi cati che molto
racconta della nostra natura e della nostra storia.E per tornare al “potere del pensiero” quale misteriosa
e inviolabile superiorità dell’essere umano, mi limito a
far osservare che al di fuori di questa interazione uomo-
strumento-ambiente diffi cilmente avremmo sviluppato la
capacità di render conto delle cose del mondo riconducendo gli
effetti alle rispettive cause, tanto nella ricerca scientifi ca quanto
nell’esperienza quotidiana.
“I nostri progenitori – ha osservato di recente il neuroscienziato
Giorgio Vallortigara – avrebbero iniziato a sviluppare nozioni
di causa-effetto, perfezionandole via via nel corso dei due
milioni d’anni in cui inventarono la tecnologia”. Lo sviluppo
dell’architettura celebrale in grado di concettualizzare nessi
causali e spiegazioni di fenomeni sempre più complessi
sarebbe quindi anche il risultato di quella relazione pratica
e concettuale che i nostri progenitori hanno intrattenuto
con gli strumenti che hanno accompagnato l’evoluzione
delle loro pratiche e dei loro pensieri. Pare ancora tanto
scandaloso l’invito a pensare con le macchine? E sostenere
che la tecnologia ci rende umani? Lascio a chi legge l’onere
della risposta. Ma continuo a ritenere che nessun nuovo
“umanesimo” sarà possibile se, per dirla ancora con Turing,
continueremo a tenere la “testa nella sabbia”, invece che
confrontarci seriamente con l’idea che tecnologicamente abita
(vive e pensa) l’uomo.
29EMC2, EMC, and the EMC logo are registered trademarks or trademarks of EMC Corporation in the United States and other countries. © Copyright 2011 EMC Corporation. All rights reserved.
BIG DATATRANSFORMS BUSINESS
30
DICEMBRE 2012
QUANDO IL CLIENTE CHIAMA
Nel corso dell’anno 2011 Eurosystem entra in contatto con
un potenziale cliente, una società che vanta competenze di
primo livello nel project management e nella costruzione di
impianti. L’Azienda, che aveva appena iniziato la “software
selection”, aveva confrontato le proposte di diversi
competitors, valutando prodotti ERP (Enterprise Resource
Planning) sia nazionali sia internazionali. Date le esigenze di
alta personalizzazione della soluzione, aveva anche ipotizzato
di far costruire “ex novo” un software su misura.
Eurosystem ha raccolto, tra le altre aziende a confronto, le
richieste del Cliente che, come spesso accade, era in cerca di
una soluzione non ancora ben identifi cata e dai requisiti molteplici. Alla base delle linee guida indicate i seguenti problemi: un
software gestionale datato, privo di un modulo specifi co sulla
gestione di commessa/progetto, un metodo di lavoro basato
su fl ussi non automatizzati e supportati da una gestione della
documentazione quasi totalmente cartacea.
In termini di organizzazione del lavoro, tutto questo si
traduceva nell’assenza di regole defi nite per la condivisione
delle informazioni, possibili criticità e ampi margini di errore
nella gestione delle commesse cliente, un dispendio oneroso di tempo ed energie delle risorse interne.
L’implementazione di un nuovo sistema informativo può diventare l’elemento strategico del business
di un’azienda. Non un semplice cambio di gestionale, ma l’occasione per rivedere e migliorare
i processi aziendali, riqualifi care sia il personale che la base dati, nonché aumentare la condivisione
della conoscenza in azienda.
Creatività e fl essibilità made in Italy alla base dei risultati Eurosystem
COME NASCEUN CASO DI SUCCESSO
STEFANO BIRAL [email protected]
31
storiesL’Azienda chiedeva, insomma, una tecnologia
altamente personalizzata con specifi ci requisiti di base,
funzionali e tecnologici in grado di risolvere tutte le sue
problematiche.
Tra i requisiti di base, si richiedeva l’utilizzo di una
soluzione web-based che avrebbe dovuto incontrare
le esigenze di utenti non sempre abituati all’utilizzo
di un sistema gestionale; l’implementazione di
un modulo di gestione commesse/progetti; un
Workfl ow Management System per informatizzare
la gestione dei processi e, infi ne, l’integrazione con
un sistema di reportistica basato su strumenti di
Business Intelligence. Per i requisiti funzionali, era
necessario fornire una soluzione multi azienda e multilingua all’interno dello stesso sistema ERP; in
grado di tracciare l’attività degli utenti al fi ne di poter
identifi care responsabilità nell’utilizzo dei dati aziendali;
con politiche di autenticazione e di autorizzazione
all’accesso ai dati in funzione del ruolo aziendale; e,
infi ne, un’interfaccia di facile utilizzo.
La tecnologia alla base del sistema doveve essere
facilmente integrabile con le altre componenti software esistenti, scalabile a tal punto da garantire
robustezza anche in previsione di un elevato aumento del numero utenti e del volume dei dati; con un’architettura di base consolidata e robusta;
parametrizzabile e capace di adattarsi anche alle
esigenze future dell’azienda; tale da permettere
l’ampia autonomia del cliente nella confi gurazione del software. Un progetto non semplice e che ha
richiesto l’unione di competenze altamente qualifi cate,
tecnologie all’avanguardia e un approccio consulenziale
focalizzato sulle esigenze di rinnovamento del cliente,
garantendo il successo della soluzione proposta.
Eurosystem e il proprio ERP esteso Freeway® Skyline sono stati, infatti, scelti per supportare
l’Azienda nel cambio del proprio sistema informativo,
distinguendosi per l’aderenza della soluzione alle
esigenze manifestate e la capacità di adattarsi a
quelle future, una tecnologia innovativa e l’affi dabilità
riconosciuta del Gruppo.
Si valorizzano così l’informazione e la persona, che sono il vero patrimonio di ogni azienda.
32
DICEMBRE 2012
E IL CONSULENTE RISPONDE
Il primo obiettivo di progetto era ottimizzare i processi
aziendali senza forzare cambiamenti organizzativi poco
sentiti. Il software doveva adattarsi alle logiche di processo e
agli utenti dell’Azienda (e non il contrario), sempre nell’ottica
di migliorare le ineffi cienze presenti.
Seguendo una metodologia di Business Process Management (BPM), i consulenti dell’azienda trevigiana
si sono concentrati sui processi interni, li hanno ridisegnati
defi nendo i fl ussi principali da automatizzare con un motore
di workfl ow, hanno sviluppato piccoli prototipi sulle aree di
maggiore interesse del Cliente.
Un’operazione di analisi dettagliata, realizzata attraverso
interviste ai referenti aziendali, che ha permesso di avere una
visibilità di progetto chiara con una certezza dei costi e dei
tempi di avviamento.
L’informatizzazione dei fl ussi di lavoro ha permesso di
defi nire i criteri di assegnazione delle attività, le regole per i
passaggi di stato e di autorizzazione. In particolare, grazie a
Freeway® Workfl ow Server, asse portante della soluzione
e piattaforma di supporto alle metodologie del BPM, la
lista delle attività di approvazione documenti o le fasi di
un processo di collaborazione tra gli utenti sono state rese
accessibili all’utente sotto forma di working list o di semplici
notifi che: in questo modo, il software ha consentito di far
arrivare l’informazione giusta alla persona giusta.
A supporto del motore di workfl ow, è stato implementato
Freeway® Document Server, un sistema di archiviazione
documentale integrato nelle fasi di inserimento delle
informazioni e nei processi di collaborazione aziendale
(workfl ow) che ha ridotto notevolmente l’utilizzo della carta. Infi ne, con l’adozione di uno specifi co modulo di
Freeway® Skyline di gestione commessa/progetto si è
reso possibile all’azienda gestire nativamente l’intero iter
delle commesse clienti, a partire dall’offerta, al budget
commerciale e tecnico, al piano di progetto e specifi che
di contratto, fi no ad arrivare ad una snella ed automatica
consuntivazione dei costi.
Questo ha permesso di ottimizzare il livello di comunicazione e coinvolgimento di tutte le risorse che
fanno parte di un progetto, anche se appartenenti ad aree
aziendali diverse, permettendo un monitoraggio continuo
sull’avanzamento dei lavori e una visualizzazione immediata
tra quanto preventivato e l’effettivo stato dell’arte della
commessa.
Il secondo obiettivo da raggiungere per mantenere fede
all’impegno preso con il Cliente era quello di migliorare la
...valorizzandone le specifi cità, le fl essibilità e le differenze, nonché la creatività tipica delle aziende italiane di successo.
33
condivisione della conoscenza in azienda. Era necessario creare dei percorsi di navigazione tra le
informazioni mirati per ciascun utente, sia interno che
esterno, e basati sull’utilizzo di profi li aziendali specifi ci.
Per rispondere a questa richiesta, Eurosystem ha realizzato
un Portale personalizzato, con la funzione di unico punto di
accesso ad applicazioni, processi, dati, documenti, persone.
La teconologia innovativa alla base del portale è Freeway® Presentation Server, una piattaforma server per progettare
portali personalizzabili per ruolo e utente.
Grazie ad essa e alla creazione di Profi li opportunamente dedicati ai diversi livelli di utenza (direzione, manager/
responsabili, operativi, collaboratori interni ed esterni),
l’uso delle applicazioni e l’accesso alle informazioni è
stato reso molto più semplice, nell’ottica di un’attenzione
sempre maggiore alla qualità dell’esperienza utente (User eXperience) e all’ottimizzazione di tempo e risorse interne.
Con la tecnologia implementata è possibile impostare per
ogni profi lo utente una home page personalizzata che
visualizzi da subito i dati e le informazioni più importanti della
propria attività. In questo modo, dall’informazione si arriva
al singolo dato e, se necessario, al modulo applicativo che
ha generato quel dato, ma non viceversa. Si valorizzano così
l’informazione e la persona, che sono il vero patrimonio di
ogni azienda.
L’azienda Cliente ha così potuto disporre di un sistema informativo integrato ed intuitivo, con la possibilità di
utilizzare, in autonomia, strumenti di analisi per generare
report direzionali e cruscotti aziendali (Decision Support
System) e poter monitorare tutti gli aspetti dell’azienda,
avvalendosi delle conoscenze acquisite nel corso del progetto
dal proprio personale tecnico od operativo.
DAL PRODOTTO SOGNATO A QUELLO REALIZZATO
Freeway® Skyline ha consentito di superare i benefi ci
attesi e di raccogliere gli obiettivi di progetto, favorendo
l’introduzione di sistemi e moduli standard, adattandosi alle
particolari esigenze del Cliente e superando le molte criticità
identifi cate durante la gestione. La parametrizzazione del
sistema ha reso la soluzione software un vero “vestito su
misura” adattato alla realtà aziendale, senza irrigidirla, anzi,
valorizzandone le specifi cità, le fl essibilità e le differenze,
nonché la creatività tipica delle aziende italiane di successo.
Come nasce un caso di successo? Oggi sono la fl essibilità e la versatilità, anche nei progetti software, a fare la
differenza. Questo, è un concetto che va al di là della mera
possibilità, che hanno i sistemi, di poter essere componibili
o preconfi gurati: qualcosa che consente a ciascuno di far
coincidere il prodotto sognato con quello realizzato.
Oggi sono la fl essibilità e la versatilità a fare la differenza.
stories
34
DICEMBRE 2012
In questo particolare momento storico in cui la crisi del
sistema economico globale sta impattando notevolmente il
modo di fare impresa, l’attività del recupero crediti svolge
un ruolo determinante diventando un elemento in grado di
dare equilibrio ai bilanci delle società, migliorando i fl ussi
di cassa e la liquidità aziendale. Così come le banche e le
società fi nanziarie, oggi molte aziende considerano fi siologica
e “preventivata” una percentuale di insoluti, e per evitare di
dedicare risorse interne al recupero del credito, si affi dano
all’outsourcing per la gestione delle pratiche.
Tra le molte società che operano nel settore del recupero
crediti, quelle che hanno conquistato la leadership si
differenziano per l’elevato livello di specializzazione e per
l’alta percentuale di risultati positivi, ma non solo.
Anche la componente tecnologica, ovvero l’infrastruttura
telefonica e dati necessaria per erogare i servizi offerti, gioca
un ruolo decisivo.
Ed è stata proprio questa consapevolezza a spingere Recus
Spa, da circa 20 anni una delle più importanti realtà italiane
nei servizi di Recupero Crediti, verso l’adozione di una
soluzione tecnologica all’avanguardia in grado di garantire
idonea potenza elaborativa, estrema fl essibilità in funzione
delle necessità del momento e continuità del servizio.
“Sin dagli inizi – esordisce Luca Cortesia, IT Manager
della società – Recus ha vissuto un progressivo e costante
sviluppo. Nell’ultimo quadriennio, in particolare, la società ha
triplicato il proprio organico arrivando oggi a superare i 250
utenti distribuiti nelle 5 sedi della società. Una evoluzione
che ha reso necessario un rinnovamento dell’infrastruttura
informatica, poiché quella precedente, pur costituita da
L’infrastruttura progettata da Sistemarca con soluzioni EMC garantisce prestazioni e continuità di
servizio per soddisfare le esigenze dei clienti, anche le più impegnative.
Per una più facile gestione del credito
RECUS: L’IT CHE FA LA DIFFERENZA
MASSIMO MANICA
35
sistemi ad alta affi dabilità in un ambiente virtuale, iniziava a
mostrare alcune criticità, non garantendo più le condizioni di
fl essibilità e sicurezza necessarie a supportare la crescente
mole di lavoro e il livello di redditività richiesto da importanti
contratti acquisiti e da nuovi più vincolanti. La costante
ricerca dell’eccellenza nell’erogazione dei nostri servizi,
ci ha indotto lo scorso anno ad affrontare un progetto di
Disaster Recovery. Supportati da Sistemarca, nostro partner
tecnologico ormai da diversi anni, abbiamo iniziato un’attività
di analisi e progettazione fi nalizzata a realizzare un sistema
IT in grado di garantire, nell’ambito di un più complesso ed
articolato Piano di Business Continuity, un’idonea continuità
del servizio in caso di indisponibilità prolungata dei sistemi”.
Il Responsabile tecnico del progetto, Gianfranco Casu di
Sistemarca spiega “L’obiettivo principale del progetto è
stato quello di garantire entro un tempo certo il ripristino
dell’operatività del maggior numero possibile di operatori del
Call Center, dando loro non solo la possibilità di effettuare e
ricevere chiamate telefoniche, ma anche la piena disponibilità
delle informazioni necessarie per svolgere il proprio lavoro,
con particolare riferimento al comparto amministrativo,
rimediando così alla diffi coltà di recuperare quei dati elaborati
durante o immediatamente prima l’indisponibilità dei sistemi.
Il progetto di realizzare un’architettura di Disaster Recovery
è iniziato individuando una sito primario in grado di garantire
a tutti gli utenti delle sedi Recus un accesso veloce alle
informazioni e un ottimo sistema telefonico. Allo scopo è
stato scelto un Datacenter a Padova con un’infrastruttura di
rete dati e fonia adeguata alle necessità dell’azienda. Una
linea in fi bra ottica da 100 Mbit, che garantisce un veloce
interscambio di informazioni, collega il Datacenter di Padova
con quello della sede Recus di Treviso al quale è stato
assegnato il ruolo di sito secondario di Disaster Recovery.
Per l’obiettivo di avere il sito di Disaster Recovery quanto più
possibile sincronizzato con quello primario, la distanza tra i
due siti e la corrispondente latenza sono stati gli elementi
chiave sui quali abbiamo valutato le varie soluzioni di replica
remota disponibili nel mercato. La soluzione EMC si è imposta
per la maggiore effi cacia sulle lunghe distanze, dove gli altri
prodotti esaminati, che sarebbero stati suffi cientemente validi
in un’ipotesi a livello “campus” o entro un numero limitato
di chilometri, perdevano di consistenza. Inoltre, le pazienti
verifi che “sul campo” e i test sulle repliche preventivamente
eseguite, hanno infl uito positivamente sulla strategia fi nale
del progetto in quanto la latenza osservata ha permesso di
valutare metodologie altrimenti da escludere”.
La soluzione tecnologica adottata si basa sull’impiego
di due sistemi storage EMC VNX, uno in affi ancamento
all’infrastruttura preesistente ubicata nella sede di Treviso,
e l’altro, in collegamento con altri Host VMware, in Housing
presso il Datacenter a Padova. I sistemi VNX, oltre a fornire
prestazioni elevate, semplicità di utilizzo e funzionalità
avanzate per una gestione e allocazione effi cace e automatica
dei dati, forniscono a Recus un ampio margine di crescita e
la fl essibilità necessaria per supportare adeguatamente le
attuali e future necessità di business.
La replica tra i due siti viene gestita in modalità asincrona
tramite il software EMC MirrorView (disponibile anche nella
versione per repliche sincrone) che soddisfa tutti i principali
requisiti per un ripristino operativo senza la necessità
di funzionalità CDP (Continuous Data Protection) o di
ottimizzazione della larghezza di banda. Inoltre MirrorView è
funzionale alla soluzione Site Recovery Manager di VMware,
consentendo di migrare semplicemente e in pochi minuti
parte o tutte le macchine virtuali dei server VMware dal sito
primario a quello secondario.
Nonostante la soluzione sia su rete geografi ca, con tutte le
complicanze che questo comporta, le repliche tra i due siti
sono comunque allineate in media di 3 minuti, quindi molto
prossime a una sincronia quasi totale.
Il processo di migrazione al nuovo assetto è durato circa tre
mesi durante i quali è sempre stata garantita la continuità del
servizio senza alcun impatto sull’operatività dell’azienda.
“Per Recus era fondamentale che i tempi di migrazione
fossero veloci – afferma ancora Luca Cortesia –, poiché ogni
minuto perso è un minuto di profi tti in meno”. Con il nuovo
sistema gli operatori si sono trovati a lavorare senza problemi
rimanendo operativi fi n da subito.
Questo nuovo assetto potenziato e in completa ridondanza
sta ora assicurando a Recus migliori prestazioni e la
consapevolezza di poter affrontare le attività in corso e le
opportunità future con la massima tranquillità e sicurezza.
Che in un mercato competitivo come quello attuale si
traducono in un reale valore aggiunto.
stories
37
La tecnologia entranel mondodellafotografi astorica
IL FOTO ARCHIVIO STORICO DELLA PROVINCIA DI TREVISO: ESEMPIO ECCELLENTE DI CONSERVAZIONE, RECUPERO E
TRASMISSIONE DEL PATRIMONIO
CULTURALE DI UN TERRITORIO ATTRAVERSO LA TECNOLOGIA.
La fotografi a storica, soprattutto nel caso
dell’immagine storico-artistica, paesaggistica,
architettonica, è una fonte insostituibile
necessaria per ogni progetto culturale,
urbanistico, di restauro e di intervento nel
territorio. L’immagine fotografi ca, oltre che
opera d’arte, è anche e soprattutto un modo,
culturalmente e socialmente determinato,
di divulgare idee ed eventi, di evocarli e
ricordarli, di occultarne e mistifi carne altri,
UBERTO DI REMIGIO - PAOLA PRETTO
38
DICEMBRE 2012
in sostanza di costruire una politica e una memoria
storica: è quindi fonte, documento, ma anche mezzo
di rappresentazione della realtà. L’essere la fotografi a
oggetto nella storia, fonte, brano di una realtà, mai come
oggi viene ad acquistare in brevissimo tempo il sapore del
passato. Inoltre, essendo uno strumento di storiografi a ci fa
comprendere ancor di più il valore di una grande raccolta di
materiale fotografi co come quella del FAST.
Fondato dalla Provincia di Treviso nel 1991, il Fast – acronimo
di Foto Archivio Storico Trevigiano – rappresenta un punto di
riferimento a livello nazionale nell’ambito della salvaguardia,
ricerca, studio, tutela, catalogazione e valorizzazione del
patrimonio iconografi co del territorio. Le oltre 300.000
immagini conservate presso l’Archivio provinciale
consentono di studiare l’arte e la storia del Veneto e del
territorio trevigiano in particolare, permettendo di esplorare
e analizzare nei dettagli ogni aspetto della vita quotidiana,
dei costumi, delle tradizioni, dell’evoluzione del territorio, dei
centri abitati, dell’edilizia rurale, dell’archeologia industriale,
dal 1860 fi no ai giorni nostri. Oltre 100 anni di storia e di
costume veneto sistematicamente documentati dall’occhio
della fotocamera e interpretati da maestri dell’immagine
come Giuseppe Ferretto, Umberto Fini, Giuseppe Mazzotti,
Giuseppe Gnocato, Giulio Marino, Aldo Nascimben, Luigi
Munari, Luigi Coletti, Orio Frassetto e altri ancora. L’utilizzo
di questo patrimonio di immagini interessa e coinvolge utenti
diversi: istituti universitari, editori, storici, architetti, enti
pubblici, studenti, case di produzione cinematografi ca ecc.,
dal momento che l’Archivio rappresenta una delle pochissime
strutture pubbliche del genere nel Veneto, aperta alla
consultazione pubblica.
Per conservare il materiale documentario, e nel contempo,
implementare la fruizione del pubblico è stato scelto di
utilizzare la tecnologia, mettendola a servizio dell’arte.
L’Archivio Fotografi co, infatti, si appoggia a un
avanzato sistema informatico che permette
l’acquisizione, la memorizzazione, la
gestione e la stampa delle immagini e
delle relative schede di catalogazione:
con questa innovazione è possibile
dare risposte tempestive all’utenza,
con drastici tagli di tempi e costi.
LE IMMAGINI DELLE OPERE DI CANOVA DANNEGGIATE DAGLI EVENTI BELLICI DEL 1915-18
Immagini di un servizio di guerra svolto dai
fotografi Stefano e Siro Serafi n nel 1917, nel
pieno dell’offensiva austriaca sulle linee del
Piave e del Monte Grappa.
FONDO LUIGI COLETTI DI STEFANIA ROSSO
Circa 12.000 fotografi e di opere
d’arte e monumenti artistici fatte
in un periodo di tempo che va dal
1910 al 1960 circa.
FONDOPROVERA
Circa 1.500 stampe e poche
decine di negativi raffi guranti
persone, viaggi, vacanze,
momenti di tempo libero.
FONDO AUTOMOBILE CLUB DI TREVISO
Alcune centinaia di stampe su carta,
circa 4.000 fotografi e raccolte
nell’arco di ’80 anni. Le foto
riguardano avvenimenti sportivi della
provincia a partire dagli anni ’20.
LE IMMAGINI DELL’ARCHEOLOGIA INDUSTRIALE
Immagini raccolte in occasione
della mostra “L’Archeologia
Industriale nel Trevigiano”.
FONDOGIUSEPPE GNOCATO
20.566 pezzi inventariati di cui
4.720 negativi, 3.125 diapositive
su pellicola e i restanti, cartoline e
stampe su carta. Contiene immagini
del triveneto relative a quasi tutti i
centri abitati tra la fi ne degli anni ’40
e la fi ne degli anni ’60.
39
FONDO ETTORE BRAGAGGIA
6.759 pezzi inventariati di cui 1.782
positivi su carta e i restanti negativi
di cui 255 su lastra di vetro. Contiene
immagini relative a tutti gli aspetti
della vita civile di Treviso tra gli anni
’50 e ’80 del novecento.
FONDO FERDINANDO E BRUNA FORLATI
Circa 10.000 immagini relative al patrimonio
artistico delle Tre Venezie, dell’Istria e della
Dalmazia.
FONDOGIULIO MARINO
265 positivi su carta. Contiene
immagini relative al vittoriese dagli
anni ’20 agli anni ’60 .
FONDOALDO NASCIMBEN
920 pezzi inventariati, diapositive
e negativi su pellicola. Contiene
immagini di Treviso nel periodo
tra le due guerre e dei luoghi
visitati da Aldo Nascimben
nel corso della sua attività di
cineoperatore.
FONDOGIUSEPPE FINI
17.552 pezzi inventariati di cui
2.973 negativi su lastra di vetro,
602 positivi su carta e i restanti
diapositive (230) e negativi su
pellicola. Contiene immagini del
trevigiano dell’800.
LE IMMAGINI CONCESSE DAI PRIVATI
Sono immagini messe a
disposizione da privati cittadini,
autorizzandone un uso di
pubblica consultazione. Tra le foto
alcune tratte dalla fototeca del
generale Pietro Badoglio.
LE IMMAGINI DI CIRCOLI FOTOGRAFICI, ASSOCIAZIONI, ENTI, ISTITUTI
Immagini realizzate in collaborazione
con Associazioni ed Enti del territorio.
FONDOMARIO PAGGIARO
4.756 negativi su lastra. Immagini di
archeologia industriale e ritratti per il
periodo che va dall’inizio del ’900
agli anni ’60.
FONDOGIUSEPPE MAZZOTTI
122.586 pezzi inventariati di cui 15.934
diapositive su pellicola, 22 diapositive
su lastra di vetro, circa 30.000 negativi
su pellicola e i restanti positivi su carta.
Foto di Mazzotti e altri autori.
Fondi Fotografi ci del FAST: un patrimoniostorico pubblico
FONDO LUIGI MUNARI
Circa 15.000 pezzi
prevalentemente negativi
su pellicola e vetro.
Immagini relative a tutti
gli aspetti della vita civile
di Pieve di Soligo
a partire dal 1907.
FONDO DELL’ISTITUTO J. RICCATI DI TREVISO
4.145 vetri da proiezione, costituito
per fi nalità didattiche dall’Istituto, con
soggetti attinenti le materie di insegna-
mento. Raccolta avviata nel 1911.
scenari
40
DICEMBRE 2012
Il FAST (Foto Archivio Storico Trevigiano) ha
realizzato e gestito il progetto di valorizzazione
del patrimonio documentario in proprio possesso
tramite la tecnica della digitalizzazione.
Processo avviato nel 1998 grazie ad un sistema
informatico che permette l’acquisizione, la
memorizzazione, la gestione delle immagini
e delle relative schede di catalogazione. Con
la digitalizzazione si ottiene una trasposizione
digitale delle immagini analogiche che consente
la più vasta fruizione all’utenza, salvaguardando
altresì l’integrità degli originali da eventuali danni
fi sici o ambientali. L’attività di digitalizzazione
svolta dal FAST prevede l’utilizzo di hardware e
software adeguati all’ambito dell’Archiviazione
fotografi ca secondo i parametri previsti dalla
normativa ministeriale dell’ICCD - Istituto
Centrale per il Catalogo e
la Documentazione.
Per la scelta
della dotazione
hardware, non è stata tanto
fondamentale la potenza della CPU
(ormai quasi tutte quad-core) e la quantità
di RAM installata (4 GB sono oggi lo standard
comune) del computer utilizzato, quanto
invece la qualità del dispositivo di acquisizione
delle fotografi e. Inoltre, per quanto riguarda
il monitor da utilizzare, la scelta è caduta
obbligatoriamente su un modello LCD IPS da
almeno 22 pollici, capace di riprodurre quasi
l’intera gamma tonale RGB.
L’elemento fondamentale del suddetto processo
è quindi lo scanner, che deve possedere
ben defi niti requisiti tecnici. A tale scopo il
FAST utilizza scanner CCD a letto piani con
risoluzione ottica di 1.800 dpi, adatti alle
stampe fotografi che e ai trasparenti dal formato
13x18cm in su, e uno scanner CCD dedicato
solo ai trasparenti con risoluzione ottica di 4.000
dpi, adatto alle pellicole e alle diapositive dal
formato 35 mm fi no al 6x6 cm.
Nella scelta dei suddetti scanner è stato altresì
tenuto conto della così detta gamma di densità,
cioè il valore numerico indicante il range di
sensibilità di lettura tonale dal nero al bianco,
che nel caso specifi co risulta essere superiore a
4, indice qualitativo degli scanner propriamente
professionali. La scansione fotografi ca ai fi ni
archivistici richiede il rispetto della geometria
degli originali, ai sensi della normativa ICCD,
quindi non viene ritagliato nessun particolare
esterno all’immagine vera e propria, che viene
quindi acquisita completa di cornice ed eventuali
supporti cartacei su cui è incollata, specialmente
se contenenti dati utili alla successiva
catalogazione.
I parametri di acquisizione sono quelli del
livello qualitativo A della suddetta normativa,
cioè almeno 3072x3072 pixel, in RGB a 24
bit. Nel caso di scansione con uno scanner
non opportunamente pretarato, è opportuno
porre a fi anco dell’originale una striscia di
colori campione utile alla successiva taratura
cromatica dell’immagine. Il fi le risultante
viene salvato nel formato lossless TIF senza
nessun ritocco dell’immagine, tranne eventuali
regolazioni minime di luminosità, su specifi ci
hard-disk di rete in modalità RAID 5, che
permettono la conservazione dei dati registrati
con suffi cienti garanzie di sicurezza e un ottimo
rapporto qualità/prezzo.
I fi le delle immagini possono essere poi
ripresi e rielaborati con un programma di
fotoritocco, come Photoshop o simili, per
essere consegnati in copia all’utenza secondo
le varie modalità previste dal Regolamento
del FAST di concessione delle immagini. Alla
fi ne del processo sopra descritto, le fotografi e
originali sono quindi riposte in appositi locali
di conservazione ad umidità (30%-50%)
e temperatura costanti (max 18° C), con
accesso limitato, in modo da preservarle da
danneggiamenti causati da usura, cadute,
radiazioni luminose e contaminazioni ambientali.
Dopo il processo di acquisizione, segue quello
di catalogazione delle foto archiviate, secondo
i dettami del tracciato della scheda F, indicati
sempre dall’ICCD. A tale scopo il FAST utilizza
da sempre il software di database Filemaker,
che combina potenza e grande fl essibilità d’uso
durante le ricerche, ma limitatamente alle
schede catalogate.
Per una migliore fruizione delle immagini da
parte dell’utenza, il FAST ha quindi deciso anni
fa l’acquisto del software di database Ajaris,
che permette di importare i dati già inseriti in
Filemaker, oltre che catalogare direttamente, e
di associare anche la relativa immagine ad alta
risoluzione, ben visibile in fase di ricerca. Con il
modulo WEB di Ajaris acquistato recentemente,
il FAST ha iniziato il suo cammino verso
l’ambizioso progetto di messa online della
propria banca di immagini.
Diego Romano – Operatore tecnico del FAST
LA TECNICADELLA DIGITALIZZAZIONE PER CONSERVARE LA MEMORA STORICA
informazione pubblicitaria
VEEAM stupisce ancora con la nuovaversione di Backup & Replication 6.5Veeam conferma la leadership nel settore offrendo un Backup per VMware e Hyper-V potente, affi dabile e facile da utilizzare.
Milano, 9 ottobre 2012 - Veeam Software - innovativo
fornitore di soluzioni di backup, replica e gestione degli
ambienti virtualizzati VMware vSphere e Windows Server
Hyper-V - annuncia che Veeam Backup & Replication 6.5
sarà disponibile a partire dal quarto trimestre 2012. La
nuova versione include nuove capacità di ripristino per
Microsoft Exchange e per le snapshot di HP StoreVirtual
VSA e Lefthand. Va inoltre sottolineato il supporto per
VMware vSphere 5.1 e Windows Server 2012 Hyper-V,
che fa di Veeam il primo vendor in grado di supportare
entrambe le nuove piattaforme hypervisor. Queste nuove
e potenti caratteristiche estendono la leadership di Veeam
con una soluzione agentless costruita specifi camente per
la virtualizzazione, potente, affi dabile e facile da utilizzare.
Le funzionalità principali di Veeam Backup & Replication 6.5
includono:
Veeam Explorer per Exchange: gli amministratori VM
saranno in grado di esplorare i backup Exchange per
individuare e recuperare singoli item Exchange, senza agente.
Tra le caratteristiche gratuite vanno sottolineate:
la possibilità di esaminare i database Exchange
direttamente da un fi le di backup compresso e la
disponibilità di database di mailbox ricercabili in meno di
2 minuti;
la possibilità di cercare item specifi ci su database di
mailbox Exchange multipli e la disponibilità di oggetti con
capacità di ricerca avanzate;
la possibilità di esportare item su un fi le PST, su fi le MSG
o di inviarli come allegato.
Veeam Explorer per snapshot SAN: le nuove caratteristiche
consentono agli amministratori di ripristinare velocemente
tutte o alcune VM dalle snapshot SAN, che possono essere
recuperate nel corso della giornata lavorativa con un piccolo
impatto sui sistemi di produzione. Questo consente brevi
recovery point objective (RPO) per gli scenari di ripristino più
comuni: utenti che cancellano dati accidentalmente, script
che corrompono accidentalmente i dati e update di sistema
sbagliati.
Monitoraggio e reportistica avanzati: questa nuova
funzionalità integra il monitoraggio, la reportistica e la possibilità
di pianifi cazione per Veeam Backup & Replication in una
singola console attraverso il nuovo Veeam ONE 6.5, che fa
parte di Veeam Management Suite 6.5.
“Sono rimasto molto colpito dalla facilità di installazione di
Veeam Backup & Replication 6.5” commenta Ian Hasell,
Associate Director di Qdos Computer Consultants Ltd. United
Kingdom. “L’interfaccia è solida e, a pochi minuti dal download
del software, il backup delle VM critiche era già completato.
Altamente raccomandato”. “Le nuove caratteristiche di Veeam
Backup & Replication 6.5 sono molto potenti” spiega Arnaud
Quenum, Consultant di Avnet Technology Solution a Parigi.
“Veeam ha alzato il livello: tra i nostri partner si parla già molto
di Veeam Explorer per Exchange, questa caratteristica avrà
molto successo”. “Tra gli innovatori affermati nell’ambito della
protezione e della virtualizzazione, non sorprende vedere
Veeam tra i leader per quanto riguarda le piattaforme VMware
e Hyper-V, che godono ora del supporto rispettivamente per
la versione 5.1 e 2012” dichiara Jason Buffi ngton, Senior Data
Protection Analyst, Enterprise Strategy Group. “Veeam ha
inoltre compreso che è importante concentrarsi sulla possibilità
di avere non solo il backup, ma anche un ripristino facile e
veloce: le nuove capacità di ripristino di Exchange e delle
snapshot SAN estendono quindi ulteriormente le potenzialità
della soluzione generale”. “La soluzione agentless di Veeam
per il backup e la replica, sviluppata specifi camente per la
virtualizzazione, un tempo era considerata un prodotto di
nicchia, ma ora, come la virtualizzazione stessa, è diventata
all’ordine del giorno “ afferma Ratmir Timashev, President
and CEO, Veeam Software. “Secondo Gartner, a metà del
2012 più del 50% dei workload delle architetture x86 sono
stati virtualizzati sui server e si presume che questo numero
crescerà fi no al 75% entro il 2014. Le aziende oggi fanno
girare le applicazioni e i servizi più critici sulle macchine virtuali,
garantendo così un ripristino veloce, essenziale per assicurare
la continuità del lavoro”.
Disponibilità e prezzi: Le versioni demo di Veeam Backup
& Replication 6.5 e Veeam Management Suite 6.5 eranno
presentate a Barcellona in occasione di VMworld 2012. La
disponibilità generale è prevista per il quarto trimestre 2012.
1 Gartner, Magic Quadrant for x86 Server Virtualization Infrastructure,
Thomas J. Bittman, George J. Weiss, Mark A. Margevicius, Philip
Dawson, 11 giugno 2012
Veeam Software
Veeam® Software sviluppa soluzioni innovative per il backup
VMware (VMware backup), il backup Hyper-V (Hyper-V
backup) e la gestione di ambienti virtuali.
Per maggiori informazioni: http://www.veeam.com/it
Connect with Veeam:
Communities & Social Networks:
http://www.veeam.com/communities.html
News RSS: http://feeds.feedburner.com/VeeamNews-it
42
DICEMBRE 2012
Intervista a Nicola Ciniero presidente e amm. delegato IBM Italia
Cenni biografi ci di Nicola Ciniero.
Ho ricevuto l’incarico di presidente e amministratore delegato
di IBM Italia nel giugno 2009, dopo una parentesi di un anno
e mezzo come general manager sales della compagnia e un
lungo, diversifi cato percorso manageriale iniziato 33 anni fa.
Quello in IBM, a dire il vero, è stato un ritorno. Dopo
averci lavorato tra il marzo 2003 e l’aprile 2006, con una
responsabilità a livello di South Region per il Communications
Sector – i mercati Telecomunicazioni, Utilities e Media –
decisi infatti di accettare una nuova sfi da: guidare il fondo
di private equity Gatesworthy International, partecipato da
Bank of America, tra le cui controllate c’è Jal Group, il primo
produttore mondiale nel settore calzaturiero di sicurezza.
Prima di tutto ciò, per un triennio sono stato al vertice di
Compaq Computer, società cui sono arrivato nel 1997 con
un ruolo da deputy general manager lasciando la posizione di
country manager della PC Business Unit di Digital Equipment.
Gli anni ’90 sono tra i più belli che io ricordi. Per questioni
anagrafi che, certamente, e perché, a quel periodo, risale
l’esperienza maturata in Whirlpool Europe come regional
director Area III & Area Business Team Retail Trade per tutti i
brand del gruppo in Italia, Spagna, Portogallo e Grecia.
Del periodo precedente ricordo invece gli anni trascorsi in
Zenith Data Systems Italia, in cui rimasi fi no al ruolo di Large
Account and Retail Commercial director, quelli in Nixdorf
Computer come marketing director, il lungo periodo alle
vendite in HP e l’esordio in Sperry Univac nel 1979, nell’area
delle risorse umane. Per quanto riguarda l’ambito associativo,
attualmente sono membro di Confi ndustria per la quale
ricopro l’incarico di vice presidente del Comitato Investori
Esteri, con delega ai temi del lavoro e del fi sco. Dal maggio
2011 partecipo anche ai lavori della Giunta confederale, con
un mandato biennale.
Ultimi dati di fatturato IBM Italia.
Per una impresa globalmente integrata come la nostra è
più corretto parlare di indicatori che emergono a livello di
Corporation. Nel 2011 i ricavi hanno raggiunto i 107 miliardi
di dollari, in crescita del 7% rispetto all’anno precedente,
con il fatturato delle cosiddette Growth Markets Unit – il cui
IBM: STORIA DI UN SECOLO DI TECNOLOGIA E CONOSCENZA
43
contributo è ormai pari al 22% del revenue totale di IBM –
balzato di un 11% a tasso di cambio costante. L’utile netto
è salito del 9%, mentre l’earning per share – pari a 13,44
dollari – ha registrato un aumento del 15%, con uno sviluppo
a doppia cifra per il nono anno consecutivo, in linea con le
attese della nostra road-map 2015. Le soluzioni di offerta
legate al software e ai servizi, tecnologici e di business, che
indirizzano la domanda in aree come lo Smarter Planet, gli
Analytics e il Cloud hanno performato oltre ogni aspettiva e
bene si è comportato anche l’hardware.
Il 2012 non sta certo deludendo, nonostante la crisi stenti
a dare segnali di attenuazione. Nell’ultimo trimestre, pur
soffrendo un calo nel fatturato – imputabile all’andamento
della valuta americana e alla caduta della domanda –
abbiamo espanso profi tti e margini il che si è rifl esso in un
+10% nell’utile per azione, attestatosi a 3,62 dollari.
Continuiamo quindi a macinare buoni risultati un po’ ovunque
e questo ci dice che il processo di trasformazione del
business, avviato una decina di anni fa, e la nostra strategia
stanno dando buoni frutti.
IBM - una storia lunga un secolo, quasi quanto la storia dell’Information Technology. Cosa signifi ca essere innovatori oggi per un’azienda che ha assistito e ha cavalcato così tante evoluzioni? Quale il valore aggiunto che fa di IBM ancora un leader in questo settore?
IBM ci dice che la tecnologia rappresenta molto più della
sequenza di scoperte, invenzioni e strumenti che pur hanno
segnato il Novecento.
L’Information Technology infatti ha avuto e ha un ruolo più
profondo, come scienza e come componente pervasiva del
modo in cui il mondo funziona.
IBM è stata un leader in ogni dimensione cominciando con
il costruire orologi, bilance, persino affettatrici, insieme alle
tabulatrici a schede perforate. Ma, ecco il segreto, non si è
mai identifi cata con uno specifi co prodotto o una tecnologia
perché mai ha smesso di reinventarsi, pur conservando
immutati i valori che hanno nella dedizione al successo di
ogni cliente uno dei pilastri.
Qualche esempio? Nel 1981 introducemmo il Personal
Computer mentre undici anni più tardi fu la volta del
popolarissimo ThinkPad. Un successo planetario, com’è
noto, ma quando comprendemmo che il nuovo modello di
computing avrebbe trasformato l’industria dei PC in una
commodity, bene, quel business fu ceduto alla Lenovo. Negli
anni ’80 il PC fu un’innovazione. Vent’anni dopo, perdute le
caratteristiche che ne facevano un prodotto diverso, capimmo
che era venuto il tempo di spingersi nuovamente nel futuro.
È questa la ragione per cui siamo riusciti ad aprire così tante
nuove frontiere nella scienza dell’informazione.
L’ultima è rappresentata da sistemi alla Watson, i computer
STORIA DI UN SECOLO1. Anni ‘60 - 2. Venezia
3. 1928, Milano, Via Crispi:
la vetrina della prima sede italiana di IBM
4. 1937 Milano Via Tolmezzo: il primo stabilimento italiano
incontri con
44
DICEMBRE 2012
cognitivi che offrono un’interazione tra la macchina e gli
umani fi nora sconosciuta. Un diverso paradigma dell’IT, in
breve, destinato a cambiare la nostra esperienza quotidiana
attraverso molteplici applicazioni.
Per la sanità, per esempio, Watson è già al lavoro negli Usa
presso due prestigiose istituzioni aiutando medici e ricercatori
a trovare trattamenti migliori per i pazienti e una cura contro
diverse patologie. Poi ci sono la pubblica amministrazione e
la fi nanza, ma non solo. Il nostro impegno per l’innovazione è
senza soluzione di continuità e ha un solo scopo: trasformarsi
in valore aggiunto per il mercato e per la società nel suo
complesso.
Con il concetto di Smarter Planet, IBM parla di realizzare un mondo più intelligente usando la tecnologia come leva di trasformazione e miglioramento. Un pensiero che bene interpreta la fase di evoluzione culturale portata dalla 3° rivoluzione industriale.
I progressi tecnologici hanno sempre avuto conseguenze
profonde sul corso della storia e sul modo in cui le
organizzazioni umane si strutturano e operano a ogni livello.
Nel secolo scorso, per esempio, gli effetti più profondi
vennero dall’informatica che si è evoluta da insieme di
strumenti a industria, fi no a farsi scienza vera e propria e
componente pervasiva del mondo moderno. L’IT quindi è
diventata molto più di un mezzo utile alle operazioni di back-
offi ce o di un fl usso infi nito di gadget consumistici. E’ il modo
attraverso cui osserviamo il mondo e in cui descriviamo e
comprendiamo la dinamica dei sistemi complessi. In effetti la
tecnologia è ovunque. La ritroviamo nei sistemi e nei processi
che permettono di erogare i servizi, di costruire e vendere
ogni tipo di beni, di trasportarli e distribuirli. Sta in ogni cosa
– dalle materie prime agli oggetti fi niti – che consente a
miliardi di esseri umani di vivere e lavorare.
Ognuno di noi oggi dispone di quasi un miliardo di transistor
il cui costo unitario è pari a un decimilionesimo di centesimo
di dollaro. In giro per il mondo funzionano 4 miliardi di telefoni
cellulari e 30 miliardi di etichette Rfi d: un incredibile numero
di dispositivi che offrono la possibilità di misurare, in tempo
reale, molteplici sistemi, sia naturali sia artifi ciali.
Il pianeta non è solo tecnologico ma anche interconnesso.
I due miliardi di persone che utilizzano Internet possiedono
oggetti d’uso quotidiano in costante comunicazione tra loro.
E la realtà nota come “Internet delle cose” la cui prospettiva
conduce nientemeno che a un trilione di oggetti connessi, e
non solo tecnologici: auto, pc, tablet, macchine fotografi che,
autostrade, ferrovie, giacimenti minerari, oleodotti, fi umi,
oceani, medicine, culture e persino mandrie di bestiame.
45
Tutto ciò genera una grande quantità di dati che le tecniche
di analisi avanzate e i supercomputer sempre più potenti
possono trasformare in conoscenza, da mettere a fattor
comune.
La visione dello Smarter Planet è alla ricerca ovunque
di leader illuminati che vogliano utlizzare una tale
intelligenza per rendere più effi cienti i sistemi, i processi e
le infrastrutture di cui siamo circondati. E i tanti progetti in
corso in tutto il mondo, al fi anco di organizzazioni di ogni tipo,
pubbliche e private, ci dicono che non si tratta di utopia.
Quale il ‘futuro’ delle tecnologie per IBM?
Sono tre, secondo i nostri esperti, le discontinuità tecnologiche
di cui già si avvertono segnali e da cui è atteso un forte
impatto, nel futuro, sul business e sulla stessa vita delle
persone.
La prima chiama in causa i nano-device. Attualmente, cosa
non banale di per sé, i chip sono dotati di alcuni miliardi
di transistor che fra non molto diventeranno triliardi. Ma i
campi di applicazione della nanotecnologia spaziano altrove:
per esempio, IBM ha gia costruito un dispositivo simile a un
transistor con una “nanoporta” attraverso cui può passare
una singola stringa di DNA. E poiché ogni suo elemento è
provvisto di una carica elettrica, si è capito che le stringhe
non solo possono essere spostate ma tradotte in impulsi
elettrici. Questo apre la strada alla personalizzazione delle
terapie, partendo proprio dal DNA della singola persona, e
quindi alla medicina individuale.
La seconda discontinuità chiama in causa l’enorme crescita
dei dati causata dalla incessante espansione dei processi di
business e ancor più, come abbiamo visto, dal moltiplicarsi
dei dispositivi in rete in comunicazione tra loro. A questo
corrisponde una moltiplicazione delle informazioni prodotte e
trasmesse alla velocità delle macchine, con ritmi equivalenti a
centinaia di gigabyte al secondo, intorno ai quali le decisioni
devono essere prese nel giro di microsecondi.
La conseguenza, ecco il terzo salto, è che buona parte delle
tecnologie sviluppate in passato non sono più adeguate a
tali dimensioni e a tale rapidità. Il sistema Watson, cui ho
prima accennato, ha due secondi o poco più per cercare
tra una quantità di dati pari a quella contenuta in milioni di
fonti, ed elaborare la risposta. Ma quello che in realtà deve
fare – l’analisi statistica, la ricerca – va compiuta nel giro di
millisecondi.
In defi nitiva, stiamo entrando in una nuova epoca: quella in
cui c’è un’enorme potenza di elaborazione, una capacità di
analisi e di calcolo matematico inimmaginabili fi no a poco
tempo fa e un insieme di dati, su scala planetaria, disponibili
in forma digitale. Sia che si guardi all’infi nitamente piccolo
sia a ogni fenomeno che ci circonda siamo in procinto di
realizzare cose che credevamo appartenere alla fantascienza.
incontri con
46
DICEMBRE 2012
Thomas Eliott affermò che “abbiamo conquistato molta informazione, ma abbiamo perso in conoscenza”. Qual è la visione di IBM?
Credo che le parole del grande poeta americano esprimano
l’angoscia di quanti hanno vissuto il Novecento interrogandosi
sui grandi cambiamenti sociali ed economici indotti anche
dal progresso tecnologico. Nel ventennio che separa la fine
del secondo conflitto mondiale dalla sua scomparsa, Eliott
assiste alla grande accelerazione tecnologica in ogni campo
e, probabilmente, percepisce gli effetti e le conseguenze
dell’avvento dei primi calcolatori elettronici, degli elaboratori
a transistor e di altre invenzioni di IBM come l’archiviazione
elettronica dei dati.
Comprende allora che la quantità di informazione resasi
disponibile è pronta a superare la umana capacità di utilizzo,
cosa che puntualmente si avvera. Col passare dei decenni,
con l’accelerazione dell’IT, la sua applicazione a ogni settore
d’industria, la consumerizzazione di massa, l’avvento di
Internet e, infine, con i processi di digitalizzazione, termini
come gigabyte e terabyte entrano nell’uso comune e il
fenomeno raggiunge le attuali proporzioni, quello noto come
Big Data.
Stiamo parlando di dati sotto forma di testo, audio, foto,
immagini – sia di tipo statico sia di tipo dinamico – che
vengono prodotti e archiviati in formati e in luoghi differenti,
dai tradizionali data-base ai social networks, senza soluzione
di continuità e in maniera esponenziale.
Se per IDC il loro volume totale raggiungerà i 35.000
exabytes nel 2020, una cifra ventinove volte i 1.200 exabytes
del 2010 – e un exabytes, tanto per intenderci, equivale a un
trilione di byte – per Gartner, la spesa IT destinata alla loro
gestione crescerà in tutto il mondo dagli attuali 27 miliardi di
dollari ai 55 miliardi del 2016.
L’impegno di IBM negli analytics, nelle macchine alla Watson
e nei progetti Smarter Planet nasce per rispondere a tutto ciò:
per aiutare il business d’ogni tipo, così come le organizzazioni
pubbliche, a dare un senso a tale ricchezza di informazioni,
ovunque si trovi, analizzandola, elaborandola e integrandola in
molti modi. Per gestire e per predire.
E così trasformandola, appunto, in conoscenza.
Per quanto riguarda le imprese italiane, quali cambiamenti si trovano ad affrontare oggi per diventare più intelligenti? Quali le sfide dei CEO per migliorare l’organizzazione del lavoro nelle loro aziende?
In tutto il mondo, Italia compresa, le aziende stanno cercando
di rispondere alla complessità indotta dalla forte convergenza
tra le sfere del digitale, del social e del “mobile”. Convergenza
che mette in connessione, come mai avvenuto prima, i
1. H. Rohrer, G.Binnig, ricercatori laboratorio IBM Zurigo.
2. Icone del centenario IBM.
47
principali stakeholder di ogni organizzazione creando sia
pressioni al cambiamento sia nuove opportunità di sviluppo.
Da una recente indagine di IBM, condotta tra 1.700 Chief
Marketing Officers, emerge che il 72% del campione svela la
necessità di affrontare fenomeni come l’esplosione dei dati, la
crescita dei canali social e la proliferazione dei device mobili
per assicurare la fedeltà alla marca, sviluppare la relazione
con i consumatori e dimostrare il ritorno dell’investimento.
Nello stesso tempo, e per la prima volta dal 2004, anno in
cui IBM avvia la serie dei suoi CEO Study, i capi azienda
intervistati nell’edizione 2012 riconoscono nella tecnologia il
primo fattore esterno destinato a guidare i cambiamenti della
propria organizzazione, in un arco di tempo compreso fra i
tre e i cinque anni. La tecnologia è quindi vista non più come
driver di efficienza ma come elemento che abilita l’apertura
e la cooperazione, interna ed esterna, e di qui la creatività e
l’innovazione a tutto tondo.
La tecnologia sta cambiando le regole del gioco, aiutando
le aziende di ogni dimensione e settore d’industria a
comprendere a fondo clienti e consumatori, meglio che
in passato, e a ingaggiarli con una precisione senza pari,
offrendo quindi risposte più efficaci.
Nessuno minimizza l’importanza del rapporto interpersonale,
il cosiddetto “face-to-face”, ma oltre la metà del campione
ci dice di attendersi dai social media, entro 5 anni, il ruolo di
primo canale di interazione e di ingaggio dei consumatori.
Mi pare un cambiamento epocale.
Digital divide e accesso alla banda larga: quali le prospettive nel nostro paese? E in che modo potrebbero impattare sul business IBM?
Partiamo dall’agenda digitale, tema che da tempo ci vede
impegnati ai tavoli di confronto con la volontà di essere
partner del percorso di trasformazione del Paese.
Con il decreto 2.0 finalmente si fa dell’innovazione un
elemento strategico per la crescita, oltre il breve periodo.
Si avvia un programma di confronto con i vari stakeholder
attraverso la cabina di regia, si prevede un sistema di
governance unico con una visione di ampio respiro che
accentra le varie competenze, si coglie l’esigenza di un
nuovo rapporto tra domanda e offerta con strumenti come
il dialogo competitivo o il concetto di social innovation, i
quali rappresentano il presupposto per una riqualificazione
del rapporto pubblico-privato in un’ottica di collaborazione
strategica.
Non solo: i fondi europei vengono canalizzati su iniziative
per il territorio e, con grande coraggio, si spiana la strada al
processo di digitalizzazione del Paese, secondo una strategia
allineata a quella europea, attraverso la semplificazione delle
48
DICEMBRE 2012
regole, la dematerializzazione del rapporto PA-Cittadino,
l’identificazione di aree precise in cui intervenire come le
comunità intelligenti, la sanità, la scuola, la banda larga.
Ma gli aspetti da migliorare non mancano certo. In un
contesto di risorse limitate come il nostro, maggiore
apertura dovrebbe essere data alle potenzialità dell’IT in
termini di razionalizzazione delle risorse, da riallocare su
aree strategiche per il rilancio del Paese. Una pianificazione
strategica degli investimenti in IT può infatti garantire un
sistema di innovazione che si autoalimenta.
Ora la speranza è riposta nel lavoro dell’Agenzia per l’Italia
digitale cui si chiede determinazione in termini di visione,
competenze, autonomia e risorse in un quadro di trasparenza
nei confronti di tutti gli attori. La vera incognita, però, sta nel
superamento dell’attuale fase di transizione, nella continuità
che dovrà manifestarsi sotto l’ala del prossimo Governo e,
naturalmente, nella rapidità di esecuzione.
Per quanto riguarda la banda larga la situazione non è delle
migliori. Cito i dati di un recente rapporto di Akamai: in Italia
la penetrazione della banda larga (fino a 4 Mbps) resta stabile
al 28% della popolazione e soltanto il 2,6% degli italiani è
servito da connessioni ‘high broadband’, cioè sopra i 10 Mbps.
A livello UE il nostro Paese si piazza al penultimo posto per
entrambe le tipologie di connessione, solo davanti alla Turchia.
Pure a velocità media di connessione non siamo messi
bene, questa risultando addirittura in diminuizione anno su
anno. L’analisi dell’Osservatorio Banda Larga ci mostra che
pur includendo tutte le possibili modalità di accesso e gli
stessi device mobili la penetrazione è inferiore al 60% della
popolazione.
Insomma, potremmo e dovremmo fare di più per recuperare
il nostro ritardo. Perché senza una riduzione consistente
del divario digitale il tessuto produttivo, e la stessa PA,
continueranno a soffrire. Mercati come l’e-commerce che pur
potrebbero contribuire alla crescita delle aziende, anche in
chiave internazionale, non possono decollare.
Certo, il decreto ha rimosso procedure e adempimenti. La
49
volontà di imprimere un’accelerazione si nota anche se il
Paese deve ancora centrare l’obiettivo di azzerare il divario
di prima generazione, i famosi 2 Mbps nelle zone non ancora
coperte e nelle aree a fallimento d’impresa. Nel frattempo
è stata aggiornata l’indicazione delle risorse disponibili: il
Ministero per lo Sviluppo Economico dice che i fondi pubblici
per estendere la banda larga e larghissima nelle zone non
interessanti per gli operatori sono saliti a oltre il miliardo di
euro. E che a ciò dovrebbero aggiungersi i soldi dei privati
che prenderanno parte ai bandi pubblici, più gli ulteriori
finanziamenti europei.
Insomma, la fiducia non manca e il soddisfacimento degli
obiettivi dell’agenda digitale che, entro il 2020, prevedono
l’accesso a 30 Megabit per tutti e a 100 Megabit per il 50%
degli italiani è quasi dato per scontato. Sarà. Nel frattempo,
però, e si tratta di sei anni, la capacità competitiva dell’intero
sistema Paese non potrà che risentirne.
Il ruolo del partner. Quale il vantaggio di raggiungere le imprese attraverso questo interlocutore?
Per IBM non c’è strategia rivolta alla piccola e media impresa
che non faccia leva sulla competenza dei propri business
partners, su una reciproca collaborazione definibile “tra pari”
e sul valore unico esprimibile al cliente finale.
A dirlo sono i numeri di un ecosistema composto da
centinaia di migliaia di organizzazioni – oltre 3.500 nel
nostro Paese – e le prospettive di un mercato complesso ma
straordinariamente importante da cui è lecito attendersi una
crescita significativa. Ma proprio l’evoluzione verso lo smarter
computing, gli analytics e il cloud mostra oggi la necessità
di traghettare quelle competenze verso i più innovativi
modelli di erogazione del servizio e di impiego di sistemi
integrati hardware-software di cui le piccole e medie aziende
hanno bisogno per semplificare l’IT, liberare le risorse oggi
principalmente impegnate a mantenerlo, accedere a nuovi
modelli di fruizione delle tecnologie e per focalizzarsi così
sul proprio core business. In altre parole, c’è un crescente
bisogno di operatori definibili come “Managed Service
Provider”, bravi a costruire una prossimità e una partnership
con il cliente puntando su una solida infrastruttura e una
capacità di servire l’IT, secondo un modello pay-as-you-go,
in un ambiente altamente virtualizzato, condiviso, sicuro,
affidabile per continuità e recovery, e naturalmente scalabile.
Una cosa è certa: la mera fornitura di prodotti, e il loro
periodico rimpiazzo, appartengono ormai al passato.
Ai partner IBM si affianca con il peso della propria leadership
nell’innovazione e con un approccio rivoluzionario che fa
leva su una piattaforma tecnologica orientata al cloud e che
include formazione e marketing, oltre a un miliardo di dollari
in soluzioni di finanziamento.
Così, a un set di offerta per la piccola e media impresa oggi
ineguagliato – dal portfolio SmartCloud allo Smarter Storage,
dai sistemi e soluzioni PowerLinux IBM alla nuova famiglia di
piattaforme integrate PureSystem e molto altro – si affianca
un insieme di programmi di training e sviluppo delle skills
professionali, di riconoscimento dei risultati, di sostegno alle
attività con incentivi, forme contrattuali dedicate e, come
detto, di specifiche opzioni di finanziamento.
La road-map strategica 2015 di IBM che punta allo sviluppo
dei mercati della business analytics, del cloud computing
e dello smarter planet in ogni settore d’industria non può
quindi prescindere dalla collaborazione con un ecosistema di
business partner preparati e competenti, pronti a condividere
con noi una logica di valore su un mercato in evoluzione.
Ecco perché, anche in Italia, continueremo a investire risorse
e sforzi sempre più consistenti in questa direzione.
incontri con
Innovazioni su misura per le piccole e medie imprese che vogliono far crescereil proprio business.
Nessun compromesso.
windows.it/business
Un’esperienza straordinaria,indipendentemente dal dispositivo:dai tablet ai computer convertibili, dai portatili ai PC desktop.
Insieme per investire sulle tue idee.
Social Media ROI
51
Vincenzo Cosenza spiega come misurare le strategie Web 2.0
scenari
Ampio è il dibattito sul Social Media ROI, il suo libro porta nuovi contributi alla ricerca in essere? Quali i temi chiave?Il testo cerca di sistematizzare i contributi alla ricerca e di
svelare i miti intorno al concetto di ROI dei social media.
Il tema principale è capire che non tutto quello che conta
può essere contato, ma non per questo bisogna procedere
senza punti di riferimento. E’ importante costruire un proprio
framework di misurazione, da adattare alle specifi che
esigenze.
Quando parla di indicatori nella valutazione a posteriori anche per il Social, a cosa si riferisce?Quello che sostengo è che il framework di misurazione va
impostato in anticipo e deve servire come bussola per la
valutazione delle attività.
Quali sono le metriche e i tool di misurazione più utilizzati in ambito aziendale?Sia le metriche che i tool sono tantissimi. Bisogna
individuare e scegliere quelli più adatti a capire se si stanno
raggiungendo gli obiettivi aziendali. Il libro ne illustra alcuni.
Con Blogmeter ( HYPERLINK “http://www.blogmeter.it” www.
blogmeter.it) abbiamo creato un tool di comparazione delle
pagine/profi li Facebook e Twitter che permette di accedere ad
un numero molto ampio di indicatori, attraverso i quali capire
le performance.
Quanto è diffusa in Italia la percezione organizzativa dell’importanza di misurare la propria presenza online e la propria “reputazione”?Poco. La rete sembra ancora un mondo distante, virtuale, in
grado di non incidere sulla reputazione.
Una guida italiana sul ROI dei social media, per ottimizzare l’uso professionale della gestione della
presenza in Rete. Un metodo per misurare gli obiettivi e i risultati delle attività aziendali.
52
DICEMBRE 2012
Il primo capitolo è dedicato all’evoluzione della rete,
della comunicazione e dei social media. I seguenti due capitoli
focalizzano la correlazione tra social media, web, organizzazione e strategia.
Nella parte centrale del manuale c’è poi
un approfondimento sul monitoraggio
dell’ “ascolto”. L’ultima parte
presenta una serie di strumenti di
misurazione free o a pagamento.
Nato a Lauria nel 1973, Vincenzo si
è laureato in Economia e Commercio
ed ha conseguito un Master in
Management dell’Innovazione alla
Scuola Superiore Sant’Anna di Pisa.
Ha iniziato a lavorare in Microsoft Italia nel
marketing competitivo e nelle pubbliche relazioni.
Da settembre 2007 ad agosto 2012 è stato
responsabile di Digital PR Roma (Hill+Knowlton
Strategies). In seguito è diventato Social Media
Strategist e responsabile della sede romana di
BlogMeter, la società sopracitata. L’attività di
ricerca, complementare alla pratica quotidiana
nel campo della comunicazione sui social media,
lo ha condotto all’apertura del primo Osservatorio
Facebook italiano e alla creazione della Mappa
Mondiale dei Social Network. Occasionalmente
scrive per Nòva (Il Sole 24 Ore), Panorama
Economy e fa formazione.
Da marzo 2012 fa parte degli autori del
magazine “Che Futuro!” diretto da Riccardo Luna.
In passato ha tradotto “La Bibbia del Marketing
su Facebook” di Justin Smith, mentre il suo
primo libro è “Social Media ROI” (Apogeo).
Come converge il mondo dei social network con i temi dell’It e ICT in senso stretto?I social network sono luoghi di connessione e conversazione.
L’aspetto tecnico è sempre meno importante, a meno che non
si intenda parlare di quei social network da usare in ambito
enterprise (es. yammer).
Oggi in azienda il “marketing” è sempre più coinvolto in scelte in cui la tecnologia è presente. Come si sviluppa il “mash-up” tra tecnologia e comunicazione?E’ necessario una collaborazione tra le aree del marketing
e quelle delle IT, ma la tecnologia deve essere sempre
subordinata ai superiori obiettivi aziendali. Spesso però
accade il contrario.
Come vede Lei i nuovi CRM con lo sviluppo progressivo del mondo “Social”?Ancora acerbi, ma la convergenza tra mondo CRM e Social mi
sembra utile e produttiva.
Com’è l’approccio delle aziende italiane ai social media dal punto di vista tecnologico, ma anche da quello manageriale e organizzativo?L’uso dei social media all’interno dell’organizzazione è
pressochè sconosciuto. Invece l’uso come strumento di
comunicazione sta prendendo piede, anche se a volte
l’approccio è troppo commerciale e non conversazionale.
Contestualmente al tema: come sta evolvendo la “cultura” social in Italia?Se si intende con cultura social la comprensione delle
dinamiche conversazionali, la maggior parte delle aziende
sono ancora indietro. Fanno fatica, perché sono abituate
a logiche “push” e non collaborative. Sono abituate a dare
messaggi, senza ascoltare.
Questa “cultura” è direttamente proporzionale all’evoluzione delle tecnologie interessate?Non credo. La tecnologia c’entra come abilitatore di processi
di cambiamento culturale, ma è l’utilizzo, e quindi le
dinamiche sociali, a trasformare gli aspetti culturali.
53
La recensione Internet è probabilmente il mezzo più
misurabile per chi fa comunicazione, ma spesso non è
utilizzato adeguatamente.
Oggigiorno, infatti, per sancire il successo di un’azione
di comunicazione, ci si affida “all’impressione personale”
o a non ben verificate statistiche, piuttosto che affidarsi
a metriche di analisi e misurazione.
Tuttavia una strategia di comunicazione con obiettivi
di business non è basata sull’intuizione, bensì su criteri
‘matematici’ d’analisi. Quindi, anche gli indici di rilevazione
devono essere razionalmente verificabili.
Il volume “Social Media ROI”, edito da Apogeo e scritto
dal professionista Vincenzo Cosenza, nasce con l’obiettivo
di offrire un supporto pratico e utile.
Il libro, scritto in un linguaggio non tecnico, si discosta
dalla letteratura sul social media marketing perché si pone
in un’ottica più operativa: fornisce, infatti, indicazioni utili
a capire qual è effettivamente la situazione nel panorama
italiano di settore.
Dalla retrocopertina “Internet è il più misurabile
dei media, tuttavia la mancanza di metriche condivise è
uno scoglio contro cui chi pianifica iniziative di marketing
attraverso i social media si scontra quotidianamente.
Il pericolo è quello di utilizzare in modo scorretto gli indicatori,
come il tanto mitizzato ROI (Return On Investment), o di finire
per collezionare una serie di dati numerici che si rivelano
vuoti, perché privi del contesto di riferimento, oltre che spesso
incomprensibili per decisori aziendali con poca familiarità con
la Rete. Questo libro cerca di mettere a fuoco alcuni punti
fermi: a partire dalla diffusione dei social media in Italia, fino
agli strumenti e le soluzioni per strutturare programmi di
attività coerenti con le strategie di marketing e con le funzioni
aziendali. La misurazione di obiettivi e risultati diventa così
il grimaldello per scardinare preconcetti superficiali sull’uso
dei social media, la bussola per migliorare il lavoro quotidiano
all’interno dell’azienda, la guida per immaginare il percorso
che porterà fan e follower a diventare consumatori soddisfatti
e, magari, sostenitori fedeli del brand”.
I social network sono luoghi di connessione e conversazione.
scenari
54
DICEMBRE 2012
L’evoluzione dei sistemi software a supporto della gestione
aziendale rappresenta la fase finale di un processo di
cambiamento dell’azienda che è prima di tutto culturale.
L’impresa che oggi decide di sostituire il proprio sistema
informativo sa di dover ripensare profondamente le proprie
logiche di amministrazione partendo da un’analisi critica dei
processi interni ed esterni, delle problematiche organizzative,
dei colli di bottiglia presenti. La scelta di tecnologie
e architetture adatte a supportare il passo evolutivo
rappresenta, quindi, solo l’ultimo atto di un rinnovamento che
inizia coinvolgendo la visione che l’azienda, nelle persone del
management, ha di sé, delle proprie capacità di gestione e
potenzialità di migliorare. Le capacità consulenziali che hanno
permesso al Gruppo Eurosystem Sistemarca di realizzare
Volere e avere un percorso non condizionato
Freeway® Skyline è uno stato culturale prima ancora di un prodotto: un insieme di pensieri,
processi, strategie, filosofia e tecnologia per migliorare l’efficienza e implementare il “valore” del fruitore.
La ricerca di un percorso non condizionato, per soluzioni aderenti all’identità della persona.
È l’uomo al centro dell’attenzione che crea le sue strade libere da vincoli e traccia il proprio profilo,
evidenziando i tratti del contorno che desidera. Perché si deve saper ascoltare e conoscere la
persona che si ha di fronte, prevederne i bisogni, capirne i tempi e rispondere alle sue indicazioni.
Tutto questo è Freeway® Skyline.
STRADE LIBERE DI CREARSI
ALESSIO VOLTAREL [email protected]
55
spazio a y
il proprio prodotto ERP (Enterprise Resource Planning)
Freeway® Skyline si basano, quindi, su fondamenta che
hanno una natura concettuale e metodologica prima ancora
che architetturale e tecnologica, perché non esiste vera
innovazione tecnologica che non sia guidata dall’evoluzione
delle idee.
La realizzazione di un progetto software a supporto del
rinnovamento di un’azienda e della componente IT in essa
impiegata deve attingere dal bagaglio di conoscenze e
metodologie orientate al Business Process Management, un
metodo di analisi che permette di comprendere e analizzare
i processi aziendali, evidenziarne criticità, ridisegnarli in
ottica di aumento della loro efficacia ed efficienza (Vision & Methodology). Una volta nato, il processo di evoluzione
culturale dell’azienda si estende inevitabilmente ai sistemi
tecnologici in grado di rendere il cambiamento concreto ed
effettivo.
Per sostenere efficacemente i processi rinnovati, il
software deve evolvere nella sua concezione e dotarsi di
un’architettura e una progettazione adeguate a supportare
l’automazione dei modelli di business individuati (Software Architecture & Design).
E questo non è possibile senza una specifica tecnologia di
base che permetta la realizzazione software dei processi
aziendali e dei servizi che li sorreggono per mezzo di un
sistema integrato e in grado di guidare gli utenti nello
svolgimento delle sequenze di attività previste (Infrastructure & Technology).
Visione, Progettazione e Tecnologia: mettendo insieme
questi tre ingredienti, il Gruppo Eurosystem Sistemarca, si
fa portatore di un concetto di innovazione più ampio, che
guarda alla tecnologia come mezzo, più che come fine, del
rinnovamento.
56
Un passaggio fondamentale nell’evoluzione culturale delle
aziende è riconoscere la necessità di analizzare i processi
aziendali per recuperare effi cienza e controllo, aumentare
le proprie capacità di business e di competere. La chiave di
volta per perseguire questi obiettivi è affrontare l’analisi di tali
scenari ricorrendo a competenze e metodologie orientate al
Business Process Management (BPM).
Le problematiche in gioco sono essenzialmente due.
Da un parte, le aziende sono spesso affl itte, a volte
inconsapevolmente, da problemi di processo. I fl ussi di lavoro
spesso non sono documentati, né all’interno dell’azienda,
tra i vari reparti o divisioni, né tra aziende del gruppo o con i
soggetti esterni (terzisti, fornitori, clienti, enti). Gli uffi ci o reparti
organizzano il lavoro in modo scoordinato, personale, con
supporti extra-sistema (fogli Excel). Dall’altra, le aziende vivono
tensioni contrapposte: il continuo cambiamento delle esigenze
di business dovuto alla variabilità delle richieste di mercato o di
riorganizzazione interna e i vincoli “immutabili” di fabbrica, delle
linee produttive, della gestione logistica o di altro.
Come conciliare le due tensioni? Per rispondere è necessario rifl ettere sulla natura dei processi aziendali.
Per loro natura, i processi aziendali attraversano l’azienda
letteralmente da parte a parte. Sono costituiti da sequenze ordinate di attività che investono reparti, uffi ci e mansioni;
coinvolgono utenti e sistemi in modo trasversale rispetto al
tradizionale organigramma dell’azienda.
Le aziende, soddisfatte le esigenze di base coperte oramai da
qualsiasi ERP, hanno bisogno di affrontare le problematiche
di processo (innanzitutto interne, ma non solo), riconoscendo
che vi sono ampi margini di miglioramento e di recupero di
effi cienza proprio guardando ai processi.
È inevitabile quindi che il rinnovamento delle aziende (e quindi dell’IT in esse impiegato) passi proprio attraverso la revisione dei propri processi.
Come risolvere allora i problemi di processo? Esplicitare i fl ussi di lavoro, con una modellazione aderente alle
problematiche di alto livello dell’azienda costituisce un buon inizio.
È poi necessario che in uffi ci e reparti il lavoro dei sistemi e delle persone sia coordinato e supportato da un sistema integrato. In questo modo si conciliano tensioni contrapposte.
Le esigenze di business cambiano, i processi sono per loro
natura mutevoli, le singole attività da svolgere meno, sono
più stabili e riproducibili in processi diversi. Si introduce un
disaccoppiamento tra ambito di processo e responsabilità dei
servizi aziendali, creando due livelli che possono evolvere con
due “velocità” diverse: i processi cambiano più frequentemente,
i servizi sono più “stazionari”, sono riutilizzabili in diversi
processi contemporaneamente, segregano in sé i vincoli
inamovibili.
A cosa serve quindi una metodologia di analisi per processi?
Lo stile di management che dà alla propria azienda
un’architettura di processo diventa il fulcro del cambiamento
per affrontare la competizione. Analizzare questi scenari
necessita di competenze e metodologie orientate al Business Process Management, che portino alla luce i difetti dei
processi attuali, per disegnare quelli che l’azienda si darà
nel futuro, dati gli obiettivi di business che si prefi gge
di raggiungere. L’analisi per processi diventa anche un
orientamento fondamentale nei progetti software. Questo
perché il rinnovamento delle aziende (e quindi dell’IT in esse
impiegato) passa attraverso la revisione dei propri processi;
le aziende, guardando ai processi, hanno ampi margini di
miglioramento e recupero di effi cienza all’interno e nelle
relazioni esterne; l’analisi BPM permette di modellare al
più alto livello di astrazione le attività e le entità presenti nei
processi.
Ma una automazione effi cace ed effi ciente dei processi
può essere realizzata solo attraverso un adeguato supporto
architetturale del software.
BUSINESSPROCESSBUSINESSBUSINESSMANAGEMENTPROCESSPROCESS
VISION & METHODOLOGY
DICEMBRE 2012
57
L’evoluzione culturale è accompagnata dall’evoluzione dei
sistemi software a supporto del cambiamento nelle aziende,
nel segno di una rinnovata gestione che mette al centro i propri
processi di business. Nel software c’è bisogno di un supporto
architetturale adeguato a sostenere l’automazione dei processi.
Una leva è la Service Oriented Architecture (SOA), un’altra è la
capacità di eseguire i processi a sistema.
L’automazione dei processi. Per sostenere i processi, il
software deve evolvere nella sua concezione, avere un ruolo
proattivo nei confronti delle utenze aziendali, nel riconoscimento
dei rispettivi ruoli e dei compiti da essi svolti quando coinvolti
nei processi. Il sistema deve essere in grado di dare supporto
allo svolgimento degli human workfl ow, sequenze coordinate di
attività svolte dall’uomo e di compiti svolti dal sistema. L’attività degli utenti nei processi dell’azienda è supportata dal
ruolo attivo del sistema informatico che, eseguendo il fl usso,
controlla, guida, svolge compiti di automazione, affi da attività
agli utenti, lasciando loro liberi di occuparsi dei più importanti
compiti decisionali, creativi, di ideazione. Ciò costituisce un
grande passo avanti nella produttività e nell’esperienza vissuta
nell’impiego del sistema informativo, in altre parole è un grande
contributo alla User eXperience.
L’architettura software a servizi (SOA). Il linguaggio
dei processi parla di concetti di business rilevanti, entità
e problematiche di “prim’ordine” della realtà aziendale. Si
intendono in tal senso le attività dell’utente o del sistema che
riguardano, ad esempio, clienti, listini, fornitori, prodotti, materie
prime, distinte materiali, cicli di lavorazione, ordini, fatture,
spedizioni e così via. La Service Oriented Architecture (SOA)
diventa parte del DNA di un sistema informatico che supporti
effi cacemente la realizzazione dei processi. Esso viene concepito
come scomposto in servizi guidati dalle orchestrazioni che
hanno luogo, “incarnando” così il BPM aziendale nel sistema
informatico. Tali servizi hanno un’interfaccia e svolgono compiti
di business di elevato profi lo.
Si delinea una ripartizione del sistema in due importanti livelli
di astrazione, dal punto di vista della business logic entrambi
elevati, ma ben distinti concettualmente: quello superiore nel
quale si colloca la logica di workfl ow, cioè l’implementazione
di un processo aziendale, e quello dei servizi che i workfl ow
utilizzano. Nella modellazione del software quindi la vera sfi da è progettare servizi effi caci al punto da essere riutilizzati
in contesti di processo differenti. Questo perché i processi
cambiano spesso mentre i servizi di base sono piuttosto
invarianti.
Si pensi ad esempio a un servizio di progettazione di un
articolo: tutte le aziende possono avere analogamente bisogno
di un servizio di questo tipo, mentre molto diversi possono
essere le logiche di processo che li utilizzano. Ad esempio,
un preventivo di vendita può essere confermato direttamente
in ordine oppure andare in approvazione a un responsabile
a seconda del valore; l’ordine di vendita può considerarsi da
spedire se è stato versato un acconto del 30% dal cliente e se
mancano tre giorni alla data di richiesta consegna e così via.
SOA è un supporto effi cace anche per la collaborazione tra software eterogenei. SOA viene preferibilmente impiegata anche nell’ambito dell’integrazione di software eterogenei. Aderire ad un unico linguaggio di business con cui i servizi
espongono le funzionalità mediante le proprie interfacce,
consente di creare un livello omogeneo a disposizione dei
processi, nonostante l’implementazione dei servizi sia realizzata
su sistemi software molto eterogenei. Si pensi ad esempio
all’integrazione tra un gestionale ERP e un sistema CAD di
progettazione grafi ca di ordini cliente. Schieramenti di servizi
che parlano lo stesso linguaggio di business, implementati
ciascuno sui due sistemi, rendono le peculiarità di ciascuno
segregate, nascoste, trascurabili. Lo scenario architetturale
come quello visto, ha bisogno di un supporto infrastrutturale e tecnologico coerente.
spazio a y
SERVICEORIENTEDSERVICESERVICEARCHITECTUREORIENTEDORIENTED
SOFTWARE ARCHITECTURE & DESIGN
58
DICEMBRE 2012
La realizzazione software dei processi aziendali e il
coinvolgimento attivo degli utenti nello svolgimento di attività
guidate dal sistema richiedono infrastrutture e tecnologie
software apposite. Gli “ingredienti” a supporto sono l’ambiente
di esecuzione dei workfl ow, il service bus, la working list.
Il motore di workfl ow. SOA è particolarmente adatto ad
essere impiegato dai motori di workfl ow o di orchestrazione, in analogia alla conduzione di un’orchestra che ottiene
il perfetto coordinamento dei “pezzi” coinvolti. Il sistema
deve poter eseguire i workfl ow che “incarnano” i processi
aziendali, le cui istanze possono essere in esecuzione
contemporaneamente.
Si pensi alla quantità di azioni, documenti e attività che
scaturiscono alla ricezione di una conferma d’ordine cliente a
seguito di un preventivo. Per quei cliente e ordine, ha inizio una
serie di attività che porteranno alla progettazione, produzione,
spedizione e fatturazione del bene ordinato. Con centinaia di
ordini al giorno che vengono confermati prendono vita istanze
distinte di fl usso, ciascuna con il proprio stato di avanzamento,
i momenti di attesa che un utente o il sistema svolgano un
compito, quindi di sblocco per eseguire il passo successivo.
Un motore di workfl ow può avanzare un numero virtualmente
infi nito di istanze diverse di uno stesso processo o di processi
diversi; di richiedere al sistema di svolgere attività interpellando
gli appositi servizi SOA; di richiedere agli utenti di diversi ruoli
che svolgano le dovute attività, di attendere il loro compimento
per proseguire nei passi successivi.
Altri “partner” fondamentali del motore di workfl ow sono
l’infrastruttura di service bus e la working list degli utenti.
Il service bus. È la dorsale di comunicazione nel sistema
alla quale i servizi e i workfl ow affi dano l’instradamento e la
consegna delle richieste, e dalla quale attendono le risposte.
È anche il meccanismo di confi gurazione della topologia di
collaborazione dei servizi, in modo tale che i workfl ow o i servizi
che utilizzano altri servizi non debbano conoscere dove si trovi
materialmente in esecuzione un determinato destinatario di
richiesta. Questa visione a “instradamento” unico che offre
il service bus, insieme ai concetti di elevata granularità di
business con cui i servizi si offrono nell’architettura SOA,
allontana dal rischio di aderire a una ottica semplicistica e
scorretta di “replicazione dati” tra applicazioni in peer-to-
peer (mittente e destinatario che si contattano direttamente).
Questo vale ancor di più nello scenario di integrazione fra
sistemi software diversi, consegnando un doppio benefi cio
di elevazione nella visione dei problemi: dal peer-to-peer
all’orchestrazione; dalla replicazione “dati” allo scambio di “entità”.
La working list. È dove gli utenti vedono le notifi che e le
attività da svolgere veicolati loro dai fl ussi eseguiti dal motore di
workfl ow. Ogni utente, mediante il portale del sistema oppure
su dispositivi mobili, ha a disposizione uno o più “luoghi”
interattivi nei quali i workfl ow “spediscono” le notifi che o le
attività da svolgere. Poiché nelle aziende ogni utente riveste uno
o più ruoli, il sistema interattivo e le interfacce sui dispositivi
sono opportunamente declinate alle mansioni dell’utente, in
termini di funzionalità e informazioni accessibili.
La working list è un denominatore comune a tutti gli utenti,
la differenziazione in base al ruolo in questo caso avviene nei
possibili workfl ow in cui un determinato utente può essere
coinvolto e quindi al tipo delle attività che vede elencarsi nella
propria working list. La working list dà all’utente una visione
per tipologia di attività, per priorità, per scadenza o altri criteri
che l’utente stesso può defi nire. Mediante un click l’utente può
visionare i dettagli di una notifi ca o aprire un’attività, svolgerla
con l’opportuna applicazione software, alla sua conclusione
l’esito viene restituito al workfl ow in attesa affi nché possa
sbloccarsi e avanzare. L’elenco delle notifi che e delle attività
devono poter raggiungere gli utenti su qualsiasi piattaforma,
anche su tablet o mobile phone. Il modo di offrirla e le
caratteristiche dei dispositivi impattano signifi cativamente con
l’esperienza che l’utente ha, a ribadire che anche il mondo
dei workfl ow costituisce un ambito importante della user
eXperience (UX).
WORKFLOWUSERWORKWORKEXPERIENCEUSERUSER
INFRASTRUCTURE & TECHNOLOGY
60
DICEMBRE 2012
Nomisma S.p.A. è uno dei principali istituti privati di ricerca economica a livello nazionale ed europeo.
Fondata a Bologna nel 1981 per iniziativa di Nerio Nesi e Francesco Bignardi con il sostegno di Romano
Prodi che ebbe il compito di organizzare scientifi camente il lavoro di ricerca, Nomisma è da più di 30
anni un osservatorio locale, nazionale ed internazionale sui fenomeni economici di assoluto prestigio.
AUTOMAZIONE DEI PROCESSI PER UNA NUOVA INTERAZIONE
Sessanta ricercatori, un’estesa rete di partner nazionali ed
internazionali ed una visione interdisciplinare dell’economia
supportata da competenze specifi che ed esclusive in
numerosi settori, dall’agricoltura e dall’alimentare, alle
politiche industriali e dello sviluppo del territorio, ai mercati
immobiliari e del real estate, ai servizi pubblici locali e
dell’energia. Tutto questo fa di Nomisma un’azienda di servizi
di elevato valore, che si avvale di modelli, professionalità e
strumenti di analisi per osservare i fatti dell’economia reale
e offrire consulenza decisionale alla politica economica e
industriale.
Un approccio trasversale e allo stesso tempo specializzato,
sostenuto da un apparato di ricerca articolato: per mantenere
elevati gli standard di progetto Nomisma necessitava di
semplifi care e automatizzare i processi interni, migliorandoli
in termini di effi cacia ed effi cienza. Anche a questo fi ne,
nell’anno 2006, l’azienda aveva implementato un sistema
di gestione per la qualità ai sensi della norma ISO 9001,
uno strumento di pianifi cazione e controllo delle procedure
lavorative volto al miglioramento dell’organizzazione
aziendale.
“Ma il sistema di gestione per la qualità – spiega Giorgio
Cottafavi, responsabile amministrativo dell’istituto – non
aveva risolto del tutto i nostri problemi. Veniva, infatti, gestito
L’innovazione aziendale che passa dall’IT
61
in modo decentrato nei vari gruppi di ricerca utilizzando
strumenti cartacei ed elettronici diversi e, anzi, aveva fatto
nascere l’esigenza di una maggiore sinergia fra i diversi
ambiti aziendali”. “Per questo motivo – aggiunge Francesco
Masi, responsabile tecnologie e servizi informativi – nel 2009,
in controtendenza rispetto al momento di crisi, fu deciso di
investire in un nuovo sistema informativo che, mantenendo
centrale il sistema di gestione per la qualità, permettesse
di raggiungere due obiettivi: automatizzare la gestione dei
processi core dell’azienda, ossia i progetti di ricerca; e
innovare la gestione e la condivisione delle informazioni tra
le risorse interne al fi ne di ottimizzare l’organizzazione del
lavoro”.
La soluzione al problema è stata trovata dopo diverse
ricerche sostituendo il loro vecchio sistema informativo, di
tipo anagrafi co e basato su tecnologie eterogenee, con la
soluzione Freeway® Skyline di Eurosystem, un software
unico che da una parte ha valorizzato i fl ussi di lavoro,
automatizzandoli, e dall’altra ha saputo integrare le diverse
banche dati Nomisma, centralizzando le informazioni.
Il rinnovo del sistema informativo si è realizzato attraverso
5 step fondamentali: modellazione dei processi principali,
progettazione del Portale Servizi come unico canale
informativo dell’azienda, confi gurazione di un modello di
controllo di gestione dei progetti, implementazione di un
avanzato sistema di archiviazione documentale e di un
sistema di reportistica di Business Intelligence.
Nella fase iniziale di progetto, è stata effettuata un’analisi
fi nalizzata a comprendere i processi precedentemente
formalizzati dal sistema qualità, individuare possibili
miglioramenti in termini di effi cienza e di effi cacia,
comprendere i reali bisogni degli attori coinvolti. Grazie
all’implementazione di una metodologia di Business Process
Management, Eurosystem ha modellato i 5 processi di
business fondamentali per Nomisma, ossia la realizzazione
di bandi, offerte a mercato, programmi di iniziativa interni,
commesse di progetto, proposte di conferimento incarico.
La progettazione dei diagrammi di fl usso e l’ingegnerizzazione
di alcune fasi chiave dei processi ha avuto ricadute positive
sia in termini di maggiore consapevolezza interna sui
metodi di lavoro sia in termini di risparmio di tempo per
le risorse impiegate in essi. Con l’implementazione di
stories
62
DICEMBRE 2012
Freeway® Workfl ow Server, infatti, i processi sono oggi
gestiti e monitorati da un sistema automatico che dirige e
verifi ca l’avanzamento degli stati di lavorazione, i livelli di
autorizzazione e di fi rma digitale dei documenti. A seguito
della analisi e modellazione, Eurosystem ha suggerito e
portato a termine la realizzazione di un Portale Servizi,
strumento integrato in Freeway® Skyline per l’archiviazione
e la consultazione di tutte le informazioni inerenti i progetti
di ricerca. Il Portale Servizi ha risposto ad una richiesta
ben precisa: una tecnologia che consentisse di accedere
alle informazioni gestionali utilizzando come criteri l’area di
appartenenza dei progetti/ricerche e una profi lazione degli
utenti in base ai ruoli aziendali (ricercatori, capi progetto, capi
area, personale amministrativo, etc..).
Grazie ad esso, l’utente può, richiamando un progetto,
visualizzare la relativa offerta, il team di professionisti
coinvolti, la strutturazione del piano di progetto, il time sheet
delle ore lavorate, la contabilità di commessa (budget e
consuntivo), nonché i contratti associati, attivi e passivi, e
la loro fatturazione. Con l’implementazione di un avanzato
sistema di archiviazione documentale, anche i processi di
produzione e archiviazione di documenti cartacei sono stati
automatizzati e digitalizzati. Oltre alla documentazione della
Ricerca fi nale, prodotto e patrimonio di Nomisma, moltissimi
altri documenti possono essere oggi archiviati, in apposite
classi documentali, e richiamati direttamente dal Portale
Servizi. Il sistema è stato arricchito implementando Freeway®
Business Intelligence: un sistema di reportistica che
permette di consultare la grande mole di dati a disposizione
attraverso la predisposizione di report che vengono inviati
automaticamente ogni mese ai capi area.
Rinnovando il proprio sistema informativo, Nomisma ha
potuto mettere a fuoco i fl ussi di lavoro interni che la
caratterizzavano, capire quali erano le aree più problematiche
e implementare un metodo standard per gestire ogni fase di
processo secondo regole condivise e automatiche. Innovazione
dell’organizzazione che passa dall’IT, quindi, facendone
sempre la leva strategica di un’evoluzione più importante.
63
VMware, Inc. 3401 Hillview Avenue, Palo Alto, CA 94304 USA Tel 877-486-9273 Fax 650-427-5001 www.vmware.com VMware, Inc. Via Spadolini, 5 - Edificio A - 20141 Milano - Tel. (+39) 02 3041 2700 Fax: (+39) 02 3041 2701 www.vmware.itCopyright © 2011 VMware, Inc. Tutti i diritti sono riservati. Questo prodotto è protetto dalle leggi sul copyright vigenti negli Stati Uniti e in altri Paesi e da altre leggi sulla proprietà intellettuale. I prodotti VMware sono coperti da uno o più brevetti, come indicato nella pagina http://www.vmware.com/go/patents.
VMware è un marchio registrato o un marchio di VMware Inc. negli Stati Uniti e/o in altre giurisdizioni. Tutti gli altri marchi e nomi menzionati possono essere marchi delle rispettive società.
Risolvi con successo le problematiche IT più pressanti con le soluzioni di virtualizzazione VMware per le aziende in crescita. I vantaggi concreti iniziano qui.
Gestire le risorse IT di un’azienda in crescita non è mai stato facile. Oggi, di fronte all’erosione progressiva dei budget, a sistemi IT sempre più complessi e a utenti
La virtualizzazione, in grado di trasformare l’ambiente IT, è la risposta migliore a queste sfide. Scopri come rendere
semplificando la gestione IT, ottimizzando l’esperienza degli utenti e riacquistando visibilità e controllo sulle risorse.
Scopri i vantaggi concreti garantiti da VMware visitando www.vmware.com/go/realworld/IT
Risorse limitate. Utenti esigenti.Scadenze serrate. La virtualizzazione ti semplifica la vita.
informazione pubblicitaria
Storage scalabile, funzionalità di deduplica, integrazione completa per una protezione dei dati di nuova generazioneMigliaia di organizzazioni di tutto il mondo hanno
implementato ambienti operativi IBM i per gestire
le proprie applicazioni aziendali con elevati volumi
di transazioni.
Considerando i budget IT spesso ridotti, e data l’importanza
critica che rivestono i dati gestiti con sistemi operativi IBM
i, le aziende sono interessate a migliorare le operazioni
di backup ed eliminare i rischi di sicurezza associati alle
tradizionali strategie di protezione dei dati, contenendo
contemporaneamente i costi.
Oggi, gli utenti IBM i possono usufruire di tali vantaggi
operativi ed economici grazie a EMC Data Domain Virtual Tape Library per IBM i.
I sistemi EMC® Data Domain rappresentano una rivoluzione
continua nel mondo del backup su disco, dell’archiving e
del Disaster Recovery, grazie alla funzionalità di deduplica in
linea ad alta velocità, che riduce in media di 10-30 volte le
dimensioni dei dati di backup. Questo ha contribuito infatti
a rendere il backup su disco ancora più conveniente per la
conservazione on-site a lungo termine dei dati e ancora più
effi ciente per la replica in rete sui siti di disaster recovery.
I sistemi Data Domain sono in grado di offrire prestazioni
migliori grazie all’architettura SISLTM (Stream-Informed
Segment Layout): questo approccio incentrato sulla CPU
riduce al minimo il numero di spindle del disco richiesti
per raggiungere il throughput necessario ad eseguire
operazioni critiche a singolo fl usso. I sistemi archiviano una
sola volta ogni sequenza di dati univoca, consentendo una
conservazione su disco effi ciente per ripristini rapidi e affi dabili.
Così, la conservazione in sede e fuori sede può essere estesa
implementando la tecnologia basata su snapshot.
Inoltre, i sistemi Data Domain sono compatibili con tutte le
principali applicazioni di backup, si integrano facilmente con
le infrastrutture storage esistenti e supportano più metodi
simultanei di accesso ai dati: VTL su Fibre Channel, accesso
remoto NDMP su Ethernet per sistemi NAS (Network
Attached Storage), protocolli NFS e CIFS su Ethernet e EMC Data Domain Boost. La fl essibilità di implementazione e
la semplicità di amministrazione consentono di adattarsi
rapidamente ai cambiamenti delle esigenze aziendali.
L’integrazione con l’opzione software Data Domain Virtual
Tape Library per IBM i non richiede modifi che dell’ambiente
operativo esistente. È infatti suffi ciente collegarsi al sistema
Data Domain, direttamente o attraverso l’infrastruttura
SAN FC, affi nché il server consideri il sistema Data Domain
come una libreria a nastro fi sica. L’applicazione IBM Backup
Recovery and Media Services (BRMS) crea policy di backup
per proteggere i dati delle applicazioni, senza installare
componenti software aggiuntivi.
Il software EMC Data Domain Replicator consente di
replicare i dati in modo effi ciente sulle reti esistenti per il
Disaster Recovery o per il consolidamento di ambienti
aziendali distribuiti, ed elimina la necessità di gestire e
trasportare le cartucce dei nastri. Con DD Replicator, i
dati IBM i su nastri virtuali archiviati sul sistema EMC Data Domain possono essere replicati in modo effi ciente tramite
WAN. Solo i dati deduplicati vengono replicati sul sito di
destinazione, assicurando un’effi cienza della larghezza di
banda fi no al 99%. Dal momento che il processo di replica
Data Domain non utilizza risorse host IBM i, la replica può
essere eseguita in contemporanea al backup, garantendo la
massima tempestività di esecuzione del disaster recovery.
I dati su nastro virtuale deduplicati e compressi possono
essere crittografati.
I tape virtuali contenenti immagini di backup completi e
incrementali sono protetti grazie alla DIA (Data Invulnerability
Architecture). La ripristinabilità dei dati viene verifi cata al
momento del backup e ricontrollata continuamente, mentre il
RAID 6 con dual disk parity assicura ulteriore protezione dalla
perdita dei dati.
Gli amministratori possono così contare su una gestione
centralizzata. L’interfaccia intuitiva semplifi ca la confi gurazione
e la gestione continuativa dell’opzione VTL, e la confi gurazione
iniziale e gli aggiornamenti possono essere eseguiti per
più sistemi contemporaneamente al monitoraggio degli
stati dei sistemi e dello stato delle operazioni di sistema.
Infi ne, la creazione semplice e intuitiva di script, insieme al
monitoraggio SNMP, assicura una maggiore fl essibilità di
gestione.
65
Tra i notevoli disagi arrecati da un
importante aggravio delle procedure
di gestione dei rapporti di lavoro,
emergono dal testo di Legge alcune misure volte a favorire le aziende.
Uno dei pilastri della riforma di cui si
è più discusso è infatti la cosiddetta
“fl essibilità in entrata”, vale a dire la
possibilità per i lavoratori di accedere
ad un impiego e per i datori di far fronte
alle necessità che richiedano l’utilizzo
di nuovo personale senza troppi vincoli
di preavviso o durata. Proprio su queste
opportunità si concentrerà in modo
sintetico la nostra attenzione.
Contratto a-causale
Il più rilevante intervento in questo senso
è l’introduzione del contratto “a-causale”,
o in altre parole, del contratto di lavoro a termine per stipulare il quale non è necessario specifi care la causa:
è ora infatti possibile, con riguardo
ai contratti a tempo determinato e ai
contratti di somministrazione, che il
primo contratto stipulato non rechi una
causa giustifi catrice, a patto che la sua
durata non sia superiore ai 12 mesi. Tale
contratto non potrà essere prorogato.
Meno vantaggiosi sono invece
altri aspetti di questa nuova forma
contrattuale: è stata introdotta una
maggiorazione dei costi del lavoro
subordinato pari all’1,4% nel caso
di sottoscrizione di contratti a tempo
determinato, inoltre sono stati
incrementati i tempi di necessaria
sospensione tra la stipulazione di un
contratto a termine e l’altro (60 giorni
nel caso di contratto di durata inferiore
a 6 mesi, 90 giorni nel caso di contratto
di durata dai 6 mesi in su). Ciò posto,
è comunque da riscontrare in questa
nuova normativa una mano tesa nei
confronti dei datori di lavoro che
intendano assumere manodopera per
sopperire a necessità temporanee.
Lavoro accessorio
Un altro rilevante intervento della riforma
inteso ad agevolare la fl essibilità in entrata si è avuto con riguardo alla disciplina del lavoro occasionale accessorio, da non confondere con
le prestazioni occasionali a ritenuta
d’acconto. In passato tale forma di
rapporto di lavoro, già di per sé di
natura fl essibile, sopportava il peso di
vincoli che ne limitavano la fruibilità: tali
vincoli erano di natura soggettiva (con
riguardo all’età del lavoratore assunto)
e oggettiva (con riguardo al tipo di
attività per cui a tale forma di rapporto
era possibile ricorrere). Con l’intervento
della riforma tali vincoli sono stati rimossi, rendendo il lavoro accessorio
sempre attivabile a prescindere
dalle caratteristiche dei prestatori
o dall’attività. L’unico limite posto è
economico e attiene al tetto di 5.000 €
per i compensi percepibili entro l’anno
dalla totalità dei committenti (un tetto
più specifi co è posto per le prestazioni
a favore di un singolo committente, le
quali non possono determinare compensi
superiori a 2.000 €).
Apprendistato
A favorire l’accesso al mondo del lavoro
è rivolto anche l’intervento della riforma
in tema di apprendistato, materia
già fatta oggetto di disciplina da un
decreto legislativo del settembre 2011.
La riforma è intervenuta modifi cando
alcuni punti della normativa previgente,
menzioniamo ad esempio:
contrattazione collettiva e dagli accordi
interconfederali di individuare durate minime non inferiori a sei mesi;
mancata qualifi ca, obbligo
di applicazione della regolamentazione
dell’apprendistato durante il periodo di
preavviso;
2013 del numero di apprendisti che
possono essere, allo stesso tempo,
alle dipendenze dello stesso datore di
lavoro (il quale, se ha alle dipendenze più di 10 lavoratori, potrà assumere apprendisti fi no ad un rapporto di 3 a 2 con le maestranze qualifi cate, per le aziende fi no a 10 lavoratori resta
confermato il rapporto 1 a 1).
ScenariRiforma Fornero: Novità importanti ma circoscritte per la fl essibilità “positiva”
Dal 18 luglio 2012 le aziende italiane si stanno adeguando al nuovo mercato del lavoro ispirato dalla Legge 92/2012, cosiddetta “riforma Fornero”, che imposta un ordinamento lavoristico fondato su temi imprescindibili quali: fl essibilità in entrata, fl essibilità in uscita ed ammortizzatori sociali.
RICCARDO GIROTTO
66
DICEMBRE 2012
In generale tali modifi che hanno
ricondotto a un’unica fattispecie
impositiva, le cessioni di immobili di
ogni categoria effettuate da qualunque
soggetto passivo e verso qualunque
tipologia di soggetto cessionario. Tale
fattispecie si concretizza nell’esenzione IVA, ex. art. 10 D.P.R. 633/72, ferma
restando la possibilità per il cedente di
optare per l’imponibilità all’atto della
cessione. Unica eccezione riguarda
le cessioni di fabbricati da parte di
imprese di costruzione o ristrutturazione
effettuate entro cinque anni
dall’ultimazione dei lavori per le quali è
rimasto l’obbligo di assoggettare ad IVA il
corrispettivo.
Nell’attuale quadro normativo risultano,
pertanto, eliminate alcune fattispecie di imponibilità obbligatoria, prima fra tutte quella relativa alle cessioni di immobili strumentali per natura effettuate verso soggetti privati. Ecco dunque che una vasta platea di soggetti potrà trarne indubbi vantaggi economici: pensiamo al
caso più comune del professionista o dell’imprenditore individuale che decidesse di “estromettere” l’immobile strumentale utilizzato nell’attività per destinarlo alla sfera privata. Entrando nel vivo delle disposizioni
normative, si deve rilevare che
generalmente le operazioni di
autoconsumo o di destinazione dei beni
d’impresa a fi nalità estranee all’esercizio
dell’attività si considerano assimilate alle
cessioni a titolo oneroso ex art. 2, co. 2
n. 5 D.P.R. 633/1972 e comportano,
pertanto, l’emissione di un’autofattura
imponibile ad IVA, la quale rappresenta
un costo secco per l’estromissione. La norma continua a valere naturalmente
per la generalità dei beni ma, per
effetto della nuova formulazione
dell’art. 10, co. 8-ter D.P.R. 633/1972, non attrae più l’autoconsumo del fabbricato strumentale per natura posseduto in regime di impresa, arte o professione. Un’opportunità senz’altro interessante
per le imprese costituite in forma societaria che intendessero assegnare ai soci i fabbricati strumentali posseduti, sia che tale operazione
rappresenti una scelta volontaria che
“obbligata”: quest’ultima nel caso di
imprese in fase liquidatoria che abbiano
riscontrato diffi coltà nella dismissione
dell’attivo, o di altre che si trovino nelle
condizioni di dover valutare la defi nitiva
cessazione dell’attività, fattispecie
tutt’altro che rara in questa critica fase
economico-fi nanziaria.
Naturalmente la convenienza
dell’operazione deve essere valutata
tenendo conto dell’eventuale obbligo di
rettifi ca della detrazione iva per effetto
della variazione del prorata (salvo che
la cessione rappresenti un’operazione
“occasionale”) o di rettifi ca dell’iva detratta sull’acquisto o costruzione
dell’immobile, qualora la successiva
rivendita venga attuata entro un
decennio (artt. 19, co. 5 e 19-bis DPR
633/1972).
Per quanto concerne, infi ne, gli aspetti reddituali della cessione dell’immobile
strumentale per natura, premesso che
anche nelle ipotesi di autoconsumo
il corrispettivo di vendita costituisce
sempre un ricavo o genera una plusvalenza (o minusvalenza), è
possibile valutare alcune interessanti
eccezioni.
In primo luogo ci si riferisce alle
plusvalenze generate dalla vendita o l’estromissione dell’immobile da parte del professionista, in seconda
battuta ci si riferisce a tutti gli immobili strumentali per natura per i quali sia stata effettuata la rivalutazione ai sensi del D.L. n. 185/2008, operazione
questa che assumerà effi cacia a partire
dall’1.1.2014.
Concludiamo dunque illustrando in
termini numerici alcuni esempi.
D.L. Crescita Opportunità nelle cessioni o assegnazioni di immobili strumentali
Le modifi che alla disciplina IVA sulle cessioni di fabbricati introdotte dal D.L. n. 83/2012 in vigore dal 26 giugno offrono interessanti opportunità in campo immobiliare, in speciale modo per quanto concerne la cessione di immobili strumentali.
RUGGERO PAOLO ORTICA
67
Scenari
caso 3Professionista che “estromette” l’immobile strumentale in esenzione IVA. Costo dell’operazione:
Imposta Ipotecarie
e catastali
Imposta
di registro
Rettifi ca IVA (nel caso
di immobile acquisito o
terminato entro il 2002)
Imposte sui redditi
(in caso di acquisizione dell’immobile
in periodo non rientrante nel triennio
2007-2009)
zero zero zerozero
caso 1Società (non immobiliare) che cede o assegna gli immobili strumentali posseduti ai propri soci in esenzione IVA. Costo dell’operazione:
Imposta Ipotecarie
e catastali
Imposta
di registro
Rettifi ca IVA (nel caso
di immobile acquisito o
terminato entro il 2002)
Imposte sui redditi (in caso di
precedente rivalutazione ad un valore
superiore a quello di cessione o
assegnazione a partire dall’1.1.2014)
4 % zero zero168 €
caso 2Imprenditore individuale che “estromette” l’immobile strumentale in esenzione IVA. Costo dell’operazione:
Imposta Ipotecarie
e catastali
Imposta
di registro
Rettifi ca IVA (nel caso
di immobile acquisito o
terminato entro il 2002)
Imposte sui redditi (in caso di
precedente rivalutazione ad un valore
superiore a quello di cessione o
assegnazione a partire dall’1.1.2014)
zero zero zerozero
GRUPPO EUROSYSTEMSISTEMARCA e BEGHELLIpartner per il risparmioenergeticoLa sede del Gruppo Eurosystem Sistemarcasi rinnova, grazie all’utilizzo di corpi illuminantia basso consumo Beghelli.Una partnership all’insegna della green economye del risparmio energetico quella avviata tra Gruppo Eurosystem Sistemarca e Beghelli,gruppo bolognese punto di riferimento nelcomparto dell’illuminazione d’emergenza,a risparmio energetico e dei sistemi elettroniciper la sicurezza.
L’azienda ha deciso di aderire a questa iniziativa proposta dal
suo installatore di fi ducia LA2R ELETTROIMPIANTI – BEGHELLI
POINT di zona (di Dosson di Casier – Treviso).
La collaborazione ha portato alla sostituzione a costo zero
della lampade installate presso la sede del Gruppo Eurosystem
Sistemarca con 145 corpi illuminanti Beghelli, capaci
di garantire un notevole risparmio in termini di consumi e,
conseguentemente, di investimento economico.
Le lampade Beghelli, già nei primi mesi di installazione
(curata dal Beghelli Point La2R), hanno generato infatti
un risparmio di 3.390,85 kW/h, pari al 67,75% dei consumi
registrati precedentemente, con una riduzione di 8.568 kg
di CO2 all’anno.
Questa iniziativa si inserisce nell’ambito del progetto
“Un Mondo Di Luce a costo zero Beghelli”, un nuovo
modo di proporre, con formula “chiavi in mano”, gli impianti
di illuminazione ad aziende ed enti pubblici, coniugando una
tecnologia d’avanguardia con il concetto di servizio integrato,
già largamente diffuso in altri settori.
Questa soluzione garantisce un minore impatto
ambientale rispetto a sistemi di illuminazione tradizionale
ma anche un risparmio effettivo, immediato e misurabile,
sulle spese per l’energia elettrica.
Un progetto, quindi, dalla duplice valenza: economica e
ambientale.
informazione pubblicitaria
70
DICEMBRE 2012
Cosa signifi ca essere un commerciale in un’azienda di information technology?G. Mussi: “Fare il commerciale, in questo ambito, signifi ca
prendersi la responsabilità di contribuire al successo della
società cui apparteniamo. Ci vuole una forte predisposizione
ai rapporti umani, disponibilità a confrontarsi ogni giorno e
spirito di adattamento a situazioni sempre diverse. Conta
avere una forte ambizione nel raggiungimento dell’obiettivo di
vendita”.
Rispetto a quando avete iniziato questa carriera, quali sono le differenze nella metodologia di lavoro?F. Pellizzari: “La più evidente differenza è che, negli anni
passati, l’agente commerciale operante nel settore dell’IT
era un portatore di innovazione e di nuovi modi di concepire
l’ambito aziendale. La prima informatizzazione, infatti, ha
trasformato completamente le metodologie di lavoro. Con
il passare del tempo, invece, le aziende hanno avuto modo
di confrontare autonomamente le diverse soluzioni offerte
dal mercato. Si è arrivati a una sorta di banalizzazione della
soluzione informatica, ma non è così perché ancora oggi
il prodotto tecnologico è e deve essere lo strumento di un
cambiamento più profondo dell’azienda e non l’origine di
questo stesso cambiamento”.
Qual è la peculiarità del vostro esercitare? M. Cavagna: “Nel fare il nostro lavoro, noi rappresentiamo
la nostra azienda, perciò, necessariamente, dobbiamo
acquistare credibilità e fi ducia nei clienti. Ciò che deve
trasparire, durante una trattativa, è la nostra disponibilità.
Dobbiamo porre molte domande e saper ascoltare per
comprendere appieno le problematiche della clientela, al fi ne
di poterle fornire la soluzione più effi cace”.
Nel mercato dell’Information Technology è più attrattivo e funzionale un prodotto standardizzato o un prodotto prettamente fl essibile?L. Piovesan: “Dobbiamo distinguere le soluzioni infrastrutturali
da quella gestionali. Per la parte software gestionale, infatti,
è indispensabile fornire una sistema personalizzabile che sia
disegnato sulla base dei modelli organizzativi dell’azienda,
mentre per quella hardware non è sempre necessario. In
entrambi i casi, tendiamo a progettare e realizzare una
soluzione su misura delle esigenze del cliente”.
LAVORARE CON IT E ICTQuesta rubrica è stata pensata per dare spazio alla voce delle persone che vivono e operano in questo “mondo”
ELEONORA BIRAL [email protected]
71
Aggiornamento continuo e condivisione delle informazioni con il reparto tecnico: quanto contano?G. Guerrato: “Per quanto concerne l’aggiornamento, è molto
importante conoscere il mercato e cosa offre. Certo, la nostra
conoscenza tecnica del prodotto ha un limite, oltre il quale
si inseriscono le fi gure del reparto tecnico. Ciò che conta è
sapere che questi prodotti esistono e che tipo di innovazione
possono portare. Con loro abbiamo un rapporto quasi
empatico e questa sinergia valorizza le nostre competenze
commerciali”.
Cosa rappresenta, per una donna, lavorare all’interno del mercato dell’Information Technology?D. Darè: “Qualche anno fa, il settore dell’IT era un ambito
prettamente maschile. Anche nei corsi di formazione c’erano
poche donne. È un campo che è stato scoperto e cavalcato
dapprima da soli uomini ma, piano piano, anche noi donne
ci siamo ricavate il nostro spazio. È cambiato l’approccio a
questo mondo dell’IT, e per noi donne è diventato un settore
affascinante. Il bello dell’IT è quello di essere in continua
evoluzione”.
Cosa chiedono in più, negli ultimi tempi, i clienti? Cos’è il vantaggio per loro?G. Parini: “I clienti, in genere, vogliono risparmiare. Sono alla
ricerca di soluzioni IT che permettano loro di spendere sempre
meno, guadagnando di più. Ogni azienda Cliente presenta
delle problematiche diverse, di gestione o infrastrutturali,
spesso molto variabili e per le quali richiedono delle soluzioni
complesse: quello che noi facciamo è individuare il sistema
giusto che li aiuti a lavorare più facilmente e nel contempo
ad ottenere una reale riduzione dei costi. Questo per il cliente
rappresenta un enorme vantaggio”.
Quali sono le prospettive future del mercato dell’IT?F. Pellizzari: “È un mercato sicuramente molto infl azionato e
vede la presenza, da qualche anno, di moltissimi protagonisti
al suo interno con un’offerta di soluzioni sempre più ampia.
Il cambiamento del mercato ha modifi cato il valore
dell’elemento IT nelle aziende e la tecnologia dall’essere
fattore indispensabile è diventata semplicemente utile.
Questo per noi signifi ca andare alla ricerca di quel valore
aggiunto. E di solito è un vantaggio immateriale, legato,
più che al prodotto in sé, alla sua capacità di supportare
evoluzioni aziendali come riorganizzazioni interne,
accorpamenti, rinnovamenti. Si tratta di una sfi da sempre
più grande: cogliere nelle richieste del cliente, il benefi cio
immateriale che lo stesso sta cercando in una sistema
estremamente concreto, come può essere un prodotto IT”.
Gli intervistati in ordine: Domenica Darè, commerciale per l’infrastruttura IT da 20 anni nel
Gruppo Eurosystem Sistemarca, Franco Pellizzari, commerciale per l’infrastruttura IT da 6 anni nel Gruppo, Luca Piovesan, commerciale per l’infrastruttura IT da 22 anni nel Gruppo, Giuseppe Mussi, commerciale per gestionale Freeway® Skyline da 22 anni nel Grupp, Marino Cavagna, commerciale per gestionale Freeway® Skyline da 12 anni nel Gruppo, Giovanni Guerrato, commerciale per l’infrastruttura IT da 7 anni, Giacomo Parini, commerciale per l’infrastruttura IT da 1 anno nel Gruppo
“Ci vuole una forte
predisposizione
ai rapporti umani,
disponibilità a confrontarsi
ogni giorno
e spirito di adattamento
a situazioni sempre diverse”
conosciamoci
STILE LIBERO
72
DICEMBRE 2012
La medicina del lavoro e, più in genere, tutto l’ambito
della prevenzione e della sicurezza sul lavoro negli ultimi
due decenni sono radicalmente cambiati, soprattutto per
quanto concerne i contenuti della sorveglianza sanitaria
che il medico competente deve attuare sul posto di lavoro.
I cosiddetti rischi lavorativi tradizionali, legati soprattutto ad
esposizione a rumore o a polveri nocive o a fi bre, sono di
gran lunga passati in secondo piano perché in gran parte
abbattuti, e l’attenzione attualmente si è spostata sui rischi
da sovraccarico biomeccanico delle strutture muscolo
scheletriche e sui rischi emergenti come ad esempio quelli
legati alla ingegnerizzazione dei nanomateriali.
NANOTECNOLOGIE E NANOMATERIALI: quali pericoli per i lavoratori esposti?
In collaborazione con il Centro di Medicina
Luciano SalvadoriLaureato in medicina e chirurgia, con specializzazione in medicina del lavoro all’Università degli Studi di Padova. Dal 1989 è medico del lavoro, di riferimento per le aziende delle province di Treviso e Pordenone. Esercita la libera professione presso il Centro di Medicina di Conegliano.
La nanotecnologia è un ramo della scienza applicata che si occupa del controllo della materia di
dimensioni inferiori al micrometro e della progettazione e realizzazione di dispositivi (nanomateriali) in
tale scala dimensionale, i quali permettono di “riadattare” la materia rivelandone proprietà sorprendenti
in termini, ad esempio, di resistenza termica, meccanica o superconduttività.
LUCIANO SALVADORI
73
L’ILO, Istituto Internazionale del Lavoro, ancora nel 2010,
ha espresso preoccupazione per i rischi ancora sconosciuti,
in ambiente di lavoro, provenienti dalle nuove tecnologie,
evidenziando che “di solito le nuove scoperte avvengono e
sono applicate dall’industria prima che siano ben chiari i loro
effetti sulla salute e sulla sicurezza”.
La nanotecnologia è un ramo della scienza applicata che si
occupa del controllo della materia di dimensioni inferiori al
micrometro e della progettazione e realizzazione di dispositivi
(nanomateriali) in tale scala dimensionale, i quali permettono
di “riadattare” la materia rivelandone proprietà sorprendenti
in termini, ad esempio, di resistenza termica, meccanica o
superconduttività. Le nanotecnologie non rappresentano una
singola tecnologia o un’unica disciplina scientifi ca, ma uno
strumento che contribuisce a fornire al prodotto un valore
aggiunto applicabile in molti settori e numerose discipline
scientifi che.
Alla fi ne del 2010 l’INAIL, con l’ex ISPESL in esso confl uito,
ha avvertito l’esigenza di elaborare e pubblicare un corposo
“Libro Bianco sull’esposizione a nanomateriali ingegnerizzati
ed effetti sulla salute e sicurezza nei luoghi di lavoro”,
nato dal lavoro multidisciplinare di un network nazionale
di ricercatori, rappresentanti di Istituzioni e mondo delle
imprese.
I nanomateriali e le nanotecnologie hanno trovato negli ultimi
anni un rapido sviluppo ed un impiego sempre più allargato:
si calcola un tasso di crescita annuo del 25%, misurato su
indicatori come prodotti sul mercato, brevetti, pubblicazioni,
forza-lavoro, fondi per la ricerca, etc, con un impiego previsto
nel settore a livello mondiale, nel 2020, di circa 6 milioni di
lavoratori, e con una buona presenza dell’Italia; altre stime
parlano addirittura di 10 milioni di lavoratori a livello mondiale,
entro il 2014, coinvolti nel settore a diretto contatto con i
nano materiali. I prodotti nanotecnologici attualmente più
utilizzati sono quelli a base di carbonio (nano tubi, fullereni),
ossidi metallici (titanio, zinco), metalli zero-valenti (argento,
alluminio, rame, molibdeno, zinco), quantum dots
(semiconduttori nanocristallini colloidali), dendrimeri (composti
macromolecolari polimerici), nano materiali compositi, nano
materiali di argento.
Tutti questi trovano impiego in vari comparti produttivi
fondamentali: dispositivi elettromedicali, farmaceutica,
elettronica, informatica, energia fotovoltaica, pigmenti, creme
solari, trasporti, tessile e moda, alimentare, materiali da
costruzione, meccanica avanzata, nella purifi cazione di acque,
nei sedimenti o suoli, nelle telecomunicazioni, etc.
Da ricordare, inoltre, che il rischio da nanoparticelle di metallo
è anche ambientale, derivante dalle marmitte catalitiche dei
veicoli di trasporto.
Gli ambiti professionali interessati alla problematica relativa
alle esposizioni a nanomateriali e nano particelle riguardano
sia i settori di produzione sia cicli di lavorazioni o processi che sviluppano particelle di dimensioni
nanometriche come sottoprodotti di reazioni termiche o
fi siche. L’esposizione al rischio da nanoparticelle aerodisperse
avviene attraverso diverse vie.
La via inalatoria è la più comune, tanto più pericolosa
proprio in funzione delle piccolissime dimensioni del
materiale inalato, con deposito predominante a livello degli
alveoli polmonari oltre che nelle regioni tracheobronchiale e
faringolaringea.
Gli effetti nocivi possono esplicarsi quindi a livello dell’albero
respiratorio ma anche nel resto dell’organismo poiché le NP
medicina e lavoro
STILE LIBERO
74
DICEMBRE 2012
possono venir assorbite nel sangue e manifestare danno a livello di altri organi in relazione soprattutto alla loro
caratteristiche chimico-fi siche. Un’altra via di esposizione è
quella per contatto cutaneo, potenzialmente possibile anche a
cute integra ad esempio per gli ossidi di titanio e zinco.
Altra via di penetrazione può essere il sistema olfattivo (mucosa nasale e nervo olfattivo) o il sistema gastroenterico con la deglutizione del muco che incorpora
le NP oppure attraverso il contatto orale con superfi ci
contaminate.
Quali possono essere gli effetti sulla salute dei nanomateriali ingegnerizzati?Studi epidemiologici su popolazioni esposte non sono
ancora disponibili, per cui le attuali informazioni derivano da
simulazioni di laboratorio. Possiamo quindi parlare ancora
solo di effetti potenziali, ma che sono una buona base di
partenza per approfondimenti clinici successivi e per mettere
a punto adeguati sistemi di prevenzione quando sarà
necessario.
Gli effetti evidenziati riguardano: la tossicità genetica per
i nanotubi di carbonio e le particelle di ossidi metallici; la tossicità cellulare per i nanotubi di carbonio, i fullereni
e alcune particelle metalliche e particolari tipi di quantum
dots; a livello respiratorio (fi brosi, accumulo con risposte
infi ammatorie anche asbesto-simili) per i nano tubi di
carbonio; a livello cutaneo (azione irritativa locale e
penetrazione nel circolo sistemico), anche se numerose creme protettive solari contengono TiO2 e ZnO, senza
evidenza pratica fi nora di effetti dannosi; per quanto riguarda
il sistema nervoso centrale ovvero stress ossidativo ed
alterazione dell’integrità della barriera emato-encefalica);
cardiovascolare (ateromi, trombosi arteriosa e aggregazione
piastrinica, oltre all’infi ammazione sistemica ormai
considerata uno dei fattori predisponenti all’aterosclerosi):
per i nano tubi di carbonio; immunologico (possibilità di
stimolazione di risposta autoimmunitaria).
Vari sono i progetti di ricerca fi nanziati in ambito europeo,
con signifi cativa presenza di organizzazioni italiane, che
riguardano gli impatti sull’ambiente, la salute e la sicurezza
delle nanotecnologie.
Le criticità nascono, da una parte, dall’evidenza che non
esistono ancora metodologie validate per la valutazione del
rischio in ambiente lavorativo e le conoscenze sui rischi
per la salute sono scarse e, dall’altra, dalla consapevolezza
che nei prossimi anni le nanotecnologie avranno una
diffusione esponenziale. Nessun allarme, ma secondo
l’INAIL “è necessario sviluppare la ricerca nel settore con particolare attenzione alla analisi del rischio per i lavoratori esposti ed evidenziare le criticità e i bisogni delle politiche di salute e sicurezza dei lavoratori, correlati con lo sviluppo delle nanotecnologie”.
Ci dovranno essere un approccio integrato, sostenibile,
responsabile e socialmente accettato e uno sforzo attento
alla possibilità di combinare il progresso scientifi co e la
competitività industriale con le esigenze di prevenzione e
protezione della salute.
75www.veeam.com
Veeam ONEPotente, semplice e accessibile:
Monitoraggio in tempo reale
Ottimizzazione delle risorse
Documentazione e reportistica di gestione
Veeam MP e SPIMonitoraggio VMware scalabile, fault-tolerant e senza agenti direttamente in:
Microsoft System Center
HP Operations Manager
#1 VM BackupBackup rapido ed efficace
Ripristino rapido e flessibile
2-in-1: backup e replica, insieme in un'unica soluzione facile da utilizzare e... funziona!
perVMware vSphere e Microsoft Hyper-V
Veeam ONEVeeam MP e SPIVirtualization Management
Veeam Backup & Replication
Virtualization-Powered Data Protection
informazione pubblicitaria
Il data center affi dabile, sicuro e sempre disponibileIn un mercato sempre più competitivo
e specializzato, NORDATA si propone come
valore aggiunto per il business e l’organizzazione
delle Imprese che credono e investono nella
consulenza quale punto di partenza determinante
per il proprio successo.
Nordata è costituita da professionisti senior che nel corso degli
anni hanno acquisito l’esperienza necessaria per affrontare le
complesse e sempre diverse problematiche legate al mondo IT.
Nordata Srl nasce dall’esperienza di professionisti che hanno
trasferito il proprio impegno decennale sotto un comune
denominatore, per rispondere al meglio alle sempre più esigenti
richieste di Connettività, Networking, Sicurezza
ed Alta Affi dabilità, per le imprese.
L’ attività di Nordata può essere riassunta in due concetti
fondamentali: alta affi dabilità e massima disponibilità.
I Servizi informativi sono diventati vitali per le aziende che ne
dipendono fortemente nella articolazione dei processi interni,
produttivi, amministrativi e nella gestione delle relazioni con
l’ esterno. Le aziende necessitano sempre più di avere dei
sistemi nei quali l’ alta affi dabilità sia un elemento determinante
per poter garantire una continuità di servizio.
Flessibilità, personalizzazione e costante attenzione nella
realizzazione di progetti commisurati alle esigenze e
caratteristiche dei clienti, rappresentano i punti di forza peculiari
dell’attività di Nordata.
La sala macchine è stata concepita come il luogo più effi ciente
nel quale far risiedere hardware dedicato al trattamento dei dati
senza richiesta di presenza umana.
Il sito fornisce un ambiente tecnico sicuro adatto ad accogliere
applicazioni critiche e dati sensibili, e un altissimo livello di
sicurezza e continuità di servizio per i server e gli altri apparati
in esso ospitati. La sala è stata progettata e realizzata
adottando le più moderne tecnologie, per garantire il più
elevato livello di servizio agli utenti, 24 ore su 24, 7 giorni su 7,
365 giorni all’anno. La struttura garantisce la sicurezza fi sica e
logica dei dati e servizi di alto livello qualitativo.
Da diversi anni Nordata ha instaurato un rapporto di
Partnership con vari Carrier, occupandosi prevalentemente
di connessioni in fi bra ottica, connessioni su Ponti Radio,
connessioni satellitari.
Presso la sala dati, molteplici operatori di telecomunicazione
consegnano connettività attraverso diverse tecnologie.
La sala è centro stella, o nodo periferico, di molte reti WAN
(Wide Area Network, reti geografi che) sia private (per lo più
MPLS, Multi Protocol Label Switching ovvero VPN gestire dall’
operatore) che pubbliche (VPN in Internet). La sala dati fornisce
anche accesso a Internet ai sistemi cliente (virtuali e fi sici) con
indirizzamento IP del sistema autonomo di Nordata.
Ad ogni cliente di NORDATA
non resta che dedicarsi
al proprio business.
www.nordata.it
77
trekking 2.0Intervista a Alberto Pellizzari, poliziotto, alpinista, viaggiatore
Scalate e trekking: passioni nate da lontano. Com’è cambiato oggi viaggiare e organizzare spedizioni.Che dire, innanzitutto, oggi i viaggi li organizzo in prima
persona integralmente, attraverso internet. Fino a 10 anni
fa mi dovevo affi dare alle agenzie di viaggio, con un costo
superiore e anche meno coinvolgimento personale nella fase
di organizzazione. Ma in questi anni, grazie a una tecnologia
sempre più avanzata e alla portata di tutti, mi è senz’altro
più semplice reperire informazioni di ogni sorta e con facilità
ed anche organizzare il viaggio in completa autonomia.
Infatti, scelgo la destinazione, cerco il materiale informativo
e quando sono convinto, sempre attraverso web, organizzo i
mezzi di trasporto e la logistica.
Mi è più facile contattare in loco agenzie che mi facciano
trovare l’equipaggiamento tecnico in un container al mio
arrivo. Anche le dotazioni sono migliori: in alta montagna
strumenti assolutamente importanti cui non posso rinunciare
sono il localizzatore GPS e il telefono satellitare.
Inoltre, grazie a internet mi è più facile raccontare delle mie
spedizioni a più persone usando il mio sito
(www.albertopellizzari.com). È più semplice così creare
contatti anche con possibili sponsor.
Quando la tecnologia le è stata assolutamente indispensabile?Nell’ascensione ad alta quota in Nepal, per una nevicata
imprevista, ho smarrito il percorso tracciato e solo grazie
al GPS sono riuscito a ritrovare il cammino fatto all’andata,
evitando, inoltre, con estrema sicurezza i crepacci non
visibili alla vista. Con il GPS potevo muovermi quasi a occhi
bendati. Trovo il telefono satellitare strategico per chiedere
aiuto in caso di pericolo con estrema velocità, ed anche per
restare in contatto con i cari rimasti a casa. Infatti, quando
sono in alta montagna cerco di chiamare i miei genitori ogni
2 giorni. Il satellitare nella mentalità degli scalatori d’oggi è
uno strumento indispensabile, anche se viene meno l’aspetto
avventuroso della spedizione come per gli alpinisti di 20 anni
fa. Noi abbiamo forse perso l’aspetto dell’esplorazione, però
ci abbiamo guadagnato nella sicurezza psicologica e anche
nella serenità. Ora abbiamo molti vantaggi, anche se pericoli
ne esistono lo stesso, come una valanga imprevista. Non a
caso Messner ci chiama “turisti di montagna”, sostenendo
che il vecchio alpinismo non esista più. Infatti, nessuno tenta
più ascensioni come faceva lui con materiale e conoscenze
completamente diverse.
il viaggio
STILE LIBERO
7979
Come sceglie le destinazioni?Io scelgo le località in base alle emozioni che mi procurano
le immagini che posso trovare ovunque: dal cinema, alle
fotografie nelle riviste, a immagini strappate dalla televisione.
Naturalmente, per mia natura, approfondisco in maniera
quasi maniacale ogni particolare prima di decidere
d’intraprendere un nuovo viaggio. Poi i tempi di preparazione
variano: se si tratta di una spedizione in alta montagna mi
serve almeno un anno per la preparazione fisica e tecnica.
Si cerca anche i compagni di viaggio?In realtà viaggio spesso da solo anche in montagna, ma
ascensioni difficili non le compio mai in solitaria. Ho dei
compagni di scalata, anche stranieri che conosco attraverso
tour operator in loco, cui mi affido. Ovviamente mi auguro,
in queste occasioni, di trovare persone innanzitutto con
esperienza, tecnicamente e fisicamente preparate, e anche
ben disposte.
Cosa la colpisce nei luoghi che visita?Io amo viaggiare: mi piace ammirare i paesaggi non noti e
confrontarmi con una vita differente dalla mia quotidianità.
Ho potuto vedere in questi anni diversi ambienti, anche
urbani. In questo momento sono attratto dai grandi spazi
aperti come se ne trovano in Mongolia o in Siberia. Quello che
mi rimane particolarmente impresso sono i colori e i profumi,
come le mille sfumature che assume la sabbia del deserto
libico al tramonto, o il limpido azzurro del ghiaccio puro.
Prossima scalata che vuole fare?La prossima sfida, nel 2013, dovrebbe essere la scalata
di due vette gemelle di 7mila mt, Nun e Kun in India, in
occasione del centenario della prima ascensione dell’alpinista
ufficialmente scalato. Inoltre, mi piacerebbe tentare di nuovo
la scalata di un 8mila. La prima volta mi sono dovuto fermare
pochi metri prima per condizioni meteorologiche avverse e
per mancanza di forze.
L’IMPORTANTENON È L’IDEA, MA LA CAPACITÀ DI CREDERCI FINO IN FONDO.
EZRA POUND
Alberto Pellizzari45enne trevigiano di Riese Pio X,poliziotto di professione, ma soprattutto “alpinista”, e viaggiatore. La sua filosofia di vita: “L’importante non è tanto l’idea, ma la capacità di crederci fino in fondo” (Ezra Pound). Il suo grande amore per la montagna è nato grazie alle lunghe passeggiate con i suoi genitori sin da piccolo lungo il Montegrappa. Poi le Dolomiti venete e a 23 anni i primi trekking in montagna anche all’estero con le prime vette andine in Ecuador e in Perù, fino alla vetta del Baruntse in Nepal (7.220 mt).
informazione pubblicitaria
Le soluzioni NAS di Iomega garantiscono alle imprese sicurezza, disponibilità, accessibilità delle informazioni e business continuityLe esigenze attuali delle aziende e la tipologia
dei dati da esse gestiti, oltre alla loro costante
crescita, portano a sottolineare l’importanza di uno
storage dove le soluzioni NAS offerte da Iomega
rappresentano la combinazione ideale essendo in
grado di unire affi dabilità, fl essibilità e diversi livelli
di sicurezza a prezzi accessibili per realtà distribuite
e aziende di medie o piccole dimensioni che, al
pari delle grandi aziende, presentano gli stessi
requisiti di protezione e sicurezza, disponibilità e
accessibilità delle informazioni.
I server di rete sono fondamentali per la condivisione di fi le,
per le applicazioni e per i dati di importanza strategica, nonché
per l’hosting degli ambienti Web e di posta elettronica. Al fi ne
di garantire una disponibilità elevata, è tuttavia necessario un
sistema che funzioni in modo continuo, garantendo accesso
costante ai dati critici e alle risorse di rete dell’azienda per
assicurare quella business continuity che Iomega ridefi nisce
“Unstoppable Computing™”.
Per ottenere un livello elevato di continuità sono necessari
più server ridondanti, confi gurati in modo tale che un server
secondario assuma il controllo completo in caso di errore o
guasto del server primario, in modo rapido ed effi ciente, con il
minimo impatto sulle normali attività aziendali.
La serie StorCenter Px di Iomega, disponibile nelle versioni
desktop e rack-mount, è caratterizzata da elevate prestazioni e
funzionalità avanzate grazie a unità disco server class SATA da
1TB, 2TB, 3TB e, a breve, anche da 4TB, capaci di assicurare
livelli di operatività continua e maggiore affi dabilità nel caso di
applicazioni aziendali business critical quali videosorveglianza
“always on”. Incorporando livelli di storage multi-tier e
di sicurezza di classe aziendale, la gamma di dispositivi
StorCenter Px spazia dai modelli diskless fi no a quelli popolati
e con capacità di storage nativo fi no a 36TB.
Iomega offre così soluzioni e servizi di virtualizzazione, backup,
archiviazione, disaster recovery e business continuity in grado
di assicurare elevate performance e affi dabilità RAID, oltre
all’integrazione con Avamar per il backup e una qualità server
per gli ambienti di virtualizzazione con le certifi cazioni VMware,
Citrix e Windows Server.
In questo contesto, ciò che propone Iomega è il
consolidamento dello storage su sistemi di tipo NAS, come ad
esempio il nuovo Iomega NAS StorCenter px12-450r, pensato
per consentire applicazioni aziendali quali la deduplicazione
del backup, infrastrutture server virtualizzate, gestione di
database e applicazioni storage-based. StorCenter px12-450r
è caratterizzato dal nuovo processore della famiglia Intel Xeon
con il modello l’E3-1200 v2, da 8GB RAM e dalla possibilità
di utilizzare HDD da 4TB. Inoltre, lo StorCenter px12-450r
utilizza l’ultima versione del software EMC® LifeLine™, un
sistema operativo avanzato che offre agli utenti una vasta
gamma di funzionalità cloud e di classe enterprise. Inoltre,
questa soluzione permette di gestire i più recenti sistemi di
video management (VMS) per la video sorveglianza e integra il
software leader di mercato McAfee VirusScan Enterprise per
una protezione a livello nativo.
La semplicità di utilizzo e l’accessibilità delle soluzioni
Iomega consentono di benefi ciare delle potenzialità della
virtualizzazione anche a realtà aziendali con esigenze IT
modeste e senza staff IT dedicato, come ad esempio studi
professionali o piccole aziende.
81
IL PERSONAGGIO: LUCA GHESER
Capacità fi sica e tecnologia in pista per la migliore performance
La sua storia sciistica è cominciata nel 1975 a Lavarone,
all’età di quattro anni. Secondo la famiglia il piccolo aveva già
un grande talento, non a caso due anni dopo ha affrontato
le prime gare nella categoria baby e cuccioli, e a 11 anni
gareggiava con scioltezza nella categoria superiore.
Un infortunio alla schiena lo ha costretto a stare fermo
per qualche anno; successivamente, appena sedicenne, è
stato selezionato per la squadra del Comitato Trentino e ha
cominciato a gareggiare a livello internazionale.
Negli anni a seguire Luca Gheser, oltre ad allenarsi con gli
atleti del Centro Sportivo dell’Esercito, ha scelto di seguire
corsi come allenatore e maestro di sci, fi no al conseguimento
del Master Istruttori, entrando nella crème dello sci nazionale.
E dal 1999 ha cominciato a formare maestri di sci, come
recentemente quelli dello Sci Club Tezenis.
Tecnica e tecnologia hanno segnato importanti cambiamenti
nella pratica sportiva, e la storia personale di Gheser
rappresenta un signifi cativo esempio: “poco tempo fa –
racconta lo sportivo trentino – mi è capitato di rivedere alcune
immagini di gara dell’era Alberto Tomba, campione olimpico
a Calgary.
È sorprendente notare la differenza rispetto alla tecnica
moderna: minor velocità di avanzamento durante la discesa
e diverse posture del corpo, come anche qualità e quantità
del movimento tra le porte. Considerando che la tecnica nello
sci alpino è, prima di tutto, un adattamento al materiale con
cui si scende il pendio, sicuramente è merito della tecnologia
LA RIVOLUZIONE DELLA SPECIE
Nello sport, come nel lavoro, si richiede all’atleta sacrifi cio, concentrazione e dedizione per riuscire
a dare il meglio di “ciò che si è”. Questi principi sono sicuramente ben riassunti in Luca Gheser,
grande sportivo italiano.
percorsi
STILE LIBERO
82
DICEMBRE 2012
e della ricerca nel settore, degli ultimi decenni, ad aver
portato benefi cio non solo agli atleti di alto livello ma anche
al comune sciatore”. Secondo Gheser la chiave che ha dato
la svolta è stato l’avvento dello sci “sciancrato”, ossia il
diverso rapporto di larghezza tra punta, centro e coda dello
sci, che ha permesso allo sciatore di avere una gran facilità in
ingresso curva, limitando al minimo gli sbandamenti anche in
spazi ristretti e a più bassa velocità. Allo stesso tempo sono
state introdotte le piastre antivibranti, posizionate sullo sci per
dargli stabilità e per permettere maggiori inclinazioni.
Gli sci, poi, sono stati accorciati drasticamente con
l’introduzione di nuovi materiali nella loro costruzione, come
titanio e particolari fi bre di vetro intrecciate che hanno reso
molto elastico e resistente l’attrezzo. Inoltre, l’affermarsi
di discipline parallele allo sci alpino, hanno portato a una
maggiore differenziazione della attrezzatura e nella tecnologia
applicata: nel freeride (sci fuori pista), gli sci sono stati portati
a larghezze notevoli per permettere il galleggiamento sulla
neve e a una forma concava con punte e code sollevate
rispetto al centro sci, per facilitare i cambi di direzione dove il
manto nevoso non è compatto.
Nel freestyle (sci a libera interpretazione) la costruzione a
doppie punte, con l’attacco montato nel centro dello sci,
ha permesso allo sciatore di compiere evoluzioni e salti
con andature all’indietro come se stesse scendendo in
avanti. Anche nell’abbigliamento sono state apportate delle
migliorie: le solette hanno avuto un’evoluzione sorprendente
per la scorrevolezza e velocità dello sciatore, grazie ai nuovi
materiali impiegati e alla creazione di “impronte” sempre più
sofi sticate, una sorta di disegno inciso sulla soletta che ha
permesso di ridurre al minimo l’attrito con la neve.
Gli scarponi sono stati resi più performanti nelle mescole delle
plastiche per garantire una fl essione ottimale in qualsiasi
condizione ambientale. Innovazione sì, ma Luca Gheser
sottolinea che “nello sci alpino la tecnologia ha permesso
una performance talmente alta degli atleti, che ha costretto
la Federazione Internazionale a fare qualche passo indietro in
materia di regolamenti, al fi ne di limitare la resa dei materiali.
Lo sci ha comunque un suo fascino e una sua fi losofi a legata
all’elemento umano. La cosa che mi ha sempre affascinato
in questo sport è il senso di libertà – continua l’atleta – Un
consiglio che mi sento di dare a tutti gli appassionati è di
scegliere l’attrezzo più adatto alle proprie capacità tecniche
e all’utilizzo che ne consegue, facendosi consigliare dal
maestro di sci di fi ducia. E, naturalmente, avvicinarsi alla
stagione sciistica con una base di preparazione fi sica: essere
in buona forma signifi ca anche prevenire infortuni sopratutto
in questo sport”.
82
Luca Gheser è nato a Trento nel 1971, quarto di otto fratelli. Attualmente vive a Lavarone ed è maestro di sci dal 1991, mentre dal 1996 è allenatore federale di 3°livello e istruttore nazionale.
informazione pubblicitaria
“Qui e Ora”: il cloud computing secondo VMwareA seguito del VMworld Europe 2012, il principale
evento in Europa dedicato alla virtualizzazione
e cloud computing che si è tenuto a Barcellona
a inizio ottobre, abbiamo chiesto a Matteo Uva,
Channel Manager di VMware Italia, un bilancio
sulle novità presentate da VMware.
“Right Here, Right Now” è stato lo slogan dell’edizione di quest’anno del VMworld, cosa signifi ca?“Qui e ora”, signifi ca semplicemente che il tempo per un IT
basato sul Cloud Computing è arrivato. Tutti gli ingredienti sono
davanti ai nostri occhi, la solidità delle tecnologie, la maturità
degli utenti che ormai pretendono, giustamente, di fruire di
servizi IT moderni ed in linea con quest’era in cui l’informazione
viaggia sempre con noi, un’economia diventata globalizzata
e quindi estremamente competitiva e che cerca nei servizi IT
lo strumento su cui sviluppare modelli di business innovativi,
insomma tutto ci dice che è tempo di Trasformare. Una
nuova era in cui i Data Center siano in grado di realizzare la
promessa del Cloud Computing attraverso la Virtualizzazione.
Questo il fi lo conduttore che ha guidato gli 8.200 partecipanti
(a cui si devono aggiungere i 20.000 presenti all’evento di
fi ne Agosto a San Francisco) attraverso le sessioni tecniche e
commerciali del VMworld di Barcellona. VMware ha un ruolo
cruciale in questo processo di trasformazione. Gli ultimi dieci
anni hanno visto il fenomeno della Virtualizzazione dei server
x86 trasformare profondamente il modo di fruire dei servizi IT
nel mondo. Basti pensare che oggi il 60% dei server nel mondo
sono virtualizzati e che circa il 79% delle aziende europee che
possiedono un’infrastruttura IT virtualizzata ha già trasferito sul
cloud almeno parte delle applicazioni.La Virtualizzazione quale
terreno fertile in cui affonda le radici il Cloud Computing e il
processo evolutivo dei Data Center. Nella nostra Vision, quindi,
lo strato di Virtualizzazione permea l’intero DataCenter in tutte le
sue componenti rendendole più agili e dinamiche in linea con le
necessità dei servizi di Cloud Computing.
Può spiegarci nel dettaglio il vostro nuovo approccio?SDDC (Software-Defi ned Datacenter) rappresenta la naturale
evoluzione della nostra strategia. Se ripensiamo a quanto è
avvenuto in questi ultimi anni attraverso la virtualizzazione dei
server è facile comprendere il signifi cato del SDDC. In questi
anni abbiamo osservato le tecnologie di Virtualizzazione
intervenire nelle architetture tradizionali x86 separando le
componenti HW (CPU, Memoria, Dischi, NIC, etc) dalle
componenti SW (OS, Dati, Applicazioni), le quali sono state
“racchiuse” “isolate” e “protette” attraverso la creazione di
VM (Virtual Machine). In questo modo abbiamo ottimizzato
l’utilizzo dei server x86 e reso più agile e sicura la gestione dei
carichi di lavoro applicativo (VM). Attraverso SDDC vogliamo
estendere i vantaggi della virtualizzazione a tutti i servizi del
datacenter: calcolo, storage, networking e i relativi servizi
associati alla disponibilità e alla sicurezza. Per fare questo
abbiamo sviluppato nuovi prodotti e realizzato anche molte
importanti acquisizioni; una fra tutte quella di Nicira, uno dei
maggiori specialisti di software-defi ned networking, avvenuta
nel mese di luglio, che ha permesso di estendere la capacità di
astrazione all’ambito della rete, fi no ad oggi ancora fortemente
legata al mondo dei device hardware.
Cosa cambia concretamente a livello di offerta per VMware per il cloud computing? Abbiamo annunciato la suite vCloud 5.1, che include tutte le
componenti necessarie a realizzare la trasformazione del Data
Center. Alla base della suite vi è naturalmnete vSphere 5.1, una
versione aggiornata della nostra piattaforma di virtualizzazione,
la più diffusa nel mondo, che include in questa nuova release
oltre 100 nuove funzionalità. vCloud Suite contiene inoltre
vCloud Networking & Secutiry (per la virtualizzazione dei servizi
di Rete e di sicurezza), vCenter Operation Management nella
sua nuova versione e tutti gli altri moduli utili a completare un
Data Center software centrico.
La gestione dei cloud è anch’essa una priorità oggi?Certamente, la gestione ed il controllo devono essere delle
certezze per i responsabili IT. Se Cloud Computing vuol dire
agilità, ottimizzazione degli investimenti, self service per gli
utenti che possono autonomamente scegliere i servizi IT
attraverso un approccio a catalogo, ma tutto questo deve
avvenire in un processo che metta i responsabili dei Datacenter
nella condizione di avere un controllo ottimale dell’intera
infrastruttura fi sica e virtuale. Un Cloud senza controllo è
un controsenso. Per questo motivo VMware ha realizzato
una serie di strumenti che consentono la gestione a 360°
dell’intero servizio Cloud. Le proposte di VMware per il cloud
management estendono, quindi, il concetto di software-
defi ned datacenter e ricalibrano essenzialmente il concetto di
gestione sull’era del cloud consentendo ai clienti di operare
a “livello cloud” e iniziare ad agire quali broker di servizi IT nei
confronti delle rispettive aziende.
84
DICEMBRE 2012
Intervista a Massimo Scarpa campione di golf
Massimo Scarpa, classe ’70, è professionista dal 1992, dopo
aver vinto il Campionato Europeo Dilettanti. Ha giocato nei
vari circuiti professionistici, dal Tour europeo al secondo tour
sfi da di livello, tra il 1993 e il 2006. Ha vinto una volta il Tour
Europeo e due volte il Challenge Tour. Campione per 3 volte
di seguito al Campionato Nazionale Omnium, tra il 1998 e il
2001. Ha giocato nella squadra italiana, nel 1999, all’Alfred
Dunhill Cup a St Andrews, battendo il tre volte campione
Payne Stewart. È noto per essere un giocatore ambidestro.
Golf e tecnologia: un tandem sempre più intrecciato?Il golf è ancora uno sport in cui l’elemento umano conta e il
gesto tecnico è la parte predominante. Nonostante questo
presupposto, la ricerca nel settore ha migliorato la pratica
della disciplina e la prestazione di molti atleti. La tecnologia
è entrata nella realizzazione della nuova attrezzatura come
anche nell’allenamento, alzando così il livello medio.
Ci può fare un esempio?Un giocatore poco potente, oggigiorno, grazie alla nuova
tecnica di allenamento con sostegno informatico che
analizza la velocità di rotazione del corpo dell’atleta e, nel
contempo, la partenza della pallina e la potenza della mazza
può migliorare le proprie prestazioni. Inoltre, ha la possibilità
di scegliere l’attrezzatura più idonea con un certo anticipo.
Prima, diverse “doti” restavano inespresse, anche se
comunque il talento ancora fa la differenza.
Quanto conta possedere l’attrezzatura più innovativa?Molto. L’evoluzione del golf può essere spiegata
Massimo Scarpa, team manager delle nazionali italiane di golf, ha risposto ad alcune domande
sulla sua attività di atleta e preparatore di professionisti.
CONCENTRAZIONEE INNOVAZIONE Gli Skills del nuovo professionista
principalmente dallo sviluppo dell’attrezzatura usata per giocare, come
le moderne migliorie nella pallina da golf e nelle mazze. La pallina
ha continuato a svilupparsi, infl uenzando notevolmente il modo di
giocare. Inoltre, oggi, quasi tutti gli atleti si servono di simulatori e
club fi tting che analizzano integralmente le caratteristiche fi siche del
giocatore. Come anche gli studi biomeccanici sostengono lo studio
dell’impiego muscolare in essere. Ma questi elementi sono importanti
nella fase della preparazione piuttosto che in gara.
La tecnologia è parte integrante della preparazione atletica?Un tempo la preparazione atletica in palestra era considerata in
maniera negativa. Negli anni è cambiato l’approccio, e attrezzi di
allenamento come gli “elastici” o le “macchine a corsia libera” sono
diventati strumenti indispensabili di allenamento che permettono di
esercitare lo sforzo fi sico come anche quello mentale.
Esistono limiti imposti all’applicazione della tecnologia nella disciplina?Si, vincoli sono stati introdotti dalla Federazione, altrimenti
bisognerebbe rivedere anche i campi da gioco perché obsoleti.
Ad esempio, la USGA (United States Golf Association) ha
recentemente limitato il così detto Coeffi ciente di Restituzione (COR)
sport
STILE LIBERO
86
DICEMBRE 2012
a 0.83 nel tentativo di mantenere la competitività del gioco.
Il COR è un innovativo profi lo della faccia dei driver che
permette maggiori distanze della pallina se colpita ad elevata
velocità nel centro della faccia.
Lei a questo sport ha dedicato la vita professionale: cosa l’appassiona di questa disciplina?Il bello di questo sport è senz’altro la capacità di aggregare
persone di diversa generazione.
Si può dire che propone anche uno stile di vita: una continua
ricerca di concentrazione e impegno strategico. Inoltre,
sottintende la responsabilità personale: il giocatore è
“controllore” del proprio score, non esistono arbitri esterni.
Il limite è che resta uno sport individuale.
È per questo che ho lavorato, in questi anni di preparatore
tecnico italiano, per formare non solo idealmente, ma anche
nel concreto, un team “nazionale” che crei aggregazione e
sostegno nei momenti di gara, soprattutto all’estero.
Chi si avvicina oggi a questo sport?Nell’immaginario delle persone continua ad essere uno sport
d’élite, anche se in realtà è ormai meno costoso di altre
discipline sportive.
Il costo delle attrezzature è variabile e ci sono campi da gioco
sparsi ovunque e non necessariamente in club privati.
La Federazione in questi anni sta lavorando per promuovere
il golf a tutti i livelli, e la speranza è che anche in Italia possa
ampliarsi sempre più il numero di praticanti. Anche i mezzi di
informazione, come la televisione, stanno portando un grosso
sostegno alla promozione di questo sport.
Infi ne, ha qualche giocatore a cui si è ispirato maggiormente?Sicuramente, Severiano “Seve” Ballesteros Sota, golfi sta e
architetto spagnolo che fu una fi gura di riferimento in questo
sport a cavallo di 3 decenni. Genio e sregolatezza assieme!
Ho anche avuto l’onore di giocare con lui.
88
DICEMBRE 2012
Ingredienti x 4persone Pasta: lasagne 400 gLa pasta può essere fatta in casa o comperata, fresca o secca, l’importante è che la sfoglia sia sottile.
Farcia: radicchio di Treviso 600 g + un gambo a parte per le decorazioni capesante 4 + una di riserva
burro 30 + 10 g farina 00. 40 g latte freddo 500 ml scalogno 1; aglio spicchio 1 olio extra vergine di oliva qb.worcestershire sauce qb. pepe nero al mulinello qb. coriandolo in polvere o i semi pestati al mortaio qb.
di Luisa Giacomini cuoca per passione
L’acqua di mare& l’erba voglioLa cucina a modo mio: cucina trendy, facile o un po’ elaborata, ma alla portata di tutti e di tutte le situazioni.
C’era una volta…le lasagne alla bolognese! Il piatto
prelibato della domenica, il vanto delle brave cuoche di casa
e la gioia della famiglia. In questa preparazione classica della
cucina italiana, si misuravano le abilità di affermati chef e le
valutazioni erano in base alla delicatezza, al gusto e al giusto
rapporto tra pasta, salsa bechamel dal lieve sentore di spezia,
ragù alla bolognese e Parmigiano Reggiano. Ognuno aveva la
sua ricetta, ognuno la reputava migliore, infi nite le varianti.
Ora, questa pietanza è stata completamente distrutta
nell’immaginario collettivo dei buongustai dall’attuale
gastronomia “pronto in tavola”, rosticcerie e preparazioni
surgelate industriali, per l’uso di conservanti e prodotti
spesso di qualità inferiore. Trattorie e ristorazioni di basso
livello hanno banalizzato le lasagne alla bolognese a tal
punto da decretarne la morte nelle proposte dei menù
della ristorazione odierna. Peccato! Ma la tradizione ed il buonsenso sono dure a morire. La tradizione si
reinventa, rinascendo dalle sue stesse ceneri, si trasforma
in interpretazione creativa mantenendone la personalità, alla
faccia di chi trova la bechamel roba vecchia e superata…ma
di questa e di nascosto, ne lecca il cucchiaio.
La novità creativa: Rose di mare al radicchio di Treviso e capesante. È l’interpretazione della tradizione, una
monoporzione molto buona e delicata, morbida e
gradevolmente croccante. Accattivante la presentazione
coreografi ca, si presenta come una lasagna aperta, dalla
forma del fi ore di rosa. A seconda della stagione, mantiene
la personalità della ricetta, rinnovandosi a seconda della sua
composizione.
C’era una volta: la novità creativa e la tecnologia in cucina
Porcellane Museo
Marquise by R. Ginori
Treviso
Rose di mare
al radicchio
di Treviso
e capesante
89
In una padella profumare un fi lo d’olio evo con l’aglio schiacciato,
eliminarlo, spadellare le capesante a fuoco vivace ma non troppo,
spolverare con un pizzico di coriandolo, poco pepe e sale. Dividere
i frutti di mare dal fondo di cottura e tenerlo da parte. Tagliare le
noci in quattro fettine, tenere da parte quelle più belle con il corallo
a vista.
Tagliare il radicchio a pezzetti regolari. In una padella far soffriggere
delicatamente e con poco olio lo scalogno tritato. Quando il soffritto è
trasparente, versare il radicchio, stufarlo a fi amma bassa, insaporire
con poco pepe, alcune gocce di worcestershire sauce e sale qb. (se
il radicchio risulta molto amaro aggiungere un pizzico di zucchero
e un goccio di latte). Mettere il coperchio e portare brevemente a
cottura.
Amalgamare 10g di burro, spegnere e aggiungere il fondo di
capasanta.
In un pentolino prepariamo il roux, sciogliere 30 g di burro a fuoco
basso, fuori dal fuoco versare la farina, lavorarla con il burro sino
ad ottenere una crema molto densa, sul fuoco aggiungere il latte
poco alla volta, stemperare eventuali grumi con la frusta. Proseguire
con un mestolo e mescolare fi no al raggiungimento del bollore,
proseguire per tre minuti, salare e spegnere.
In una padella larga e bassa, con acqua salata e un cucchiaio d’olio,
sbollentare per un minuto i quadri di pasta, 5/6 per volta, scolarli
con la schiumarola e passarli in acqua ghiacciata per bloccare la
cottura. Deporli sul canovaccio ad asciugare. Ritagliarli in quadri, 9
cm per lato.
Montare le rose su carta da forno posta in una teglia del forno,
mettere il primo quadro di pasta, solo al centro, non in tutto il quadro,
versare un cucchiaino da the di radicchio stufato, sopra uno di roux
e una fettina di capasanta. Proseguire con gli strati scomponendo gli
angoli del quadro, i quali non devono combaciare ma essere separati
come petali di un fi ore, non sovrapporre le fettine di capasanta, ma
alternarle nel volume così da evitare uno spessore della rosa di mare
troppo alto. Non mettere le fettine tenute da parte nell’ultimo strato.
gratin e degli angoli arricciati verso l’alto, guarnire mettendo la
fettina con il corallo sopra al centro della rosa, proseguire la cottura
per altri 5 minuti e togliere dal forno. Dopo averla posta in un piatto,
lucidare appena con un fi lo d’olio, spargere qui e là pochi pezzettini
di radicchio.
Vino da abbinare: Alto Adige Muller Thurgau - (Trentino Alto
Adige), Prosecco di Conegliano e Valdobiadene (Veneto) - Collio
Sauvignon (Friuli Venezia Giulia).
Conservazione: Le rose di mare si possono congelare o meglio
surgelare per avere un prodotto pronto come appena fatto.
Si consiglia di surgelare le monoporzioni a crudo, abbattere la temperatura
in contenitori che le proteggano, oltre che dal gelo, da eventuali colpi che
rovinerebbero la preparazione e i “petali”.
http://www.luisagiacomini.com/
esecuzione
Una premessa: congelare e surgelare, dove sta la differenza?
A una persona non esperta di cucina queste parole potrebbero
sembrare due sinonimi, ma la differenza esiste e per la
conservazione e il mantenimento del valore nutritivo degli
alimenti è molto importante.
Congelare signifi ca abbattere la temperatura degli alimenti
in un tempo lungo, con la conseguente formazione di
macrocristalli. Surgelare signifi ca abbattere la temperatura
degli alimenti rapidamente, con la conseguente formazione
di microcristalli. La diversità consiste al momento dello scongelamento del prodotto: i macrocristalli disperdono nel
liquido i valori nutritivi, consistenza e gusto; i microcristalli, al
contrario, non recano alterazioni nella composizione del cibo,
lasciandolo succulento o fragrante come appena fatto.
Per una surgelazione corretta anche a casa ecco, allora,
l’abbattitore di temperatura casalingo!
Proposti da alcuni anni, se ne parlava ma di concreto vi era
molto poco. Pochi modelli e dai costi inavvicinabili per un
mercato dal budget medio, gli abbattitori di cucina rimanevano
una prerogativa della ristorazione e dell’industria alimentare.
La realtà odierna, nelle proposte innovative, non consiste solo in
velocissimi abbattitori della temperatura per la surgelazione, ma
vere e proprie macchine tecnologiche all’avanguardia.
Sono programmate per il raffreddamento rapido di un cibo caldo
e quindi sano, essendo bloccate le proliferazioni batteriche; ma
anche per il raffreddamento rapido delle bevande in genere.
scongelamento a temperatura controllata della pietanza che
preserva così le sue proprietà organolettiche e nutrizionali.
Per mantenere il cibo come fosse nel frigorifero, rigenerandolo
al momento e cuocendolo nell’ora prestabilita per il rientro a
casa, in modo da poter consumare un piatto pronto e caldo
cucinato da noi stessi.
Non solo, un valido aiuto per la lievitazione degli impasti,
in qualsiasi condizione meteorologica. Infi ne, la proprietà
di un programma per il sistema della cottura lenta a bassa
temperatura, preservando tutta la tenerezza delle carni e del
pesce, dalla succulenza all’esaltazione del gusto. Tutto questo a
casa nostra, in tutta tranquillità e fi nalmente a costi concreti di
mercato che incontrano il pubblico medio.
TECNOLOGIAIN CUCINA La tecnologia della corretta conservazione e
dell’igiene alimentare: un concetto rivoluzionario che
ha dettato lo standard del mercato, innovandolo con
“l’abbattitore di temperatura casalingo”.
cucina
STILE LIBERO
informazione pubblicitaria
DLP software bladeA fronte del continuo incremento di casi ed eventi
legati alla perdita di dati, le aziende devono
intraprendere azioni specifi che, fi nalizzate a
proteggere le informazioni sensibili e riservate in
loro possesso.
Ad essere minacciati sono soprattutto i dati riservati e
confi denziali di dipendenti e clienti, i documenti legali e le
informazioni attinenti alla proprietà intellettuale delle aziende;
la sfi da a cui far fronte consiste nel neutralizzare tali minacce
e situazioni di pericolo, senza ostacolare o diminuire la
produttività dei dipendenti o sovraccaricare il personale IT con
compiti ed attività supplementari.
Pur continuando ad evolversi, la tecnologia non fornisce
ancora un supporto atto a comprendere le intenzioni degli
utenti. Per proteggere i dati sensibili, i prodotti di Data
Loss Prevention (DLP) fi nora disponibili richiedevano tempi
di implementazione molto lunghi, attività amministrative
alquanto onerose e costi ingenti. Check Point DLP Software
Blade™ unisce tecnologia e processi garantendo una
strategia DLP di massima effi cacia; è l’unica soluzione che
consente alle aziende di evitare la perdita di dati proteggendo
preventivamente le informazioni sensibili dallo smarrimento
involontario.
VANTAGGI FONDAMENTALI
PREVIENE LA PERDITA DI DATI SENSIBILI
E DI INFORMAZIONI DI BUSINESS CRITICHE
La tecnologia UserCheck consente agli utenti di porre
rimedio a violazioni e incidenti in tempo reale.
UNISCE TECNOLOGIA E PROCESSI PER
IMPLEMENTARE UNA DLP DI MASSIMA EFFICACIA
L’innovativo motore di classifi cazione_dati MultiSpect correla
con precisione ineguagliata utenti, contenuti e processi.
IMPLEMENTAZIONE SEMPLICE E RAPIDA A
GARANZIA DI UNA PREVENZIONE IMMEDIATA DELLE
PERDITE DI DATI
Protezione già dal 1° giorno di tutti i dati sensibili con policy
pre-confi gurate e supporto a 360 gradi
per formati fi le e dati di qualsiasi tipo.
91
Recenti studi dell’Unione Europea hanno dimostrato
che l’inserimento di piante e verde in uffi cio, vicino alle
postazioni di lavoro, migliora il rendimento dei dipendenti, diminuisce numerosi disturbi fi sici, riduce lo stress e rende l’ambiente più sano e salubre.
Perché allora non dedicare uno spazio di questa rivista al
verde in uffi cio? Come non solo non far morire le piante da
uffi cio, ma soprattutto come farle crescere e prosperare, così
da metterle in condizione di assorbire le nocività di cui sopra.
Innanzitutto, qualche consiglio per iniziare: non comprare
mai piante che non conosciamo, ma facciamoci aiutare dal
nostro fi orista di fi ducia per scegliere quella che fa per noi e
ci rispecchia meglio.
Scelta la pianta che fa per il nostro ambiente lavorativo,
troviamole la giusta collocazione, possibilmente
posizionandola vicino ad altre così si crea un microclima che
le aiuta a prosperare e alla luce (senza sole diretto).
Le piante grasse stanno bene al sole perciò si possono
mettere davanti la fi nestra.
Infi ne, come curarle. Intanto, è utile abituarsi a guardarle per capire di cosa hanno bisogno. Possono avere sete
e questo si può intuire semplicemente toccando il terreno.
Oppure possono avere qualche parassita. Di solito è
abbastanza frequente la cocciniglia, se compare occorre
toglierla subito con le mani oppure con un batuffolo di cotone
imbevuto di alcol. Eliminare sempre, inoltre, le foglie gialle.
Segnali di malessere? Possono essere tante foglie secche,
macchie, o altro. Basta cercare in internet, la soluzione si
trova sempre velocemente, ma probabilmente sono state
annaffi ate eccessivamente.
E per fi nire, considerato il periodo, parliamo della Stella di Natale, pianta che nel periodo delle festività acquista grande
fascino. Come fare per farla durare fi no alla befana?
Innanzitutto, occorre trovare un posto con molta luce ma
senza sole diretto, e lontano da fonti di calore altrimenti
perde le foglie perché non ama il troppo caldo.
Liberate le foglie da eventuali confezioni e fatela respirare.
Deve essere annaffi ata con acqua tiepida solo quando
la terra è asciutta, magari aggiungendo poco zucchero.
Qualcuno consiglia di mettere dei chiodi di ferro tra il terriccio
e il vaso e versarci l’acqua sopra quando si annaffi a.
E, per concludere, non teniamo la povera pianta in uffi cio fi no
a ferragosto! Ci sono tecniche per mantenerle folte e far loro
rifare le foglie rosse, ma non sono semplici ed è meglio farlo
a casa. Buon Natale e buon anno nuovo!
Proveniente dal Messico, la Stella di Natale è una pianta tropicale della famiglia delle Euphorbiacee. A dicembre fa la sua comparsa nelle case, negli uffi ci, nei negozi per via dei colori sgargianti che rimandano al periodo delle festività.
La stella di NataleRallegra le feste, riduce lo stress e migliora il rendimento! CARLA SBICEGO [email protected]
uffi cioverde
STILE LIBERO
92
DICEMBRE 2012
Apple Inc.
Apple Inc.
Apple Inc.
Cisco Systems, Inc.
Cisco Systems, Inc.
Cisco Systems, Inc.
Dell Inc.
Dell Inc.
Dell Inc.
ge
nn
aio
20
10
dic
em
bre
20
10
ge
nn
aio
20
11
dic
em
bre
20
11
ge
nn
aio
20
12
no
ve
mb
re 2
01
2
EMC Corporation
EMC Corporation
EMC Corporation
Facebook, Inc.
Facebook, Inc.
Facebook, Inc.
Hewlett-Packard
Hewlett-Packard
Hewlett-Packard
(quotazioni dal 18.05.2012)
n.q.
n.q.
LA TECNOLOGIA IN BORSA
93
IBM Corporation
IBM Corporation
IBM Corporation
Microsoft Corporation
Microsoft Corporation
Microsoft Corporation
Oracle Corporation
Oracle Corporation
Oracle Corporation
Sap Ag
Sap Ag
Sap Ag
Apple 525,62
Cisco 17,94
Dell 9,56
EMC 23,56
Facebook 22,17
HP 13,08
IBM 185,85
Microsoft 26,66
Oracle 29,95
Sap 71,04
quotazioni al 15.11.2012
Fonti: INDICE Nasdaq e NYSE
Apple 405,00
Cisco 18,63
Dell 14,63
EMC 21,54
Facebook -
HP 25,76
IBM 183,88
Microsoft 25,96
Oracle 25,65
Sap 52,95
quotazioni al 30.12.2011
Fonti: INDICE Nasdaq e NYSE
Apple 322,56
Cisco 20,23
Dell 13,55
EMC 22,90
Facebook -
HP 42,10
IBM 146,76
Microsoft 27,91
Oracle 31,30
Sap 50,61
quotazioni al 31.12.2010
Fonti: INDICE Nasdaq e NYSE
Cop
yrig
ht ©
2012 Y
ahoo
! In
c. I
dati
qui i
nser
iti h
anno
uno
sco
po p
uram
ente
illu
stra
tivo
e di
vulg
ativ
o, n
on h
anno
qui
ndi a
lcun
a fi n
alità
di l
ucro
né
valg
ono
qual
i sug
gerim
enti.
Le
quot
azio
ni s
ono
trat
te
da N
YSE
e N
asda
q Le
info
rmaz
ioni
son
o tu
tte
forn
ite “
così
com
e so
no”.
Lo
stor
ico
dei d
ati p
er la
rea
lizza
zion
e de
i gra
fi ci e
gli
aggi
orna
men
ti gi
orna
lieri s
ono
forn
iti d
a C
omm
odity
Sys
tem
s, In
c. (C
SI).
Lo s
torico
dei
dat
i int
erna
zion
ali,
gli a
ggio
rnam
enti
gior
nalie
ri, i
l rie
pilo
go s
ui f
ondi
, i r
endi
men
ti de
i fon
di, i
dat
i sul
div
iden
do e
su
Mor
ning
star
Inde
x so
no f
orni
ti da
Mor
ning
star
, Inc
.
Dat
i fi n
anzi
ari s
tatu
nite
nsi f
orni
ti da
Edg
ar O
nlin
e e
tutt
i gli
altr
i dat
i fi n
anzi
ari f
orni
ti da
Cap
ital I
Q. L
o st
oric
o de
i dat
i int
erna
zion
ali s
ono
forn
iti d
a Th
omso
n Fi
nanc
ial N
etw
ork.
10titoli
STILE LIBERO
94
DICEMBRE 2012E 2012
La parola alla nostra Community
Daniele Lago [ Amministratore Delegato Lago Spa ]
“I social media rappresentano uno strumento dalle
enormi potenzialità. La capacità di gestirli e governarli è
probabilmente la discriminante perché questa “potenza”
possa evolversi in opportunità o, al contrario, in insuccessi.
Nell’uso delle piattaforme social come canale di
comunicazione esterna ciò che cambia maggiormente rispetto
al passato è il concetto di trasparenza. Oggi, un’azienda che
decide di comunicare con il proprio pubblico servendosi dei
social media deve prima interrogare se stessa, chiedendosi
“Che tipo di azienda voglio essere? Quanto trasparente?”.
Le imprese devono ripensare se stesse, innovando il proprio
approccio al mondo esterno, prim’ancora che gli strumenti e
le tecnologie per interfacciarsi ad esso.
A questo proposito, mi piace ricordare una frase dell’artista
Carmelo Bene che diceva: “Bisogna smettere di produrre
capolavori, bisogna essere dei capolavori”. Be’, io credo che
oggi ci siano azioni, processi o meglio storie da raccontare
che riguardano quello che la fabbrica è, più che quello che
produce. E questo desiderio di narrazione non ha origine dal
mondo tecnico ma necessita delle più moderne tecnologie
per esprimersi. Certo, la molteplicità e la continua evoluzione
NEW MEDIAPER L’INNOVAZIONE SOCIALE
I Social Media cambiano i modelli di interazione e collaborazione tra persone. Questo accade anche per
le imprese, dove possono integrarsi al modo di lavorare e dialogare sia con il pubblico esterno sia
con gli interlocutori interni, per facilitare la condivisione delle informazioni. Quali opportunità si
aprono per l’impresa e che tipo di problematiche?
95
dei mezzi social a disposizione delle imprese oggi aprono
scenari complessi, spesso critici per quelle aziende che non
riescono ad orientarsi e a comprendere come generare valore
con essi. In questo caso, la qualità di un team competente,
pronto a recepire il cambiamento culturale sotteso a queste
logiche, costantemente e rigorosamente aggiornato, può fare
la differenza e tradurre il mezzo in un’innovazione di valore
per tutta la squadra”.
Enrico Barbi [ Socio ICA SYSTEM Srl ]
“I social network offrono sicuramente nuove opportunità
alle strategie di marketing delle aziende. Siamo passati
rapidamente da una società centrata sulla produzione, in
serie, di beni materiali ad un’altra in cui la qualità del servizio
è premiante, e le informazioni devono passare velocemente.
Gli strumenti social aiutano a superare le barriere di
conoscenza che spesso si creano nelle imprese, e a
interfacciare persone e idee in modi nuovi, impossibili sino
a pochi anni fa. I vantaggi che ne derivano sono molteplici:
le aziende possono entrare in contatto diretto con i propri
clienti o potenziali pubblicizzando un marchio, un prodotto,
un servizio; la capacità di trovare informazioni e persone più
rapidamente velocizza il processo decisionale, consentendo
alle imprese di essere più agili e competitive, e alle persone
di essere più produttive. Credo, comunque, che sia ancora
minimo il numero di aziende, soprattutto nella piccola e
media impresa, che monitorizza davvero i social network per
individuare potenzialità per il proprio business.
Ad esempio, per avere indicazioni rispetto alla concorrenza o
al posizionamento della propria impresa. Ritengo ci sia ancora
scarsa conoscenza sull’impostazione di un sistema di raccolta
e analisi delle informazioni ricevute dai social network, e
scarsa propensione all’investimento nell’ambito: ancora
poche sono le aziende che vantano nel proprio organico un
esperto di social network. Probabilmente si tratta di sviluppare
maggiormente la cultura aziendale verso una nuova forma
di comunicazione: aggregativa, interattiva, rapida. Il futuro
è certamente fatto di una crescente interazione con questi
strumenti del web”.
Giuseppe Milan [ Direttore Generale Unindustria Treviso ]
“Così come avviene nelle aziende, anche in Unindustria
Treviso seguiamo con attenzione questo processo in atto che
sta trasformando e amplifi cando le modalità di informazione
e comunicazione e, quindi, con implicazioni future anche
nelle relazioni associative. In questi anni abbiamo voluto
sperimentare alcune iniziative, come una community, per
valutare la modalità più effi cace nel cogliere le opportunità
offerte dal web. Di grande interesse è stato anche il progetto
“Business 2.0. Lab” realizzato quest’anno da Unindustria
Treviso Servizi & Formazione, in collaborazione con
l’Università di Milano.
È un percorso di formazione, della durata di un anno, dedicato
al web marketing che consentirà a un gruppo di aziende del
territorio di sperimentare le molteplici opportunità e curiosità
aperte dall’online. Nel 2013 prenderà il via la seconda
edizione”.
Gli strumenti social aiutano
a superare le barriere
di conoscenza che spesso
si creano nelle imprese,
e a interfacciare persone e idee
in modi nuovi, impossibili sino
a pochi anni fa.
a più voci
STILE LIBERO
Mauro Busetto [ Responsabile Area Amministrazione e Finanza Nastrofl ex Spa ]
“I social media permettono di comunicare e di svolgere
attività creative ed espressive, e consentono a ognuno di noi
di mettere facilmente a disposizione degli altri il contributo
personale alla cultura e alla società. A mio avviso, la piccola
e media impresa del Nord-est non comprende le reali
potenzialità di questi mezzi e spesso diffi da di essi, ritenendo
chi li utilizza come strumento operativo dell’azienda poco
focalizzato sulle dinamiche reali del mercato. Credo che
un’impresa che utilizzi dei buoni piani di pubblicazione dei
contenuti tramite il web possa infl uire positivamente sul
proprio rendimento. Infatti, si può utilizzare la presenza sui
“social” non solo per accrescere l’ “awareness” del proprio
marchio o per acquisire contatti commerciali, ma anche per
reperire informazioni aggiornate, condividere conoscenza,
supportare clienti utenti, offrire servizi. Attraverso “social”
come Facebook, Twitter, Linkedln, Google, e altri ancora, le
imprese hanno un’opportunità unica di condividere idee,
apprendere con rapidità delle buone pratiche, riproporre
successi e creare reti d’impresa”.
Barbara Stella [ Addetta Amministrazione Gruppo Eurosystem Sistemarca Srl ]
“L’utilizzo dei social media come strumento di comunicazione
interno all’azienda può aprire nuove opportunità, soprattutto
in termini di velocizzazione e semplifi cazione della
condivisione delle comunicazioni, anche se con ponderazione.
I sistemi di chatting aziendale, per esempio, possono facilitare
alcuni scambi di informazioni in tempo reale, ma non possono
sostituirsi completamente a sistemi già esistenti come l’email.
I social media possono portare un vantaggio se utilizzati nelle
circostanze idonee: per comunicazioni semplici, ad esempio,
che non necessitano di approvazioni uffi ciali. Nel mio
percorso professionale, infatti, ho imparato che la velocità di
risposta può essere causa di superfi cialità e che non sempre
paga. Credo dunque che nell’ambito della comunicazione
interna aziendale, questi strumenti possano accostarsi
a quelli già esistenti, integrandoli. Per quanto riguarda
la comunicazione esterna, i social media rappresentano
certamente uno strumento di marketing di grande impatto.
Anche in questo secondo caso, però, ritengo che debbano
essere gestiti con strategia partendo da un’accurata analisi
preliminare dei messaggi da veicolare e dei pubblici di
riferimento”.
96
DICEMBRE 2012
permettono di comunicare e di svolgere attività creative ed espressive, e consentono a ognuno di noi di mettere facilmente a disposizione degli altri il contributo personale alla cultura e alla società
Barbara Stella, Mauro Busetto,Daniele Lago, Enrico Barbi, Giuseppe Milan
N. 00 - Dicembre 2012pubblicazione bimestrale
Registrazione Tribunale di Treviso n. 201 del 09/11/2012
Il Gruppo Eurosystem Sistemarca srl è in fase di registrazione al ROC Registro degli operatori di Comunicazione
direttore responsabileLeonardo Canal
coordinamento editorialeMita Cipriani Franco
hanno collaboratoGian Nello Piccoli, Stefano Moriggi, Gianni Favero, Eleonora Biral, Giovanna Bellifemine, Franco Brunello, Uberto Di Remigio, Paola Pretto, Diego Romano, Alessio Voltarel, Stefano Biral, Ruggero Paolo Ortica, Riccardo Girotto, Luciano Salvadori, Carla Sbicego, Luisa Giacomini, Maurizio Sue, Massimo Manica
progetto e realizzazione graficaclaim brand industry claim.it
segreteria e sede operativaVia Newton 21, 31020 Villorba (TV), telefono 0422.628711, fax [email protected]
editoreGruppo Eurosystem Sistemarca Srl, via Newton 21, 31020 Villorba (TV)
per la pubblicitàGruppo Eurosystem Sistemarca Srl, via Newton 21, 31020 Villorba (TV), telefono 0422.628711
stampaMediagraf SpaViale della Navigazione interna 89, 35027 Noventa Padovana (PD)
Nell’eventualità in cui immagini di proprietà di terzi siano state qui riprodotte, l’Editore ne risponde agli aventi diritto che si rendano reperibili.
Porrà inoltre rimedio, su segnalazione, a eventuali involontari errori e/o omissioni nei riferimenti.
99EMC2, EMC, and the EMC logo are registered trademarks or trademarks of EMC Corporation in the United States and other countries. © Copyright 2012 EMC Corporation. All rights reserved.
TRANSFORMS ITCLOUD