Informazioni II Di cosa si parlerà nel corso? I lezione... · – Numerico T. (et al.),...

20
10/12/16 1 Epistemologia dei nuovi media Corso di scienze della comunicazione a.a. 2016-2017 Teresa Numerico [email protected] Informazioni Docente teresa numerico [email protected] 6 crediti 36 ore (inclusa la valutazione sperimentale per frequentanti) Orario lezioni: lun. H. 13.00-16.00 I sem. Aula 2 Valutazione sperimentale per i/le frequentanti che lo desiderano Il corso sostituisce quello di comunicazione di rete Informazioni II Libri di testo per sostenere l’esame se non si vuole fare l’esame come frequentante Mayer-Schönberger V., Cukier N., Big Data, Garzanti, Milano, 2013. Lovink G. L’abisso dei social media, Egea, Milano, 2016. Numerico T. (et al.), L’umanista digitale, Il Mulino, Bologna, 2011, cap. I e cap. IV Di cosa si parlerà nel corso? Questioni epistemologiche, politiche, sociali e etiche relative all’uso dei media digitali nella vita quotidiana e nella costruzione della conoscenza Big Data, data mining, machine learning e deep learning Costruzione della conoscenza e organizzazione dell’educazione nel contesto digitale Sorveglianza, controllo e libertà Teoria, dati e interpretazione: il ruolo dell’algoritmo Accesso e organizzazione delle informazioni Privacy e right to be forgotten

Transcript of Informazioni II Di cosa si parlerà nel corso? I lezione... · – Numerico T. (et al.),...

10/12/16

1

Epistemologia dei nuovi media

Corso di scienze della comunicazione a.a. 2016-2017 Teresa Numerico

[email protected]

Informazioni

•  Docente teresa numerico [email protected]

•  6 crediti •  36 ore (inclusa la valutazione sperimentale per frequentanti)

•  Orario lezioni: lun. H. 13.00-16.00 I sem. Aula 2

•  Valutazione sperimentale per i/le frequentanti che lo desiderano

•  Il corso sostituisce quello di comunicazione di rete

Informazioni II

•  Libri di testo per sostenere l’esame se non si vuole fare l’esame come frequentante – Mayer-Schönberger V., Cukier N., Big Data, Garzanti, Milano, 2013.

– Lovink G. L’abisso dei social media, Egea, Milano, 2016.

– Numerico T. (et al.), L’umanista digitale, Il Mulino, Bologna, 2011, cap. I e cap. IV

Di cosa si parlerà nel corso?

•  Questioni epistemologiche, politiche, sociali e etiche relative all’uso dei media digitali nella vita quotidiana e nella costruzione della conoscenza –  Big Data, data mining, machine learning e deep learning

–  Costruzione della conoscenza e organizzazione dell’educazione nel contesto digitale

–  Sorveglianza, controllo e libertà –  Teoria, dati e interpretazione: il ruolo dell’algoritmo

–  Accesso e organizzazione delle informazioni

–  Privacy e right to be forgotten

10/12/16

2

La presenza online degli adolescenti (13-17 anni)

•  Il 24% degli adolescenti va online costantemente

•  Il 92% va online ogni giorno •  Il 56% dei ragazzi tra i 13 e I 17 anni vanno online più volte al giorno

•  Il 12% una volta al giorno •  Solo il 6% più sporadicamente •  La grande diffusione della presenza online riguarda la disponibilità e la convenienza di telefoni smart

Fonte Pew Research Center (april 2015) Teens, Social Media & Technology Overview 2015

http://www.pewinternet.org/2015/04/09/teens-social-media-technology-2015/

Adolescenti e relazioni amorose: tecnologia come

controllo? •  Durante o dopo una relazione il 31% (26%

durante) sperimenta il controllo online del partner

•  Intorno al 10% degli adolescenti che hanno avuto una relazione hanno avuto accesso a un account del partner, hanno danneggiato il profilo del/della ex online

•  Il 21% riporta che un ex o un partner attuale ha letto i loro messaggi senza permesso

Teens, Technology and Romantic Relationships Pew research center, 1 oct. 2015 http://www.pewinternet.org/2015/10/01/

teens-technology-and-romantic-relationships/

Controllo sul lavoro

•  I datori di lavoro bloccano l’accesso a alcuni siti e hanno regole su cosa si può scrivere e postare online nel 46% dei casi negli US

•  Questo dato è più che duplicato dal 2006

Fonte Pew Research center internet, science and tech, dec.

2014 http://www.pewinternet.org/2014/12/30/technologys-impact-on-workers/

Need to be observed •  The public sphere is saturated with the exposure of

private life •  It is virtually impossible to distinguish the

rationalization and commodification of selfhood from the capacity of the self to shape and help itself and to engage in deliberation and communication

•  The prevalence and persistence of this narrative,[…] a narrative of recognition

•  It becomes harder to distinguish between our professional and private self. In the competitive networking context of work

Illouz 2007 cited in Lovink 2011, 42

10/12/16

3

Desire to be observed

•  The erosion of anonymity is a product of pervasive social media services […] and perhaps most important of all, a change in people’s views about what ought to be public and what ought to be private

•  All those technical gadget are […] user-friendly though […] it means a product that is incomplete without the user’s labour, along the line of IKEA furniture. And […] without user’s enthusiastic devotion and deafening applause

Bauman, Lyon 2013, p.22

From the old panopticon to the dream of being noticed

•  The old panoptical stratagem is being gradually yet consistently […] brought to well-nigh universal implementation.

•  With the old panoptical nightmare (I am never of my own) now recast into the hope of ‘never again being alone” (abandoned, ignored and neglected, […]),the fear of disclosure has been stifled by the joy of being noticed

Baumann, Lyon 2013, p. 23

Privacy and information sharing

•  Secondo uno studio di Pew Research Center la maggior parte degli americani sono disponibili a condividere informazioni personali in cambio di qualcosa che percepiscono come un valore

•  Secondo gli americani intervistati la possibilità di condividere dati personali dipende dallo scenario e dalla percezione di un ritorno che percepiscono di valore

http://www.pewinternet.org/2016/01/14/privacy-and-information-sharing/

Gli scenari individuati

•  Camere di soveglianza in ufficio –  Accettabile 54%, dipende 21%, inaccettabile 24%

•  Condividere informazioni sulla salute –  Accettabile 52%, dipende 20%, inaccettabile 26%

•  Carte di fedelta nei negozi –  Accettabile 47%, dipende 20%, inaccettabile 32%

•  Assicurazione auto –  Accettabile 37%, dipende 16%, inaccettabile 45%

•  Free social media per una riunione di compagni –  Accettabile 33%, dipende 15%, inaccettabile 51%

•  Termostato smart che monitora spostamenti –  Accettabile 27%, dipende 17%, inaccettabile 55%

10/12/16

4

DATA MANAGEMENT IN THE HISTORY OF COMMUNICATION TECHNOLOGIES

Can we store information?

•  It is false to think that information can be stored without an overwhelming depreciation of its value in a changing world because:

Wiener 1950: 121

Traditional knowledge production in science (Licklider)

•  The laboratory and the library are physically separate and distinct. The only channels for interaction between them are the telephone, the experimenter himself, and the books he borrows from the library and examines in the laboratory

Licklider 1965,p. 22

Data management and the body of knowledge

•  The data are collected, not only in isolation from these concurrent processes, but also in isolation from one another, and the result is a chaos of miscellaneous individual cases.

•  The difficulties of integrating the results of many simultaneous projects […] is at present object of much concern

Licklider 1965, p. 24

10/12/16

5

Organizing information

into knowledge •  The raw materials or inputs to the “organizer” are alphanumeric data, geometrical patterns, pictures, […]

•  The outputs of the organized system are expressed in one or more of the input forms, but they are not mere reproductions or translations of particular inputs;

•  They are suggestions, answers to questions and made-to-order summaries of the kind that a good human assistant might prepare if he had a larger and more accurate memory and could process information faster

Licklider 1965, p. 25

Licklider’s proposal

•  In organizing knowledge, just as in acquiring knowledge, it would seem desirable to bring to bear upon the task the whole corpus, all at one time […]. This aim seems to call for direct interactions among various parts of the body of knowledge, and thus to support the requirement […] for an active or directly processible store

Licklider 1965, p. 25

Bob Taylor and Vietnam reports

•  There were discrepancies in reporting that was coming back from Vietnam to the White House about enemy killed, […] logistics reports of various kinds

•  […] I talked to various people who were submitting these reports back to Washington. I got a sense of how the data was collected, how it was analyzed, and what was done with it before it was sent back to the White House, and I realized that there was no uniform data collection or reporting structure

•  So they built a computer center at Tonsinook and had all of this data come in through there. After that the White House got a single report rather than several. That pleased them; whether the data was any more correct or not, I don't know, but at least it was more consistent

Taylor 1989, pp. 12-13

LA POLITICA DEL SOFTWARE Dati, algoritmi e giustizia sociale

10/12/16

6

Big Data

•  Big data e riorganizzazione di epistemologia, mercato, società

•  Segnalo questo piccolo documentario di Evgeny Morozov pubblicato da Al Jazeera, dal titolo rebel geeks – give us back our data https://www.youtube.com/watch?v=jAL1lVvJxew

Cosa sta succedendo?

•  La digitalizzazione consente con grande facilità la cosiddetta datificazione, che non è esclusivamente il frutto del digitale, ma il digitale offre un acceleratore a questo processo

•  La costruzione dei dati non riguarda solo fenomeni scientifici riguarda la nostra stessa vita

•  Siamo noi che accettando di usare i telefoni cellulari e le loro smart app datifichiamo la nostra vita

La decadenza del web e le sue conseguenze

•  The Web Is Dead. Long Live the Internet By Chris Anderson and Michael Wolff, Wired, sept. 2010 http://www.wired.com/magazine/2010/08/ff_webrip/all/1

Dati grezzi e verità

•  This shared sense of starting with data often leads to an unnoticed assumption that data are transparent, that information is self-evident, the fundamental stuff of truth itself

Lisa Gitelman and Virginia Jackson 2013 raw data is an oxymoron, p. 2

10/12/16

7

La purezza dei dati

•  Come se questi dati discendessero direttamente dai fatti e avessero un rapporto diretto, incontaminato con la ‘realtà’

•  La politica dei big data segnala e suggerisce che non c’è niente da decidere e che tutto discende direttamente dal funzionamento dei meccanismi di costruzione delle correlazioni (algoritmi) di cui pochi conoscono la logica e nessuno sa perché le correlazioni trovate dovrebbero avere senso

Quantified self e selftracking

•  Activity monitor (Apple Watch, Fitbit tracker Jawbone)

•  Sleep specific monitors (Pillow - Smart Sleep Cycle Alarm Clock Drowzy, Lark, SleepBot, Sleep as Android)

•  Reproductive health (Clue, Glow, kindara) •  Diet and weight (Fitbit aria scale, my

fitnessPal, smalt) •  Mood (lume personal tracker, moodTracker, •  Altro (23andMe, WorkMeter ecc.)

SECONDO EVGENY MOROZOV QUESTI DISPOSITIVI SONO UN MODO DI INTROIETTARE LA SILICON VALLEY NELLE NOSTRE ABITUDINI

Big Data(secondo Wikipedia may 2016)

•  Big data is a term for data sets that are so large or complex that traditional data processing applications are inadequate. Challenges include analysis, capture, data curation, search, sharing, storage, transfer, visualization, querying, updating and information privacy.

•  The term often refers simply to the use of predictive analytics or certain other advanced methods to extract value from data, and seldom to a particular size of data set.

•  Accuracy in big data may lead to more confident decision making, and better decisions can result in greater operational efficiency, cost reduction and reduced risk. Analysis of data sets can find new correlations to "spot business trends, prevent diseases, combat crime and so on.”

•  Scientists, business executives, practitioners of medicine, advertising and governments alike regularly meet difficulties with large data sets in areas including Internet search, finance and business informatics.

Big Data e retorica •  Volume The quantity of generated and stored data.

The size of the data determines the value and potential insight- and whether it can actually be considered big data or not.

•  Variety The type and nature of the data. This helps people who analyze it to effectively use the resulting insight.

•  Velocity In this context, the speed at which the data is generated and processed to meet the demands and challenges that lie in the path of growth and development.

•  Variability Inconsistency of the data set can hamper processes to handle and manage it.

•  Veracity The quality of captured data can vary greatly, affecting accurate analysis.

Ancora wikipedia big data entry

10/12/16

8

LA SFIDA DELL’EQUITÀ NELL’ANALISI DEI BIG DATA

È possibile controllare l’interpretazione degli algoritmi?

Jenny Holzer, projections

La costruzione delle abitudini

•  Le abitudini non sono virus che si propagano

•  Per quanto difficile sia cambiare abitudini, le abitudini sono acquisite non ‘incorporate’ come gli atti involontari, come respirare

•  È scorretto pensare le abitudini come dipendenze

•  Gli studi sull’omofilia delle abitudini non sono fatti per sostenere la giustizia nell’analisi sociale

Chun 2016, pp. 8-15

Conoscenza e segreto •  Conoscenza è potere. Controllare gli altri

mentre si evita di essere oggetto di controllo è la più importante forma di potere

•  Le aziende cercano i nostri più intimi dettagli di vita come potenziali clienti e dipendenti, ma danno ai regolatori il minimo possibile di informazioni circa le loro statistiche e procedure. Le aziende internet raccolgono sempre più dati sui loro utenti ma lottano contro i regolatori che vorrebbero che gli utenti esercitassero un qualche controllo sui risultanti dossier digitali.

(Pasquale 2015 pp.3-4)

10/12/16

9

Di chi sono questi dati?

•  Secondo Rodotà (2014) seguendo l’idea di Habeas Data i dati sono nostri.

•  Nessuno dovrebbe poter vendere e comprare le nostre email per giunta avendo attaccato a ciascuna di esse una categorizzazione da marketing del tipo “cliente non affidabile”, “elevate spese mediche”, “Guida pericolosa”, “reddito in declino” (Cardon 2016, 73)

trovare o perdere lavoro: a quali condizioni?

•  I questionari attitudinali •  La valutazione dei docenti della scuola in certi stati americani: la misurabilità di certi comportamenti

•  Clopening: ovvero turni secondo gli algoritmi

•  Come è possibile quantificare e misurare ogni elemento umano, senza stravolgerne le caratteristiche?

O’Neil (2016, capp. 6-7)

La categorizzazione e i suoi demoni

•  La categorizzazione è un sistema di potere per governare la realtà presuntamente costituita di fatti oggettivi (Bowker, Leigh Star 2000)

•  Si stabilisce cosa è sano e cosa è malato, chi ha più merito e chi ne ha meno per trovare lavoro, o come valutare la prestazione, quanto vale un premio di assicurazione, chi ha diritto al prestito bancario

Big data e algoritmi di machine learning aggiungono a tutte queste variabili aleatorie dei precisi vincoli sulla datificazione e sulla misurabilità di ogni aspetto da valutare secondo i propri criteri. Quello che non è rappresentabile in forma quantitativa non è analizzabile dalle tecniche di big data, perché esse sono intessute dei programmi di computer che devono analizzare i dati (gli algoritmi di machine learning) Non si dà algoritmo senza base dati organizzata per lui

Società del controllo, gig economy e dividui

•  Nella società del controllo quello che è importante non è più una firma o un numero, ma un codice: il codice è una password.

•  Il linguaggio numerico del controllo è fatto di codice che marca o rigetta l’accesso all’informazione

•  Non abbiamo più a che fare con la coppia massa/individuo. Gli individui sono diventati “dividui” e le masse dati campione, mercati o banche

•  Forse è il denaro che esprime meglio la distinzione tra le due società: nel caso del controllo si riferisce a tassi fluttuanti di cambio che si modulano secondo un insieme di monete standard

(Deleuze 1990)

•  I dividui non sono più dipendenti, ma restano vincolati all’algoritmo che ne determina i movimenti e ne definisce la vita in un sistema di cui nessuno è pienamente in controllo (Deliveroo, Foodora Uber, e le altre app. che ritengono di non avere rapporti di lavoro dipendente)

10/12/16

10

Di chi è la responsabilità degli algoritmi?

•  Chi si chiede come programmare gli algoritmi per garantire equità, conciliazione vita lavoro, non discriminazione di minoranze o delle differenze (fragilità emotiva dei lavoratori)?

•  Chi invece si chiede solo come massimizzare i profitti?

•  Dietro le macchine e i sistemi informativi ci sono progetti industriali e obiettivi precisi

L’essere umano ha bisogno di […] seguirle [le macchine], di proteggerle, e di mettere a punto gli algoritmi come nostri aiutanti digitali, poiché gli algoritmi, nonostante l’apparenza, non sanno aiutare se stessi, ma seguono semplicemente una regola meccanica (Bunz 2014, 112)

Il potere dell’algoritmo

•  È basato sull’uso di probabilità per anticipare le azioni degli individui o le loro preferenze a livello di profilazione che non è in controllo del singolo, ma che è gestito anche in riferimento al singolo

•  Fronteggiamo una normatività che pur sembrando democratica in realtà crea con le sue cieche categorizzazioni un forte impatto sulla rappresentazione della realtà a proposito di schemi che rigurdano la politica, la società il genere, l’origine etnica ecc. Ripristinando esattamente gli stereotipi e le istanze di esclusione eliminate da anni di lotte politiche

Che cos’è l’algoritmo

•  Gli algoritmi non sono necessariamente software

•  Sono procedure codificate per trasformare certi input in entrata in output di uscita, basandosi su specifici calcoli

•  Gli algoritmi vengono molto prima dei computer, un esempio informale è l’algoritmo per il massimo comun divisore che si trova negli elementi di Euclide (circa 323–283 a.c.)

•  Il termine algoritmo prende il nome dal matematico, geografo persiano Al-khwārizmī (780-850 d.c.)

Computer come algoritmi

•  I computer sanno effettuare esclusivamente calcoli che sono eseguiti come procedure codificate di regole da applicare ai dati in input per produrre degli output

•  Possiamo pensare quindi ai programmi di computer come a degli algoritmi

•  Tuttavia un algoritmo può anche essere eseguito a mano (e prima dei computer spesso lo era)

10/12/16

11

Donne calcolatrici sulle tavole da tiro durante la

II guerra mondiale Qual è il problema?

•  Il problema è che gli algoritmi sono sempre più centrali nella presa di decisione in moltissime questioni anche vitali per le persone, come ottenere un lavoro, avere un mutuo, quantificare il premio dell’assicurazione, accedere all’università(per adesso in US) ma noi non abbiamo nessun dettaglio su come agiscano e quale logica seguano nella maggior parte dei casi

•  È importante comprendere in che modo l’introduzione degli algoritmi nelle pratiche della conoscenza può avere delle conseguenze politiche, come ingiustizie, mancanza di equanimità nella presa di decisioni che riguardano l’essere cittadini

Vedi Gillespie 2014

rilevanza politica degli algoritmi (Gillespie 2014,

168) •  Modelli di inclusione: cosa c’è dietro la

costruzione di un indice, cosa è escluso come i dati sono preparati per l’algoritmo

•  Cicli di anticipazione: le implicazioni dei tentativi dei fornitori di algoritmi per comprendere e predire le abitudini degli utenti e come possono incidere

•  La valutazione della rilevanza: in che modo gli algoritmi determinano cosa è rilevante, la loro oscurità e come agiscono sulle scelte politiche

•  La promessa di obiettività algoritmica: e come reagisce di fronte alle controversie

•  L’influenza sulle pratiche: cioè come gli utenti riorganizzano le proprie pratiche per essere efficaci per gli algoritmi da cui dipendono

•  La produzione di pubblici calcolati: come la presentazione algoritmica del pubblico ha effetto sulla autopercezione del pubblico e chi è nella posizione di trarne beneficio

algoritmi e società

•  Gli algoritmi stanno emergendo come strumenti di conoscenza pubblica. É importante contrastare la deriva deterministica che vede nella tecnologia la sola forza in movimento in questo contesto

•  Sarebbe utile invece studiare come questi strumenti sono posti in essere e messi in azione negoziando con uno sforzo collettivo di conoscere e essere conosciuti

Gillespie 2014, 169

10/12/16

12

Dati e algoritmi

•  Gli algoritmi intanto sono messi in relazione con una certa base dati. Prima che il risultato sia fornito i dati devono essere raccolti, organizzati per l’algoritmo

•  Se i dati sono formalizzati, normalizzati, “puliti” questo contrasta con l’idea che gli algoritmi siano degli automatismi

•  Dobbiamo guardare a come l’informazione deve essere orientata per fronteggiarli, come è resa pronta per l’algoritmo

Gillespie 2014, 170-171

L’invisibilità

•  The archive's jussive force, then, operates through being invisibly exclusionary.

•  The invisibility is an important feature here: the archive presents itself as being the set of all possible statements, rather than the law of what can be said

Bowker 2008, 14

I metodi

•  Machine learning, deep learning, algoritmizzazione della conoscenza

•  La prestanza delle macchine su cui girano

•  La segretezza degli strumenti e delle pratiche

•  Il potere degli algoritmisti che sono in controllo dei metodi

Wiener e i sindacati

•  I have been interested for a long time in the problem of automatic machinery and its social consequences

•  I do not wish to contribute in any way to selling labor down the river, and I am quite aware that any labor, which is in competition with slave labor, whether the slaves are human or mechanical, must accept the conditions of work of slave labor Wiener a Walter Reuther (Union of automobile workers)

1949

10/12/16

13

Governamentalità algoritmica

•  Raccolta di una grande quantità di dati e costituzione di datawarehouse

•  Trattamento di dati e produzione di conoscenza

•  Azioni sui comportamenti A. Rouvroy T. Berns 2013 “Governamentalité algorithmique

et perspectives d’émancipation: le disparate comme condition d’individuation par la relation?”, Reseaux,

2013/1 (N. 177)

Livello delle informazioni

•  A che livello funzionano queste informazioni anche individuali raccolte nei big data?

•  Non a livello individuale ma a livello di massa, eppure questi strumenti consentono un sistema di profilazione dettagliato anche per gli individui

THE END OF THEORY: THE DATA DELUGE MAKES THE SCIENTIFIC METHOD OBSOLETE

By Chris Anderson 6/23/2008 http://www.wired.com/print/science/discoveries/magazine/16-07/pb_theory

Possiamo farcela senza modelli

Peter Norvig, Google's research director, offered an update to George Box's maxim: "All models are wrong, and increasingly you can succeed without them."

10/12/16

14

Dimenticare tassonomia, ontologia e psicologia

Out with every theory of human behavior, from linguistics to sociology. Forget taxonomy, ontology, and psychology. Who knows why people do what they do? The point is they do it, and we can track and measure it with unprecedented fidelity. With enough data, the numbers speak for themselves.

Vecchi metodi scientifici

But faced with massive data, this approach to science — hypothesize, model, test — is becoming obsolete.

Ci basta la correlazione tra dati

Correlation is enough." We can stop looking for models. We can analyze the data without hypotheses about what it might show. We can throw the numbers into the biggest computing clusters the world has ever seen and let statistical algorithms find patterns where science cannot.

La misura dei big data

•  Processor or Virtual Storage · 1 Bit = Binary Digit · 8 Bits = 1 Byte · 1024 Bytes = 1 Kilobyte · 1024 Kilobytes = 1 Megabyte · 1024 Megabytes = 1 Gigabyte · 1024 Gigabytes = 1 Terabyte · 1024 Terabytes = 1 Petabyte · 1024 Petabytes = 1 Exabyte · 1024 Exabytes = 1 Zettabyte · 1024 Zettabytes = 1 Yottabyte · 1024 Yottabytes = 1 Brontobyte · 1024 Brontobytes = 1 Geopbyte

•  ·

10/12/16

15

DATI PRODOTTI OGNI GIORNO NELLA RETE DALLE VARIE APPLICAZIONI, SOCIAL NETWORK, APP VARIE, NETFLIX, YOUTUBE ECC https://www.domo.com/blog/2015/08/data-never-sleeps-3-0/ J. JAMES ESTATE 2015

LA CRESCITA DEI DATI DISPONIBILI IN RETE OGNI GIORNO SECONDO LA RETORICA DEI BIG DATA http://www.vcloudnews.com/wp-content/uploads/2015/04/big-data-infographic1.png

QUATTRO FAMIGLIE DI CALCOLO DIGITALE

Cardon D.(2016)Cosa sognano gli algoritmi, Mondadori, Milano

Accanto al web

•  Accanto al web: misurazione dell’audience visitatore unico user-centric (mediamétric/netratings)e site-centric (google Analytics)

•  per aumentare l’audience si usa la tecnica del clickbait (la colonna infame)

10/12/16

16

Al di sopra del web •  Autorevolezza basata sul merito •  La citazione considerata come un segno di apprezzamento

nei confronti della pagina •  Questi strumenti misurano la forza sociale di attrazione

che le pagine ottengono •  I motori di ricerca filtrano le informazioni a

posteriori •  Ma anche Digg, Wikipedia: una legittimazione da parte

della comunità •  Ma perché il segnale funzioni non deve essere

contaminato dalle strategie degli internauti come invece accade spesso nello spam sui motori di ricerca e gli altri algoritmi che misurano l’autorevolezza

•  Critiche: effetti di esclusione e concentrazione dell’autorità, effetto censitario della misurazione

All’interno del web

•  Il calcolo dei like: I sistemi metrici di misurazione della reputazione

•  Nel mondo delle affinità digitali l’apprezzamento si può fabbricare

•  Da poter dare un voto a tutto a tutti possono dare un voto

•  Il rischio è imprigionare l’utente in una bolla

•  È difficile mettere insieme le valutazioni eterogenee

•  Gli algoritmi non sanno se valutare quello che si dichiara di volere da quello che si fa lasciando le proprie tracce

Al di sotto del web: Big Data e tracce

•  Gli algoritmi di machine learning misurano al di sotto del web le preferenze degli utenti in termini delle tracce che lasciano compiendo azioni sul web o che possono essere misurate attraverso la rete (quantified self ecc.)

•  Non si interessano più alle categorie sociodemografiche e trattano anonimamente i dati (per esempio tecnica del retargeting)

•  Si tratta di comportamenti individuali impliciti che vengono analizzati attraverso algoritmi

•  Il problema dei third parties cookies è che quando si da’ il consenso all’utilizzo ai propri dati di un sito non si immagina che questo significa che I comportamenti online vengono monitorati anche quando si naviga in altre pagine

Cardon (2016: 25-30)

Aziende broker di dati

•  Acxiom http://www.acxiom.com/ •  Exelate/Nielsen http://exelate.com/ •  TowerData formerly RapLeaf http://intelligence.towerdata.com/ e il suo listino prezzi per le email http://intelligence.towerdata.com/pricing-append

•  BlueKai comprata da Oracle nel 2014 http://www.oracle.com/us/corporate/acquisitions/bluekai/index.html

10/12/16

17

Facebook e i suoi esperimenti

•  Cameron Marlow capo del Data Science Team: “for the first time we have a microscope that not only lets us examine social behavior at a very fine level that we’ve never been able to see before but allows us to run experiments that millions of users are exposed to”

Lo scopo del data science team

•  To support the well-being of the people who provide Facebook with their data, using it to make the service smarter

•  Marlow and his collegues will advance humanity’s understanding of itself

•  Zuckerberg pensa che “Facebook’s job is to improve how the world communicates”

Quantificare l’audience invisibile

•  Dati di Facebook usati per sostenere che le informazioni postate ricevono molta più attenzione di quanta possano immaginare gli autori che le condividono

•  Emotional contagion experiment •  Filter bubble experiment

Software come relazione di poteri

•  Il passaggio dal software come servizio al software come cosa

•  Il conseguente passaggio dell’informazione inerente a una persona all’informazione come conoscenza comunicata relativa a un fatto, un evento ecc., la possibilità di brevettare il codice genetico per es. (CHUN 2011, p. 6)

•  L’esternalizzazione dell’informazione riguarda il processo della governamentalità: cioè delle relazioni private interpersonali che implicano una qualche forma di controllo o di guida, e infine le relazioni che hanno a che fare con l’esercizio della sovranità

•  Il termine cibernetica evoca il governo della nave

10/12/16

18

Computer come sogno della della programmabilità

•  I computer come macchine governamentali non a livello di contenuto o di progetti governamentali, ma come macchine che rappresentano la governamentalità a livello di architettura e della loro strumentalità

•  Le loro interfacce ci offrono una forma di mappatura, di immagazzinamento dati centrale per la nostra soggettività sovrana

•  Si tratta di ripristinare l’universo deterministico laplaciano

Chun 2011, p.9

L’eterno presente del database universale: Big Data

•  La capacità di prevedere le azioni umane a partire dalla mappa dei comportamenti pregressi non funziona mai come previsto

•  L’utente non segue mai fino in fondo la mappa prevista, ma cerca di abitarla e come tale ricostruisce sempre una nuova possibilità di mappa

•  I database non sono mai infallibili come sembrano

•  Questi database che orientano la capacità di mappare dei computer sulla base delle attività di machine intelligence diventano ‘sporchi’, inaffidabili, quando non cancellano attivamente le informazioni: vengono sommersi dall’informazione vecchia e erronea che fa diluire la mappa che ne consegue (Chun 2011, 93-94).

IL PROBLEMA DEI FALSI POSITIVI

•  L’obiettivo dei big data non è solo il presente ma piuttosto il futuro e la capacità di prevederlo

•  Nella prevenzione di frode e crimine o terrorismo per esempio non sarà ottenere falsi positivi, quanto essere in grado di cogliere tutti i veri positivi.

•  Non ci saranno mai delle mancanze perché la logica del sistema è quella del depistaggio piuttosto che di una vera diagnostica

(Rouvroy, berns 2013, 7)

Rhetoric of BD/1: Computer are better problem solver than humans

•  It’s human nature to focus on the problems […] where human skills and ingenuity are most valuable. And it’s normal human prejudice to undervalue the problems [of] the domain where data-driven intelligence really shines.

•  But […] what problems can computers solve that we can’t? And how, when we put that ability together with human intelligence, can we combine the two to do more than either is capable of alone?

Nielsen, 2011, p. 213

10/12/16

19

Rhetoric of BD/2: data-driven science

•  Science is no more oriented by interpretation, models and theory

•  Science is “data-driven” which - in the BD jargon - means that there is no interpretation and no theory prior to data, because they are just making sense by themselves (Mayer-Schönberger Cukier 2013)

•  But this is just rhetoric because in order to find out the correlation among data series you need to seek for them choosing the right machine learning algorithms, or you risk that the correlations are just random, particularly with high dimensionality

Capitalismo della sorveglianza

•  È basato sulla sorveglianza sostanzialmente unilaterale e sulle modifiche del comportamento umano

•  Si occupa di monetizzare i dati non solo vendendo le cose desiderate ma soprattutto modificando comportamenti o preferenze delle persone relativamente a obiettivi che riguardano tutti I campi dalla politica, al commercio, dalla legalità àlla salute ecc

S. Zuboff 5/3/2016 http://www.faz.net/aktuell/feuilleton/debatten/the-

digital-debate/shoshana-zuboff-secrets-of-surveillance-capitalism-14103616.html

Bibliographic sources/1 •  Berendt B.,Buchler M., Rockwell G. (2015) “Is it research or is it spying?”

Pre-print of paper published in Künstliche Intelligenz 2015. (C) Springer, URL of this pre-print: http://people.cs.kuleuven.be/~bettina.berendt/Papers/berendt_buechler_rockwell

•  dana boyd (1 july 2014), “What does the Facebook experiment teach us?”in the message, URL: https://medium.com/message/what-does-the-facebook-experiment-teach-us-c858c08e287f

•  Drucker J. (2011)” Humanities Approaches to Graphical Display”, digital humanities quartely, vol.5 (1) http://www.digitalhumanities.org/dhq/vol/5/1/000091/000091.html

•  Hacking I (1983) Representing and Intervening, Cambridge University Press, Cambridge

•  Hacking I (1992) “The self-vindication of the laboratory sci- ences” In: Pickering A (ed.) Science as Practice and Culture, University of Chicago Press, Chicago, pp. 29–64.

•  Halevy A., Norvig P., Pereira F., (2009) “The unreasonable effectiveness of data”, IEEE Intelligent systems, March/April 2009, vol.24 n.9 pp.8-12, http://static.googleusercontent.com/external_content/untrusted_dlcp/research.google.com/en//pubs/archive/35179.pdf

•  Keller Fox E. (2010) The mirage of a space between nature and nurture, Duke University Press, Durham & London.

•  Kitchin R. (2014a) “Big Data, new epistemologies and paradigm shifts”, in Big data and society,April-June 2014, 1-12.

•  Kitchin, R. (2014). The Data Revolution. Big Data, Open Data, Data Infrastructures & Their Consequences. London: Sage.

Bibliographic sources/2 •  Kramer A.I. and al. (2014) “Experimental evidence of massive-scale

emotional contagion through social networks”, in PNAS, June 17, 2014, vol. 111, no. 24, 8788–8790, www.pnas.org/cgi/doi/10.1073/pnas.1320040111

•  Lazer D., Kennedy R., King G., Vespignani A. (2014) “The parable of Google Flu: traps in Big data analysis”, in Science, vol. 343, 14 march 2014, pp. 1203- 1205.

•  Leetaru, K. H. (5 September 2011). "Culturomics 2.0: Forecasting Large-Scale Human Behavior Using Global News Media Tone In Time And Space". First Monday 16 (9),URL: http://firstmonday.org/ojs/index.php/fm/article/view/3663/3040#p7

•  Licklider J.C.R. (1965): Libraries of the future, The MIT Press, Cambridge, MA.

•  Mayer-Schönberger V., Cukier K. (2013) Big Data. A revolution that will transform how we live, work and think, Houghton Mifflin Harcourt, Boston.

•  Michel, J.B., Liberman Aiden, E. (14 Jan. 2011). "Quantitative Analysis of Culture Using Millions of Digitized Books". Science 331 (6014): 176–182.

•  Nielsen M. (2012) Reinventing discovery: the new era of networked science, Princeton University Press, Princeton.

10/12/16

20

Bibliographic sources/3 •  Mayer-Schönberger, V. & Cukier, K. (2013). Big Data. A Revolution That Will

Transform How We Live, Schroeder R.(2014) “Big data and the brave new world of social media research”, in Big data and society, July-Dec 2014, 1-11.

•  Porsdam H. (2013) “Digital Humanities: On Finding the Proper Balance between Qualitative and Quantitative Ways of Doing Research in the Humanities”, in Digital humanities quarterly 2013, Volume 7 Number 3http://www.digitalhumanities.org/dhq/vol/7/3/000167/000167.html

•  Raghavan P. (2014) “It’s time to scale the science in the social sciences”, in Big Data and society, Apr-June 2014, pp.1-4.

•  Rouvroy A. Berns T. (2013) Gouvernementalité algorithmique et perspectives d'émancipation : le disparate comme condition d'individuation par la relation? In Politique des algorithmes. Les métriques du web. RESEAUX, Vol.31, n.177, pp. 163-196.

•  Stiegler B. (2015)La société automatique.1 L’avenir du travail, fayard, Paris.

•  Schroeder R. (2014) “Big Data and the brave new world of social and media research” in Big Data and society July-Dec 2014, 1-11, bds.sagepub.com.

•  Taylor Bob oral interview 1989 http://conservancy.umn.edu/bitstream/107666/1/oh154rt.pdf

•  Yarkoni T.(july 2014) In defense of in defense of facebook, in citation needed, URL: http://www.talyarkoni.org/blog/2014/07/01/in-defense-of-in-defense-of-facebook/

•  Van Dijck J. (2014) “Datification, Dataism and dataveillance: big data between scientific paradigm and ideology, in Surveillance and Society, 2014, vol. 12(2), 197-208.

•  Wiener, N. (1950): The Human Use of Human Beings. Houghton Mifflin, Boston.

Altre fonti citate •  Bowker G.C. Leigh Star S.(2000) Sorting things out, Mit Press,

Cambridge, MA. •  Bunz M. (2014) “Algoritmi della conoscenza e trasformazione del

lavoro”, in Pasquinelli M. (2014) (a cura di), Gli algoritmi del capitale, Ombre Corte, Padova.

•  Cardon D. (2016) Cosa sognano gli algoritmi, Mondadori, Milano. •  Chun W. H.K. (2016) Updating to remain the same, MIT Press,

Cambridge, MA. •  Deleuze G. (1990/2015) “Postscritto sulla società del controllo”,

Pourparler, Quodlibet, Macerata, pp.234-241. •  O’Neal C. (2016) Weapons of math destruction, Allen Lane, Penguin

Books, St. Ives. •  Pasquale F. (2015) The black box society, Harvard Univ. Press,

Cambridge, MA. •  Pew and Internet Research center (2016) Privacy and information

sharing http://www.pewinternet.org/2016/01/14/privacy-and-information-sharing/

•  Rodotà S. (2014) Il mondo nella rete, Laterza, Roma. •  Wiener N. letter to Walter Reuther (Union of automobile workers) 13

August 1949 https://libcom.org/history/father-cybernetics-norbert-wieners-letter-uaw-president-walter-reuther