Informazioni Epistemologia dei nuovi media I lezione... · – Numerico T. (et al.), L’umanista...

19
03/12/17 1 Epistemologia dei nuovi media Corso di scienze della comunicazione a.a. 2017-2018 Teresa Numerico [email protected] Informazioni Docente teresa numerico [email protected] 6 crediti 36 ore (inclusa la valutazione sperimentale per frequentanti) Orario lezioni: lun. H. 12.00-15.00 I sem. Aula 2 Valutazione sperimentale per i/le frequentanti che lo desiderano Il corso sostituisce quello di comunicazione di rete Informazioni II Libri di testo per sostenere l’esame se non si vuole fare l’esame come frequentante Mayer-Schönberger V., Cukier N., Big Data, Garzanti, Milano, 2013. Lovink G. L’abisso dei social media, Egea, Milano, 2016. Numerico T. (et al.), L’umanista digitale, Il Mulino, Bologna, 2011, cap. I e cap. IV filosofia e società Philosophy can teach children what Google can’t (Guardian jan. 2017) https://www.theguardian.com/ commentisfree/2017/jan/09/ philosophy-teach-children- schools-ireland

Transcript of Informazioni Epistemologia dei nuovi media I lezione... · – Numerico T. (et al.), L’umanista...

03/12/17

1

Epistemologia dei nuovi media

Corso di scienze della comunicazione a.a. 2017-2018 Teresa Numerico

[email protected]

Informazioni

•  Docente teresa numerico [email protected]

•  6 crediti •  36 ore (inclusa la valutazione sperimentale per frequentanti)

•  Orario lezioni: lun. H. 12.00-15.00 I sem. Aula 2

•  Valutazione sperimentale per i/le frequentanti che lo desiderano

•  Il corso sostituisce quello di comunicazione di rete

Informazioni II

•  Libri di testo per sostenere l’esame se non si vuole fare l’esame come frequentante – Mayer-Schönberger V., Cukier N., Big Data, Garzanti, Milano, 2013.

– Lovink G. L’abisso dei social media, Egea, Milano, 2016.

– Numerico T. (et al.), L’umanista digitale, Il Mulino, Bologna, 2011, cap. I e cap. IV

filosofia e società

•  Philosophy can teach children what Google can’t (Guardian jan. 2017) https://www.theguardian.com/commentisfree/2017/jan/09/philosophy-teach-children-schools-ireland

03/12/17

2

Di cosa si parlerà nel corso?

•  Questioni epistemologiche, politiche, sociali e etiche relative all’uso dei media digitali nella vita quotidiana e nella costruzione della conoscenza –  Big Data, data mining, machine learning e deep learning

–  Costruzione della conoscenza e organizzazione dell’educazione nel contesto digitale

–  Sorveglianza, controllo e libertà –  Teoria, dati e interpretazione: il ruolo dell’algoritmo

–  Accesso e organizzazione delle informazioni –  Privacy e right to be forgotten –  Copyright –  Interfaccia

Epistemologia

•  È lo studio della conoscenza e della credenza giustificata.

•  Le domande a cui si riferisce sono: –  quali sono le condizioni necessarie e sufficienti per la conoscenza?

–  Quali sono le sue fonti? –  Quali sono i suoi limiti? –  Come dobbiamo comprendere il concetto di giustificazione?

–  Cosa rende giustificate le credenze giustificate?

–  La giustificazione è esterna o interna alla mente?

Più in generale l’epistemologia…

•  L’epistemologia ha a che fare con la creazione e la diffusione della conoscenza in particolari aree di ricerca

•  Secondo il Merriam-Webster dictionary: – the study or a theory of the nature and grounds of knowledge especially with reference to its limits and validity

Medium/mezzo 1.  Qualcosa che sta in mezzo 2.  Un mezzo per condurre o rendere qualcosa

efficace, per es. Una sostanza usaa come mezzo di trasmissione (l’aria è il medium che conduce il suono)

3.  Spesso usato al plurale media: un canale o sistema di comunicazione, informazione o intrattenimento; una publicazione o trasmissione che contiene la pubblicità; un modo di espressione artistica o comunicazione

4.  Qualcosa come un disco magnetico su cui l’informazione può essere conservata: file audio o video disponibili per il playback o lo streaming

5.  Qualcosa che fa da tramite, un intermediario oppure una condizione o un ambiente in cui qualcosa può funzionare o fiorire

03/12/17

3

Dispositivo/apparato/medium

•  Secondo Foucault (1977) un insieme eterogeneo che consiste in discorsi, istituzioni, forme architettoniche decisioni regolative, leggi, misure amministrative, affermazioni scientifiche, proposizioni filosofiche e filantropiche- in breve il detto e il non-detto, questi sono gli elementi dell’apparato

•  L’apparato è il sistema delle relazioni che possono essere stabilite tra questi elementi

Dispositivo/apparato/medium/ 2

•  Il dispositivo cioè è quello che prendiamo per buono e garantito senza metterlo in discussione

•  Determina anche quello che viene considerato possibile e quello che può essere immaginato come realizzabile

Che cos’è l’infrastruttura dell’informazione

•  The term “infrastructure” evokes vast sets of collective equipment necessary to human activities, such as buildings, roads, bridges, rail tracks, channels, ports, and communications networks.

•  Beyond bricks, mortar, pipes or wires, infrastructure also encompasses more abstract entities, such as protocol(human and computer),standards, and memory

•  Superadded to the term “information,” infrastructure refers loosely to digital facilities and services usually associated with the internet: computational services, help desks, and data repositories to name a few. I

Bowker 2010

I nuovi media

•  Cosa sono i nuovi media? È una domanda difficile

•  Fino a quando qualcosa è nuovo? •  I media digitali sono nuovi? •  Da quando esistono? •  Quali cambiamenti comporta la mediazione digitale?

•  Come viene ristrutturata la conoscenza per filtrare attraverso la mediazione digitale?

•  New media secondo wikipedia: https://en.wikipedia.org/wiki/New_media

03/12/17

4

Un tentativo di word cloud per new media

•  Media digitali •  Media interattivi •  Media ipertestuali •  Media sociali •  Media e reti •  Memoria e media •  Media e sorveglianza •  Media e datificazion •  Media e software •  Media e App •  Media e mediazione •  Media e narrazione vs media e database

La presenza online degli adolescenti (13-17 anni)

•  Il 24% degli adolescenti va online costantemente

•  Il 92% va online ogni giorno •  Il 56% dei ragazzi tra i 13 e I 17 anni vanno online più volte al giorno

•  Il 12% una volta al giorno •  Solo il 6% più sporadicamente •  La grande diffusione della presenza online riguarda la disponibilità e la convenienza di telefoni smart

Fonte Pew Research Center (april 2015) Teens, Social Media & Technology Overview 2015

http://www.pewinternet.org/2015/04/09/teens-social-media-technology-2015/

Adolescenti e relazioni amorose: tecnologia come

controllo? •  Durante o dopo una relazione il 31% (26%

durante) sperimenta il controllo online del partner

•  Intorno al 10% degli adolescenti che hanno avuto una relazione hanno avuto accesso a un account del partner, hanno danneggiato il profilo del/della ex online

•  Il 21% riporta che un ex o un partner attuale ha letto i loro messaggi senza permesso

Teens, Technology and Romantic Relationships Pew research center, 1 oct. 2015 http://www.pewinternet.org/2015/10/01/

teens-technology-and-romantic-relationships/

Controllo sul lavoro

•  I datori di lavoro bloccano l’accesso a alcuni siti e hanno regole su cosa si può scrivere e postare online nel 46% dei casi negli US

•  Questo dato è più che duplicato dal 2006

Fonte Pew Research center internet, science and tech, dec.

2014 http://www.pewinternet.org/2014/12/30/technologys-impact-on-workers/

03/12/17

5

Privacy and information sharing

•  Secondo uno studio di Pew Research Center la maggior parte degli americani sono disponibili a condividere informazioni personali in cambio di qualcosa che percepiscono come un valore

•  Secondo gli americani intervistati la possibilità di condividere dati personali dipende dallo scenario e dalla percezione di un ritorno che percepiscono di valore

http://www.pewinternet.org/2016/01/14/privacy-and-information-sharing/

Gli scenari individuati

•  Camere di soveglianza in ufficio –  Accettabile 54%, dipende 21%, inaccettabile 24%

•  Condividere informazioni sulla salute –  Accettabile 52%, dipende 20%, inaccettabile 26%

•  Carte di fedelta nei negozi –  Accettabile 47%, dipende 20%, inaccettabile 32%

•  Assicurazione auto –  Accettabile 37%, dipende 16%, inaccettabile 45%

•  Free social media per una riunione di compagni –  Accettabile 33%, dipende 15%, inaccettabile 51%

•  Termostato smart che monitora spostamenti –  Accettabile 27%, dipende 17%, inaccettabile 55%

Need to be observed

•  The public sphere is saturated with the exposure of private life

•  It is virtually impossible to distinguish the rationalization and commodification of selfhood from the capacity of the self to shape and help itself and to engage in deliberation and communication

•  The prevalence and persistence of this narrative,[…] a narrative of recognition

•  It becomes harder to distinguish between our professional and private self. In the competitive networking context of work

Illouz 2007 cited in Lovink 2011, 42

Desire to be observed

•  The erosion of anonymity is a product of pervasive social media services […] and perhaps most important of all, a change in people’s views about what ought to be public and what ought to be private

•  All those technical gadget are […] user-friendly though […] it means a product that is incomplete without the user’s labour, along the line of IKEA furniture. And […] without user’s enthusiastic devotion and deafening applause

Bauman, Lyon 2013, p.22

03/12/17

6

From the old panopticon to the dream of being noticed

•  The old panoptical stratagem is being gradually yet consistently […] brought to well-nigh universal implementation.

•  With the old panoptical nightmare (I am never of my own) now recast into the hope of ‘never again being alone” (abandoned, ignored and neglected, […]),the fear of disclosure has been stifled by the joy of being noticed

Baumann, Lyon 2013, p. 23

DESCRIZIONE E BIG DATA Cosa sappiamo e non sappiamo sui dati

Big Data(Wikipedia oct 2017) •  Big data is a term for data sets that are so large or complex

that traditional data processing application software is inadequate to deal with them. Big data challenges include capturing data, data storage, data analysis, search, sharing, transfer, visualization, querying, updating and information privacy.

•  Lately, the term "big data" tends to refer to the use of predictive analytics, user behavior analytics, or certain other advanced data analytics methods that extract value from data, and seldom to a particular size of data set. "There is little doubt that the quantities of data now available are indeed large, but that’s not the most relevant characteristic of this new data ecosystem."[2]

•  Analysis of data sets can find new correlations to "spot business trends, prevent diseases, combat crime and so on."[3]

•  Scientists, business executives, practitioners of medicine, advertising and governments alike regularly meet difficulties with large data-sets in areas including Internet search, fintech, urban informatics, and business informatics. Scientists encounter limitations in e-Science work, including meteorology, genomics,[4] connectomics, complex physics simulations, biology and environmental research.[5]

Big Data e retorica •  Volume The quantity of generated and stored data.

The size of the data determines the value and potential insight- and whether it can actually be considered big data or not.

•  Variety The type and nature of the data. This helps people who analyze it to effectively use the resulting insight.

•  Velocity In this context, the speed at which the data is generated and processed to meet the demands and challenges that lie in the path of growth and development.

•  Variability Inconsistency of the data set can hamper processes to handle and manage it.

•  Veracity The quality of captured data can vary greatly, affecting accurate analysis.

Ancora wikipedia big data entry

03/12/17

7

Def. NSF & NIH

•  L’espressione “big data” in esame fa riferimento ad ampi, diversi, complessi, longitudinali e/o distribuiti set di dati generati da strumenti, sensori, transazioni Internet, Email, video, numero di click e/o altre fonti digitali disponibili oggi e nel futuro

NSF-12-499 citato in Floridi 2017

Big Data

•  Big data e riorganizzazione di epistemologia, mercato, società

•  Segnalo questo piccolo documentario di Evgeny Morozov pubblicato da Al Jazeera, dal titolo rebel geeks – give us back our data https://www.youtube.com/watch?v=jAL1lVvJxew

Cosa sta succedendo?

•  La digitalizzazione consente con grande facilità la cosiddetta datificazione, che non è esclusivamente il frutto del digitale, ma il digitale offre un acceleratore a questo processo

•  La costruzione dei dati non riguarda solo fenomeni scientifici riguarda la nostra stessa vita

•  Siamo noi che accettando di usare i telefoni cellulari e le loro smart app datifichiamo la nostra vita

La decadenza del web e le sue conseguenze

•  The Web Is Dead. Long Live the Internet By Chris Anderson and Michael Wolff, Wired, sept. 2010 http://www.wired.com/magazine/2010/08/ff_webrip/all/1

03/12/17

8

Quantified self e selftracking

•  Activity monitor (Apple Watch, Fitbit tracker Jawbone)

•  Sleep specific monitors (Pillow - Smart Sleep Cycle Alarm Clock Drowzy, Lark, SleepBot, Sleep as Android)

•  Reproductive health (Clue, Glow, kindara) •  Diet and weight (Fitbit aria scale, my

fitnessPal, smalt) •  Mood (lume personal tracker, moodTracker, •  Altro (23andMe, WorkMeter ecc.)

SECONDO EVGENY MOROZOV QUESTI DISPOSITIVI SONO UN MODO DI INTROIETTARE LA SILICON VALLEY NELLE NOSTRE ABITUDINI

Dati grezzi e verità

•  This shared sense of starting with data often leads to an unnoticed assumption that data are transparent, that information is self-evident, the fundamental stuff of truth itself

Lisa Gitelman and Virginia Jackson 2013 raw data is an oxymoron, p. 2

La purezza dei dati

•  Come se questi dati discendessero direttamente dai fatti e avessero un rapporto diretto, incontaminato con la ‘realtà’

•  La politica dei big data segnala e suggerisce che non c’è niente da decidere e che tutto discende direttamente dal funzionamento dei meccanismi di costruzione delle correlazioni (algoritmi) di cui pochi conoscono la logica e nessuno sa perché le correlazioni trovate dovrebbero avere senso

The end of theory: the data deluge makes the

scientific method obsolete

By Chris Anderson 6/23/2008

http://www.wired.com/print/science/discoveries/magazine/

16-07/pb_theory

03/12/17

9

Possiamo farcela senza modelli

Peter Norvig, Google's research director, offered an update to George Box's maxim: "All models are wrong, and increasingly you can succeed without them."

Dimenticare tassonomia, ontologia e psicologia

Out with every theory of human behavior, from linguistics to sociology. Forget taxonomy, ontology, and psychology. Who knows why people do what they do? The point is they do it, and we can track and measure it with unprecedented fidelity. With enough data, the numbers speak for themselves.

Vecchi metodi scientifici

But faced with massive data, this approach to science — hypothesize, model, test — is becoming obsolete.

Ci basta la correlazione tra dati

Correlation is enough." We can stop looking for models. We can analyze the data without hypotheses about what it might show. We can throw the numbers into the biggest computing clusters the world has ever seen and let statistical algorithms find patterns where science cannot.

03/12/17

10

La misura dei big data

•  Processor or Virtual Storage · 1 Bit = Binary Digit · 8 Bits = 1 Byte · 1024 Bytes = 1 Kilobyte · 1024 Kilobytes = 1 Megabyte · 1024 Megabytes = 1 Gigabyte · 1024 Gigabytes = 1 Terabyte · 1024 Terabytes = 1 Petabyte · 1024 Petabytes = 1 Exabyte · 1024 Exabytes = 1 Zettabyte · 1024 Zettabytes = 1 Yottabyte · 1024 Yottabytes = 1 Brontobyte · 1024 Brontobytes = 1 Geopbyte

•  ·

DATI PRODOTTI OGNI GIORNO NELLA RETE DALLE VARIE APPLICAZIONI, SOCIAL NETWORK, APP VARIE, NETFLIX, YOUTUBE ECC https://www.domo.com/blog/2015/08/data-never-sleeps-3-0/ J. JAMES ESTATE 2015

LA CRESCITA DEI DATI DISPONIBILI IN RETE OGNI GIORNO SECONDO LA RETORICA DEI BIG DATA http://www.vcloudnews.com/wp-content/uploads/2015/04/big-data-infographic1.png

I DATI E LA LORO POLITICA

Il potere del software

03/12/17

11

Il potere dell’algoritmo

•  È basato sull’uso di probabilità per anticipare le azioni degli individui o le loro preferenze a livello di profilazione che non è in controllo del singolo, ma che è gestito anche in riferimento al singolo

•  Fronteggiamo una normatività che pur sembrando democratica in realtà crea con le sue cieche categorizzazioni un forte impatto sulla rappresentazione della realtà a proposito di schemi che rigurdano la politica, la società il genere, l’origine etnica ecc. Ripristinando esattamente gli stereotipi e le istanze di esclusione eliminate da anni di lotte politiche

Che cos’è l’algoritmo

•  Gli algoritmi non sono necessariamente software

•  Sono procedure codificate per trasformare certi input in entrata in output di uscita, basandosi su specifici calcoli

•  Gli algoritmi vengono molto prima dei computer, un esempio informale è l’algoritmo per il massimo comun divisore che si trova negli elementi di Euclide (circa 323–283 a.c.)

•  Il termine algoritmo prende il nome dal matematico, geografo persiano Al-khwārizmī (780-850 d.c.)

Computer come algoritmi

•  I computer sanno effettuare esclusivamente calcoli che sono eseguiti come procedure codificate di regole da applicare ai dati in input per produrre degli output

•  Possiamo pensare quindi ai programmi di computer come a degli algoritmi

•  Tuttavia un algoritmo può anche essere eseguito a mano (e prima dei computer spesso lo era)

Donne calcolatrici sulle tavole da tiro durante la

II guerra mondiale

03/12/17

12

Qual è il problema? •  Il problema è che gli algoritmi sono sempre più

centrali nella presa di decisione in moltissime questioni anche vitali per le persone, come ottenere un lavoro, avere un mutuo, quantificare il premio dell’assicurazione, accedere all’università(per adesso in US) ma noi non abbiamo nessun dettaglio su come agiscano e quale logica seguano nella maggior parte dei casi

•  È importante comprendere in che modo l’introduzione degli algoritmi nelle pratiche della conoscenza può avere delle conseguenze politiche, come ingiustizie, mancanza di equanimità nella presa di decisioni che riguardano l’essere cittadini

Vedi Gillespie 2014

rilevanza politica degli algoritmi (Gillespie 2014,

168) •  Modelli di inclusione: cosa c’è dietro la

costruzione di un indice, cosa è escluso come i dati sono preparati per l’algoritmo

•  Cicli di anticipazione: le implicazioni dei tentativi dei fornitori di algoritmi per comprendere e predire le abitudini degli utenti e come possono incidere

•  La valutazione della rilevanza: in che modo gli algoritmi determinano cosa è rilevante, la loro oscurità e come agiscono sulle scelte politiche

•  La promessa di obiettività algoritmica: e come reagisce di fronte alle controversie

•  L’influenza sulle pratiche: cioè come gli utenti riorganizzano le proprie pratiche per essere efficaci per gli algoritmi da cui dipendono

•  La produzione di pubblici calcolati: come la presentazione algoritmica del pubblico ha effetto sulla autopercezione del pubblico e chi è nella posizione di trarne beneficio

Dati e algoritmi

•  Gli algoritmi intanto sono messi in relazione con una certa base dati. Prima che il risultato sia fornito i dati devono essere raccolti, organizzati per l’algoritmo

•  Se i dati sono formalizzati, normalizzati, “puliti” questo contrasta con l’idea che gli algoritmi siano degli automatismi

•  Dobbiamo guardare a come l’informazione deve essere orientata per fronteggiarli, come è resa pronta per l’algoritmo

Gillespie 2014, 170-171

L’invisibilità

•  The archive's jussive force, then, operates through being invisibly exclusionary.

•  The invisibility is an important feature here: the archive presents itself as being the set of all possible statements, rather than the law of what can be said

Bowker 2008, 14

03/12/17

13

LA SFIDA DELL’EQUITÀ NELL’ANALISI DEI BIG DATA

È possibile controllare l’interpretazione degli algoritmi?

I problemi epistemologici di alcuni metodi sui big data •  La costruzione dei dati relativi all’oggetto

di studio •  Le tecniche algoritmiche usate per creare

modelli interpretativi •  La tendenza a concentrarsi sulla definizione

di archivi senza le dovute cautele sulle motivazione e l’esterno dell’archiviazione

•  I meccanismi di categorizzazione che tendono a privilegiare la valutazione delle variabili datificabili e quantificabili a discapito delle altre caratteristiche

•  La mancanza di una discussione approfondita sulle infrastrutture nascoste che impongono i loro criteri interpretativi

trovare o perdere lavoro: a quali condizioni?

•  I questionari attitudinali •  La valutazione dei docenti della scuola in certi stati americani: la misurabilità di certi comportamenti

•  Clopening: ovvero turni secondo gli algoritmi

•  Come è possibile quantificare e misurare ogni elemento umano, senza stravolgerne le caratteristiche?

O’Neil (2016, capp. 6-7)

Frenologia e big data

•  La frenologia era un modello che si basava su una stupidaggine pseudoscientifica allo scopo di formulare asserzioni autorevoli e per decenni nessuno l’ha verificata. I Big Data possono cadere nella stessa trappola.

•  I modelli[…]possono sbarrare la strada a determinate persone, anche se la “scienza” sulla quale si basano non è niente di più che un’accozzaglia di ipotesi non verificate.

O’Neil 2017, 178-179

03/12/17

14

Macchine e umani rispetto ai dati

•  [I dati] hanno urgente bisogno del contesto, del buon senso e dell’equità che solo l’uomo è in grado di fornire. Ma se lasciamo la questione in mano al mercato, che premia l’efficienza, la crescita e il cash flow (tollerando nel contempo un determinato livello di errore), qualsiasi intromissione da parte dell’uomo sarà scoraggiata e gli operatori riceveranno istruzioni di tenersi alla larga dalle macchine (O’Neil 2017,227)

•  Ma il processo decisionale umano, benché spesso viziato, ha una grande virtù, e cioè di potersi evolvere. […]I sistemi automatici, invece, rimangono fermi nel tempo fino a quando gli ingegneri non decidono di modificarli (O’Neil 2017, 294)

Di chi è la responsabilità degli algoritmi?

•  Chi si chiede come programmare gli algoritmi per garantire equità, conciliazione vita lavoro, non discriminazione di minoranze o delle differenze (fragilità emotiva dei lavoratori)?

•  Chi invece si chiede solo come massimizzare i profitti?

•  Dietro le macchine e i sistemi informativi ci sono progetti industriali e obiettivi precisi

L’essere umano ha bisogno di […] seguirle [le macchine], di proteggerle, e di mettere a punto gli algoritmi come nostri aiutanti digitali, poiché gli algoritmi, nonostante l’apparenza, non sanno aiutare se stessi, ma seguono semplicemente una regola meccanica (Bunz 2014, 112)

Jenny Holzer, projections

La costruzione delle abitudini

•  Le abitudini non sono virus che si propagano

•  Per quanto difficile sia cambiare abitudini, le abitudini sono acquisite non ‘incorporate’ come gli atti involontari, come respirare

•  È scorretto pensare le abitudini come dipendenze

•  Gli studi sull’omofilia delle abitudini non sono fatti per sostenere la giustizia nell’analisi sociale

Chun 2016, pp. 8-15

03/12/17

15

Conoscenza e segreto •  Conoscenza è potere. Controllare gli altri

mentre si evita di essere oggetto di controllo è la più importante forma di potere

•  Le aziende cercano i nostri più intimi dettagli di vita come potenziali clienti e dipendenti, ma danno ai regolatori il minimo possibile di informazioni circa le loro statistiche e procedure. Le aziende internet raccolgono sempre più dati sui loro utenti ma lottano contro i regolatori che vorrebbero che gli utenti esercitassero un qualche controllo sui risultanti dossier digitali.

(Pasquale 2015 pp.3-4)

Gouvernamentalité algorithmique

•  un certain type de rationalite (a)normative ou (a)politique reposant sur la récolte, l’agrégation, et l’analyse automatisée de données en quantité massive de manière à modéliser, anticiper et affecter par avance les comportements possibles.

Rouvroy Berns 2013, 6-7

Le sujet de la gouvernementalité algorithmique •  Le sujet de la gouvernementalité algorithmique est, de plus en plus, saisi par le « pouvoir » non pas à travers son corps physique, ni à travers sa conscience morale - prises traditionnelles du pouvoir dans sa forme juridico-discursive - mais à travers les multiples « profils » qui lui sont assignés, souvent de manière automatique sur la base des traces numérisées de son existence et de ses trajectoires quotidiennes

Rouvroy, Berns 2013, 8

Computational inequality

•  The consequence of this is the inevitable emergence of a computational inequality in that the streams of the rich and powerful will flow faster and deeper, and therefore the more data they will have to think with. The dominant classes ‘now’ will be more complete, clearer and accurate as their computational systems algorithmically sort their streams automatically. The wider the knowledge that can be bought, the better the access and the computational analysis. This is not a computational divide between the computational haves and the computational have-nots, but the reduction of all knowledge to the result of an algorithm

Berry 2014, 176

03/12/17

16

Who are the new gatekeepers?

•  This implies that the new gatekeepers to the centres of knowledge in the information age are given by technologies, cognitive and data-processing algorithms, data visualization tools and high-tech companies. Indeed, thinking itself can be outsourced through cognitive technical devices which will supply the means to understand and process the raw information given by a new politics of access. Provided you have the money to access, and not just access, as we increasingly rely on computational devices to process raw data and information and to mediate others to do physical labour for us, such as with Amazon Mechanical Turk, TaskRabbit or Fancy Hands. Computation thus generates a new proletariat of ‘cloud workers’, who receive ‘no paid holidays, no sick days and no health benefits in this new distributed workforce’ (Leonard 2013).

Berry 2014, 181

How much computation can democracy stand?

•  The discussion of political imaginaries that mirror the development of black-boxed computer systems and obfuscation is, in this reading, a worrying development, such as government as a platform, massive comprehensive data collection by government agencies such as the NSA, open access and transparency as ideology, and engineering concepts transferred unproblematically into the political sphere. Additionally, the problem of cognitive capture by corporations through notions of augmented humanity and the computational intervention in pre-consciousness requires urgent critical attention. The important question becomes: how much computation can democracy stand, and what should be the response to it?

Berry 2014,193

Di chi sono questi dati?

•  Secondo Rodotà (2014) seguendo l’idea di Habeas Data i dati sono nostri.

•  Nessuno dovrebbe poter vendere e comprare le nostre email per giunta avendo attaccato a ciascuna di esse una categorizzazione da marketing del tipo “cliente non affidabile”, “elevate spese mediche”, “Guida pericolosa”, “reddito in declino” (Cardon 2016, 73)

No need for meaning

•  Ce gouvernement automatique n’a plus besoin ni de disparation, ni d’individus, ni de signification

Stiegler 2015a, p. 234

03/12/17

17

The negative results •  It is exactly the size of data that allows our

results: the more data, the more arbitrary, meaningless, and useless (for future actions) correlations will be found in them.

•  The more information we have, the more difficult is to extract meaning from it

•  The aim of the paper is to document the danger of allowing the search of correlations in big data to subsume and replace the scientific approach (p. 6)

•  The overwhelming majority of correlations are spurious.[…]There will be regularities, but, by construction, most of the time, these regularities cannot be used to reliably predict and act (p. 15)

Calude, Longo 2016, 6, 15

La categorizzazione e i suoi demoni

•  La categorizzazione è un sistema di potere per governare la realtà presuntamente costituita di fatti oggettivi (Bowker, Leigh Star 2000)

•  Si stabilisce cosa è sano e cosa è malato, chi ha più merito e chi ne ha meno per trovare lavoro, o come valutare la prestazione, quanto vale un premio di assicurazione, chi ha diritto al prestito bancario

Big data e algoritmi di machine learning aggiungono a tutte queste variabili aleatorie dei precisi vincoli sulla datificazione e sulla misurabilità di ogni aspetto da valutare secondo i propri criteri. Quello che non è rappresentabile in forma quantitativa non è analizzabile dalle tecniche di big data, perché esse sono intessute dei programmi di computer che devono analizzare i dati (gli algoritmi di machine learning) Non si dà algoritmo senza base dati organizzata per lui

Società del controllo, gig economy e dividui

•  Nella società del controllo quello che è importante non è più una firma o un numero, ma un codice: il codice è una password.

•  Il linguaggio numerico del controllo è fatto di codice che marca o rigetta l’accesso all’informazione

•  Non abbiamo più a che fare con la coppia massa/individuo. Gli individui sono diventati “dividui” e le masse dati campione, mercati o banche

•  Forse è il denaro che esprime meglio la distinzione tra le due società: nel caso del controllo si riferisce a tassi fluttuanti di cambio che si modulano secondo un insieme di monete standard

(Deleuze 1990)

•  I dividui non sono più dipendenti, ma restano vincolati all’algoritmo che ne determina i movimenti e ne definisce la vita in un sistema di cui nessuno è pienamente in controllo (Deliveroo, Foodora Uber, e le altre app. che ritengono di non avere rapporti di lavoro dipendente)

Governamentalità algoritmica

•  Raccolta di una grande quantità di dati e costituzione di datawarehouse

•  Trattamento di dati e produzione di conoscenza

•  Azioni sui comportamenti A. Rouvroy T. Berns 2013 “Governamentalité algorithmique

et perspectives d’émancipation: le disparate comme condition d’individuation par la relation?”, Reseaux,

2013/1 (N. 177)

03/12/17

18

Livello delle informazioni

•  A che livello funzionano queste informazioni anche individuali raccolte nei big data?

•  Non a livello individuale ma a livello di massa, eppure questi strumenti consentono un sistema di profilazione dettagliato anche per gli individui

algoritmi e società

•  Gli algoritmi stanno emergendo come strumenti di conoscenza pubblica. É importante contrastare la deriva deterministica che vede nella tecnologia la sola forza in movimento in questo contesto

•  Sarebbe utile invece studiare come questi strumenti sono posti in essere e messi in azione negoziando con uno sforzo collettivo di conoscere e essere conosciuti

Gillespie 2014, 169

IL PROBLEMA DEI FALSI POSITIVI

•  L’obiettivo dei big data non è solo il presente ma piuttosto il futuro e la capacità di prevederlo

•  Nella prevenzione di frode e crimine o terrorismo per esempio non sarà ottenere falsi positivi, quanto essere in grado di cogliere tutti i veri positivi.

•  Non ci saranno mai delle mancanze perché la logica del sistema è quella del depistaggio piuttosto che di una vera diagnostica

(Rouvroy, berns 2013, 7)

Che fare? •  Educare gli adolescenti alla consapevolezza

che quello che si fa online è pubblico anche se sembra avvenire in privato

•  Costruire una consapevolezza sui sistemi di categorizzazione e sul loro funzionamento ad excludendum

•  Secondo Chun costruire una nuova appartenenza alla rete che consenta il diritto all’oblio non attraverso la protezione legale, ma per la consapevolezza della nostra fragilità

•  Rivendicare il diritto a non considerare un’abitudine come una dipendenza

•  Lavorare per una regolamentazione degli strumenti di profilazione, impedendo di usarli senza controlli e soprattutto impedendo la segretezza dei metodi quando le loro conseguenze hanno effetto sulla cittadinanza e sulla democrazia

03/12/17

19

Capitalismo della sorveglianza

•  È basato sulla sorveglianza sostanzialmente unilaterale e sulle modifiche del comportamento umano

•  Si occupa di monetizzare i dati non solo vendendo le cose desiderate ma soprattutto modificando comportamenti o preferenze delle persone relativamente a obiettivi che riguardano tutti I campi dalla politica, al commercio, dalla legalità àlla salute ecc

S. Zuboff 5/3/2016 http://www.faz.net/aktuell/feuilleton/debatten/the-

digital-debate/shoshana-zuboff-secrets-of-surveillance-capitalism-14103616.html

Fonti citate •  Bowker G.C. Leigh Star S.(2000) Sorting things out, Mit Press,

Cambridge, MA. •  Bunz M. (2014) “Algoritmi della conoscenza e trasformazione del

lavoro”, in Pasquinelli M. (2014) (a cura di), Gli algoritmi del capitale, Ombre Corte, Padova.

•  Cardon D. (2016) Cosa sognano gli algoritmi, Mondadori, Milano. •  Chun W. H.K. (2016) Updating to remain the same, MIT Press,

Cambridge, MA. •  Deleuze G. (1990/2015) “Postscritto sulla società del controllo”,

Pourparler, Quodlibet, Macerata, pp.234-241. •  O’Neal C. (2016) Weapons of math destruction, Allen Lane, Penguin

Books, St. Ives. •  Pasquale F. (2015) The black box society, Harvard Univ. Press,

Cambridge, MA. •  Pew and Internet Research center (2016) Privacy and information

sharing http://www.pewinternet.org/2016/01/14/privacy-and-information-sharing/

•  Rodotà S. (2014) Il mondo nella rete, Laterza, Roma. •  Wiener N. letter to Walter Reuther (Union of automobile workers) 13

August 1949 https://libcom.org/history/father-cybernetics-norbert-wieners-letter-uaw-president-walter-reuther