Gennaio 4, 2021
2238 Views
Autore: Matteo Navacci
Traduzione italiana del mio saggio finalista della competizione “My Data Is Mine” organizzata da Euroconsumers. [Originale]
Il termine Big Data è stato utilizzato in ambito accademico fin dai primi anni ’90.
Con Big Data si descrive l’attività di acquisizione, accumulo e analisi in tempo reale di quantità enormi di dati eterogenei tra loro (testo, audio, video, immagini, metadati, e così via).
Il termine fu in origine coniato per enfatizzare questo nuovo fenomeno: la crescita esponenziale dei dati disponibili, soprattutto grazie a Internet.
Questa crescita è la conseguenza diretta della digitalizzazione delle nostre vite. Tutto quello che facciamo, guardiamo, ascoltiamo è digitalizzato. Le nostre relazioni, esperienze, speranze e paure. La nostra vita è la fonte primaria di Big Data.
Come sono generati i Big Data? Principalmente attraverso ricerche web, social network, apps, assistenti vocali, smartphones, sensori fisici, ed ogni tipologia di IoT. Se è un dispositivo connesso, è un dispositivo che produce dati. Anche il tuo frigorifero.
I Big Data sono ovunque, ma non tutti sono in grado di sfruttarne il potenziale.
Le tecnologie necessarie per acquisire e analizzare in tempo reale i Big Data sono costose e richiedono competenze non facilmente reperibili. Nonostante questo, il fenomeno Big Data è uno dei principali motori economici, sociali e politici del 21esimo secolo, avendo abilitato tecnologie innovative come l’intelligenza artificiale.
Nel 2014 il “Working Party 29”, oggi chiamato Comitato Europeo per la protezione dei dati, rilasciò alcune dichiarazioni sull’impatto dei Big Data.
Il Comitato nutriva grandi speranze verso i Big Data, e si aspettava numerosi benefici collettivi e individuali dallo sviluppo di questa nuova tecnologia, pur sapendo che sarebbe stato necessario un approccio innovativo alla protezione dei dati personali.
Il risveglio dal sogno
Sono passati ormai sei anni dalle dichiarazioni del Comitato Europeo. Nel frattempo, nell’Unione Europea è entrato in vigore il Regolamento Generale sulla protezione dei dati (GDPR). Cos’è successo in questi sei anni al sogno dei Big Data?
Diciamo che le cose potevano andare meglio. Alcuni fatti recenti:
- Lo scandalo Cambridge Analytica e le gravi implicazioni nelle elezioni del 2016 statunitensi e nel referendum per la Brexit hanno mostrato a tutto il mondo il lato oscuro dei Big Data e il potere della profilazione psicografica.
- In agosto 2020 molti studenti inglesi hanno subito discriminazioni da un algoritmo adottato dal governo per decidere i voti di maturità, sulla base di dati che poco avevano a che fare con le reali competenze degli studenti.
- Ancora più recentemente, un giudice italiano ha condannato Deliveroo per aver adottato un algoritmo che declassava i rider sulla base delle loro assenze, senza tener conto delle motivazioni.
Insomma, ci siamo tutti svegliati in un mondo dove i Big Data sono usati e abusati da alcuni specifici attori (privati e pubblici) per scopi ben lontani dal sogno di benefici collettivi e individuali per le persone.
Quella che sembrava una vicina realtà, era soltanto un bel sogno.
Nel settore privato, il consolidamento di posizioni dominanti da parte di alcune organizzazioni ha determinato un vero e proprio monopolio sui Big Data.
Google e Facebook condividono tra loro la fetta più grande, lasciando a tutto il resto del mondo soltanto le briciole.
Più del 92% delle ricerche web passano attraverso Google, che elabora più di 40.000 richieste al secondo – più di 34.5 miliardi all’anno. Il resto del mercato è diviso tra Bing, Yahoo, Baidu, YANDEX, e DuckDuckGo.
Facebook e Google da soli controllano più dell’84% delle attività di advertising (pubblicità mirate) al mondo, con esclusione della Cina. Il 98.5% dei ricavi di Facebook derivano dalle pubblicità mirate.
Questo monopolio ha contorto quello che una volta era un sogno collettivo per creare una macchina che sfrutta i dati creati da miliardi di persone ogni giorno per arricchire pochissimi soggetti e plasmare la realtà a loro uso e consumo. Il tutto, all’insaputa della maggior parte delle persone.
La dura realtà
Il fenomeno Big Data ha dato vita a quello che oggi viene chiamato capitalismo di sorveglianza.
Il capitalismo di sorveglianza è un nuovo ordine economico che rivendica le esperienze umane come materiale grezzo per la produzione di previsioni in grado di vendere prodotti e servizi e plasmare i comportamenti umani futuri.
Il concetto è molto semplice: qualsiasi azione o esperienza umana produce dati grezzi. Questi dati possono essere acquisiti ed elaborati in tempo reale per ottenere informazioni utili a prevedere le nostre azioni, pensieri e sentimenti futuri.
Le persone sono sia il materiale grezzo che i consumatori, in questo nuovo processo produttivo che crea prodotti per le persone a partire dai loro stessi dati, in un grottesco ciclo infinito.
Capitalismo di sorveglianza e Big Data sono soltanto concetti. Il vero motore della nuova economia sono gli algoritmi e modelli matematici che si nutrono dei Big Data.
Algoritmi e processi decisionali automatizzati
Cathy O’ Neil, nel suo libro “Weapons of Math Destruction”, descrive un algoritmo come un’opinione integrata in modelli matematici. Quello che noi umani spesso chiamiamo col nome di stereotipo. Questi stereotipi matematici sono spesso celati dietro a “servizi personalizzati” o di “ottimizzazione”.
Ogni ambito umano è ormai pieno di decisioni automatizzate prese da algoritmi che influenzano la realtà di milioni di persone ogni giorno: dalle informazioni disponibili sul web, alla ricerca di lavoro, fino alla politica, educazione, giustizia, e finanza.
Questi processi decisionali automatizzati creano effetti negativi (esternalità negative) sia per la collettività che per gli individui. Le organizzazioni che li adottano, pubbliche o private, non hanno alcun feedback se non quello del profitto. Un algoritmo che aumenta i profitti è un algoritmo che funziona.
Poco importa se nel corso delle sue decisioni automatizzate abbia discriminato ingiustamente milioni di persone nei momenti più critici della loro vita: trovare un lavoro, ottenere un prestito, esercitare il diritto di voto, essere imputati in giudizio, e così via.
Oscurità by design
La maggior parte delle persone non ha assolutamente idea di cosa succede dietro le quinte. Questi sistemi sono così integrati nelle nostre vite, che molto spesso neanche ci si rende conto della loro esistenza. Un’azione semplice, come chiedere all’assistente vocale indicazioni stradali, produce enormi quantità di dati, con conseguenze molto lontane dalla percezione individuale.
Il Regolamento Generale sulla Protezione dei dati, in vigore in UE dal 2016, ha provato a imporre nuove regole di trasparenza e obblighi specifici ai soggetti che trattano dati delle persone, ma con poco successo.
Ci vogliono 32 minuti e un livello di educazione universitaria per leggere e comprendere la privacy policy di Google. Lo stesso impegno richiesto per leggere l’Arte della Guerra di Sun Tzu.
Ad oggi, Google ancora dichiara di non vendere dati personali. È vero, il loro business non è la vendita, ma l’elaborazione di dati personali per ottenere (e vendere) intelligence. I dati personali sono il carbone per le fucine produttive di Google.
Il sovraccarico di informazioni e l’incredibile complessità delle operazioni di elaborazione di dati personali hanno annientato ogni speranza di trasparenza. Le persone non riescono a capire cosa succede la maggior parte del tempo, e neanche se lo chiedono.
Questa mancanza di comprensione è ciò che porta le persone a disinteressarsi della loro privacy.
L’oscurità by design dell’elaborazione di dati e degli algoritmi decisionali automatizzati crea una rilevante asimmetria informativa, che si traduce in asimmetria di potere e fallimento di mercato – una situazione che in termini economici determina un’allocazione non efficiente delle risorse (efficienza Paretiana).
Tra fisico e digitale
Eric Schmidt, CEO di Google dal 2001 al 2011 affermò che Internet sarebbe sparita. Ciò che intendeva davvero, è che Internet sarebbe stata così integrata nelle nostre vite che sarebbe diventata indistinguibile.
I confini tra mondo fisico e mondo digitali stanno già scomparendo, in un turbine di trasformazione digitale in cui tutti siamo connessi e interconnessi tra di noi e con migliaia di oggetti e software. Il nostro modo di vivere è sempre più plasmato da questo nuovo paradigma.
La nostra quotidianità è già largamente influenzata da algoritmi e processi decisionali automatizzati nascosti, che la maggior parte delle volte elaborano i nostri dati e restituiscono informazioni o servizi senza rendere esplicite le logiche di funzionamento o le motivazioni di una certa decisione.
Profilazione e manipolazione
La digitalizzazione della nostra vita ha creato fenomeni algoritmici di manipolazione della realtà e di repressione.
Ognuno di noi è inevitabilmente profilato e inserito all’interno di stereotipi che difficilmente rispecchiano la personalità e vita degli individui. Attraverso quest’opera di profilazione moltissime organizzazioni sono in grado di sfruttare le speranze, ambizioni e paure di ognuno di noi, per venderci prodotti o idee nel momento in cui siamo più suscettibili.
L’industria dell’advertising punta volontariamente a contattare le persone più suscettibili, spesso con problemi personali.
Keywords come “bassa autostima”, “bloccato”, “mamma single con figli”, “gravidanza”, “divorzio recente”, o “lutto recente”, sono usate ogni giorno per inviare messaggi mirati (ads) a categorie di persone facilmente suscettibili ad ogni briciolo di speranza.
La profilazione e l’advertising mirato non sono sfruttati soltanto a fini commerciali, ma anche e soprattutto per la propaganda politica.
Nei documenti riservati di Cambridge Analytica si legge che durante la campagna del 2016 per l’amministrazione Trump, circa 3.5 milioni di afroamericani furono profilati e schedati sotto la voce “dissuasione“. Lo scopo era quello di sfruttare le informazioni disponibili su queste persone per dissuaderle dal votare.
Gli esempi di uso distorto di Big Data e algoritmi di profilazione sono innumerevoli. Ciò che conta è che questi algoritmi spesso sono usati, anche inconsapevolmente, per propagare fake news, e moltiplicare ineguaglianze e discriminazioni sistemiche, senza alcun tipo di supervisione o scrutinio pubblico.
In tutta questa oscurità e manipolazione c’è comunque una luce in fondo al tunnel.
Le organizzazioni per la difesa dei diritti digitali, come Privacy Network, insieme a giornalisti e attivisti, sono sempre più impegnate nel combattere queste ineguaglianze e discriminazioni algoritmiche.
Anche la produzione di film-documentario come “The Great Hack” o “The Social Dilemma” è segno di tempi che stanno cambiando
Basta sognare – riprendiamoci la realtà
Big data, profilazione e processi decisionali automatizzati ci privano della possibilità di riflettere sulle nostre scelte, in assenza delle informazioni necessarie per comprendere una realtà che ci viene presentata in modo automatizzato.
Questo rischia di ostacolare l’autonomia decisionale umana, plasmando in modo subdolo la realtà che viviamo e le nostre scelte, e limitando la nostra libertà di autodeterminazione.
Il mondo è cambiato, così come i rischi per le persone.
Questa nuova realtà ha bisogno di un ripensamento della nozione di privacy.
L’originale “right to be left alone – il diritto ad essere “lasciati in pace” non è più sufficiente a tutelare le persone da Big Data, profilazione e processi decisionali automatizzati.
La privacy, o meglio ancora, la protezione delle persone fisiche in riguardo al trattamento dei loro dati personali, deve diventare un “buffer” tra la società, le organizzazioni, e gli individui: uno spazio sicuro per abilitare la nostra libertà di autodeterminazione e per pensare, comunicare e creare relazioni al riparo da manipolazioni e repressioni.
Privacy, e noi
La privacy è il filtro che ci permette di vivere in un ambiente sociale inquinato e spesso tossico.
La nuova privacy è un bene pubblico, e non più soltanto un diritto individuale, o una merce di scambio per ottenere servizi digitali.
Per arrivare a questo nuovo concetto di privacy serve però uno sforzo pubblico comune, e ampia collaborazione tra tutti gli stakeholder.
Non possiamo aspettarci che le persone da sole possano difendersi dall’inquinamento dell’ambiente sociale – così come non possiamo aspettarci che possano risolvere il problema dell’inquinamento ambientale.
Le organizzazioni per la tutela della privacy, le industrie e associazioni di settore, le pubbliche amministrazioni e le autorità di supervisione dovrebbero lavorare insieme per ottenere il rispetto del bene pubblico e individuale chiamato privacy e i diritti fondamentali delle persone, che devono essere messe nelle condizioni di controllare i loro dati, e la loro vita.
Correttezza, trasparenza, e responsabilizzazione sono le pietre fondanti di un futuro dove i Big Data e processi decisionali automatizzati sono davvero strumenti in grado di beneficiare la collettività e gli individui, e non mezzi di sfruttamento nelle mani di pochi.
Gli algoritmi dovrebbero essere oggetto di scrutinio pubblico e privato, e soggetti a periodiche valutazioni e verifiche sul loro funzionamento. Le autorità pubbliche dovrebbero rendere pubblicamente note le logiche di funzionamento degli algoritmi adottati.
Dovrebbe essere poi migliorata la conoscenza delle persone, e dei giovani in particolare, sul funzionamento di queste tecnologie, e su come queste tecnologie sono in grado di plasmare la realtà e le informazioni che percepiamo ogni giorno.
Infine, così come i legislatori di ogni nazione vietano la produzione e distribuzione di prodotti poco sicuri o tossici, allo stesso modo dovrebbe essere vietata la produzione e distribuzione di servizi e prodotti che pongono rischi concreti alla privacy e ai diritti fondamentali delle persone.
Lo status quo può essere cambiato, ma si può cambiare soltanto insieme, con uno sforzo comune e trasversale.