Il tracciamento dei contatti: questioni etiche (collana di ricerca)
6 Maggio 2022

Maggio 6, 2022
Quando pensiamo ai cambiamenti epocali che la pandemia del COVID-19 ha apportato alle nostre vite, raramente tendiamo a includere nella lista anche il contact-tracing. Vuoi perchĂ© in Italia il dibattito sul tema Ăš stato relativamente ridotto o riservato agli âaddetti ai lavoriâ; vuoi perchĂ© meno radicale rispetto a misure senza dubbio piĂč restrittive delle nostre libertĂ personali, il tracciamento dei contatti sembra esser stato maggiormente tollerato dalla collettivitĂ .
Ă fondamentale fare unâanalisi critica su come questa misura possa far sorgere questioni di natura etica, oltre che questioni di privacy. In particolare, ci si deve interrogare come questo strumento possa essere democratico e inclusivo, adatto ad una societĂ in cui nessuno rimane indietro o Ăš considerato cittadino di serie B.
Alla luce di ciĂČ, e della mancanza di studi in materia nel panorama italiano, Privacy Network ha deciso di condurre una ricerca con lâobiettivo di carpire a tutto tondo i vantaggi e gli svantaggi di questo strumento, cercando di avere un respiro internazionale. La ricerca verrĂ pubblicata in una serie di articoli, a cadenza regolare.
Parte 1: Tracciamento dei contatti, le origini
Parte 2: Il contact-tracing nel XXI secolo: dalla MERS al COVID-19
Parte 3: Lâapproccio europeo e italiano al tracciamento dei contatti
Parte 4: Il tracciamento dei contatti fuori dallâItalia
Autore: Dipartimento Ricerca
Le misure non farmaceutiche come il contact-tracing, la sorveglianza e il social distancing sono solo alcuni dei pochi strumenti efficaci per arginare i virus facilmente trasmissibili, in assenza di un vaccino specifico e di agenti antivirali. Seppure la storia del contact-tracing si possa far risalire fino al Medioevo, la crisi del COVID-19 Ăš stata la prima pandemia in cui la tecnologia Ăš stata sfruttata come strumento di massa per facilitare il contenimento e lâattenuazione del contagio. Lâintroduzione di app di contact-tracing, cosĂŹ come lâadozione di altre tecnologie digitali e di data infrastructures, per garantire la salute pubblica puĂČ essere percepita come una vera e propria rivoluzione digitale.
Tuttavia, il suo impiego presenta nuove sfide oltre che grandi opportunitĂ . Ad esempio, come vedremo, tutti questi strumenti piĂč o meno innovativi si basano sul fatto che le persone possiedano e portino con sĂ© dei dispositivi mobili adatti. Conseguentemente, le persone che non possiedono un dispositivo mobile adeguato non potranno godere degli stessi benefici di chi invece ne possiede uno. Inoltre, le tecnologie data-driven, che si basano sul trattamento dei dati personali, hanno un forte impatto sulla privacy e la protezione dei dati, e altri diritti e libertĂ fondamentali.
Da una parte, le applicazioni mobili sono spesso percepite da molti come una risposta necessaria e complementare al bisogno di monitorare la diffusione del COVID-19. Infatti, questo tipo di tecnologie di contact-tracing consentirebbe di risparmiare ore preziose di lavoro del personale sanitario, rendendo piĂč rapido ed efficiente lâintero processo di tracciamento. Inoltre, secondo alcuni, tali tecnologie ridurrebbero le possibilitĂ di errore umano. Tuttavia, anche se gli strumenti tecnologici sembrano giocare un ruolo importante ed efficace nellâaffrontare la sfida attuale, la prima â essenziale â domanda che dobbiamo porci prima dellâadozione sistematica e acritica delle tecnologie (senza averne valutato la loro efficacia e proporzionalitĂ ) Ăš: queste âappâ sono la soluzione?
Considerando lâassenza di prove della loro efficacia, le promesse valgono i prevedibili rischi sociali e legali? Quando i governi decidono di ricorrere alla tracciamento digitale dei contatti nella loro gestione della pandemia COVID-19, quali sono le garanzie legali e tecniche che devono essere in atto per mitigare i rischi in in gioco?
In generale, infatti, il COVID-19 ha messo in luce ed esacerbato le giĂ presenti discriminazioni sociali in termini di genere, razza, status economico e nazionalitĂ . In tal contesto, le tecnologie data-driven (tra cui si annoverano anche le applicazioni di contact-tracing) non solo riflettono tali discriminazioni, ma spesso le promuovono e le esasperano. A proposito del pericolo di riprodurre giĂ esistenti e generare nuove discriminazioni e gerarchie sociali, Ăš importante anche ricordare come ci sia stata, e ci sia tuttora, poca diversitĂ tra coloro che programmano le tecnologie digitali, e come le figure che ricoprono ruoli professionali di questo tipo spesso appartengano a classi sociali privilegiate.
Considerando che, come notato dalla matematica Cathy OâNeil in âArmi di distruzione matematicaâ, i sistemi basati su dati tendono a riflettere le dinamiche sociali e le relazioni di potere presenti nella societĂ allâinterno della quale questi vengono sviluppati, il rischio che il design di queste tecnologie perpetui equilibri e dinamiche di esclusione, creandone parallelamente di nuove, sembra essere tangibile.
Ma in che modo, nello specifico, queste tecnologie possono riflettere ed esasperare forme di discriminazione?
Digital divide
In primis, lâuso di applicazioni di contact-tracing tende ad escludere gran parte della popolazione andando ad alimentare il cosiddetto digital divide, termine con cui si definisce il divario tra coloro che hanno accesso alle tecnologie data-driven e coloro che non lo hanno.
Gran parte della popolazione mondiale non ha accesso alle infrastrutture e agli strumenti necessari, come smartphone, computer e banda larga, per beneficiare delle tecnologie data-driven nel settore sanitario. Tale divario si aggrava ancor di piĂč se lâinstallazione e lâutilizzo di app di contact-tracing richiede smartphone e/o altri dispositivi di ultima generazione, comportando, in questo modo, unâautomatica esclusione di coloro che non possono o non sono in grado di investire su nuovi strumenti tecnologici. Gli analisti del settore stimano che fino a 2 miliardi di utenti di telefonia mobile nel mondo non possiedono dispositivi configurati per supportare il tracciamento basato sul Bluetooth.
Le disparitĂ di accesso potrebbero minare ulteriormente lâadozione delle app di contact-tracing: solo circa il 52% della popolazione in America Latina usa regolarmente internet mobile; nellâAfrica sub-sahariana, Ăš il 23%. Inoltre, il mero accesso alle infrastrutture non garantisce il corretto utilizzo delle applicazioni di contact-tracing. Infatti, per il loro corretto utilizzo, si deve presupporre che il singolo individuo abbia un bagaglio di competenze digitali sufficiente per poter comprendere al meglio il funzionamento delle app di contact-tracing e farne un uso efficace.
Per questo motivo, secondo diversi studi, spesso chi non ha accesso a queste tecnologie o chi non Ăš in grado effettivamente di sfruttarle sono coloro che sono giĂ fortemente discriminati e/o coloro che piĂč sono a rischio di contrarre il COVID-19. CiĂČ avviene anche nei paesi democratici dove questo tipo di app sembra escludere diversi target. Tra questi, figurano gli anziani, disabili e coloro appartenenti alle classi sociali piĂč basse. Inoltre, per molti gruppi svantaggiati, la ricerca digitale dei contatti non sarebbe solo inefficace, ma anche un pericolo per i loro diritti.
I falsi positivi possono costringere gruppi emarginati a dover far fronte ad ingenti problemi basate su notifiche non corrette. Ad esempio, i lavoratori a basso salario tra cui corrieri rischiano di perdere lo stipendio o il lavoro se si danno in malattia. In alcuni Paesi, come gli Stati Uniti, per gli immigrati senza documenti, visitare lâospedale o un centro di test puĂČ portare alla loro deportazione.
Privacy
La seconda questione rilevante quando si parla di applicazioni di contact-tracing Ăš quella della privacy. Infatti, molte di queste app raccolgono e usano una grande quantitĂ di dati, sia personali sia di geolocalizzazione, per poter identificare potenziali focolai e mettere in quarantena le persone infette. La modalitĂ con cui tali dati vengono gestiti dipende anche dalle norme e dagli obblighi legali che le aziende tech sono tenute a rispettare.
In Unione europea, a far da tutela ai dati personali degli utenti Ăš il Regolamento 2016/679, meglio conosciuto come GDPR. Entrato ufficialmente in vigore nel 2018, il GDPR ha per la prima volta stabilito alcuni principi standard per la protezione dei dati personali individuali. In particolare, ai fini di questa ricerca, se ne elencano i principali:
- consenso: al fine di effettuare unâattivitĂ di trattamento dei dati personali, unâorganizzazione e/o unâazienda deve ottenere il consenso inequivocabile da parte degli utenti. Nel caso in cui gli utenti siano dei minori, Ăš necessario il consenso dei genitori o di chi ne fa le veci legali.
- diritto allâinformazione: per poter dare il proprio consenso inequivocabile, Ăš diritto dellâutente sapere i fini e le modalitĂ del trattamento dei propri dati. Tale diritto, inoltre, implica che tali informazioni debbano essere comunicate in modo chiaro e semplice. Per questo motivo, al fine di ottenere il consenso al trattamento dei dati, unâazienda deve redigere una privacy policy che sia leggibile e comprensibile anche per chi non conosce il gergo legale.
- diritto allâaccesso : gli utenti hanno il diritto di accedere ai propri dati personali e alle informazioni relative alle modalitĂ di trattamento degli stessi. Su richiesta dellâutente, i titolari del trattamento devono fornire informazioni sulle categorie di dati trattati, una copia degli effettivi dati raccolti dellâutente ed una descrizione delle modalitĂ del trattamento. In questo senso, tale diritto Ăš complementare a quello allâinformazione dato che permette una reiterazione di questâultimo.
- diritto alla modifica: gli utenti hanno il diritto di richiedere la modifica dei loro dati personali se sono imprecisi o incompleti. Questo diritto implica anche che la rettifica debba essere comunicata a tutti i soggetti terzi coinvolti nel trattamento dei dati in questione, a meno che ciĂČ non sia impossibile o particolarmente difficile.
- diritto alla cancellazione: nel momento in cui i dati non sono piĂč utili alla fine del trattamento per cui sono stati raccolti o se lâutente decide di disdire il consenso al trattamento dei propri dati, lâutente ha il diritto di chiederne la cancellazione nonchĂ© la cessazione di ogni altra forma di diffusione con enti terzi.
Lâimplementazione di applicazioni di contact-tracing, dunque, si deve conformare ad una corretta applicazione del GDPR. In caso di non conformitĂ al regolamento, lâutente si puĂČ appellarsi allâautoritĂ giudiziaria o al Garante per la protezione dei dati personali. In tal modo, il soggetto Ăš in grado, almeno sul piano legale e teorico, di far valere ed esercitare i propri diritti.
Al contrario, ci sono molti esempi di Stati che hanno introdotto lâobbligatorietĂ dellâuso di questo tipo di strumenti senza che venissero messe in atto una serie di adeguate misure di protezione della privacy degli utenti. Molto spesso, soprattutto nei Paesi non democratici e autoritari, tale assenza di salvaguardie sulla privacy individuale Ăš andata a discapito della sicurezza, dei diritti umani e delle libertĂ democratiche, soprattutto per le minoranze etniche, politiche, religiose e sociali.
In generale, infatti, si puĂČ sostenere che i governi potrebbero utilizzare le applicazioni di contact-tracing anche per istigare conflitti e perpetuare violazioni dei diritti umani di minoranze o oppositori politici dato che questi strumenti possono essere facilmente sfruttati come mezzi di sorveglianza. Gli esempi sono numerosi. In Cina Ăš stata introdotta, come misura obbligatoria per arginare il COVID-19, unâapplicazione per smartphone in grado di tracciare i movimenti dei propri utenti e di imporre loro restrizioni alla propria libertĂ di movimento. Inoltre, sembrerebbe abilitata ad inviare i dati personali dei propri utenti direttamente alla polizia. Per tali motivi, in un paese che giĂ utilizza le tecnologie di riconoscimento facciale per targetizzare e colpire le minoranze etniche, essa risulterebbe particolarmente pericolosa.
In Guatemala, lâapp di contact-tracing approvata e promossa dal governo, Alerta Guate, raccoglie i dati di geolocalizzazione degli utenti, anche quando lâapp non Ăš in funzione. I dati raccolti possono essere conservati fino a dieci anni e il Presidente guatemalteco ha giĂ annunciato la possibilitĂ che lâapp si possa evolvere ed espandere per coprire âquestioni di sicurezzaâ.
In Etiopia, lo Stato ha rilasciato una piattaforma di monitoraggio del COVID-19 dove gli utenti possono segnalare altre persone sospettate di avere sintomi â sulla base di valutazioni soggettive e non scientifiche â dei loro sintomi. CiĂČ risulta particolarmente preoccupante sia perchĂ© responsabilizza eccessivamente il singolo individuo, bypassando il ruolo dellâoperatore sanitario, sia perchĂ© si applica inevitabilmente in un contesto in cui tale strumento puĂČ essere utilizzato contro le minoranze giĂ discriminate. Non Ăš sorprendente, infatti, che si sia assistito a numerose segnalazioni di molestie e discriminazioni contro gli stranieri e contro operatori sanitari.
In altri casi, lâaumento della sorveglianza sanitaria digitale puĂČ esacerbare forme di discriminazione e di disuguaglianza nei confronti di gruppi minoritari come le persone LGBTQ e i migranti. Se da una parte i dati di localizzazione aggregati possono monitorare i flussi di popolazione in tempo reale e identificare potenziali hotspot di trasmissione, essi possono anche danneggiare gli utenti vulnerabili identificando la loro posizione esatta. Questo dato Ăš estremamente preoccupante visto che una recente analisi di 50 applicazioni relative al COVID-19 nello store di Google ha mostrato che solo 16 hanno esplicitamente dichiarato nelle loro politiche lâimpegno a rendere anonimi i dati personali degli utenti, rendendo ancora piĂč vulnerabili a violenze gli emarginati. Per esempio, la ricerca di contatti per un focolaio di COVID-19 in Corea del Sud ha portato ad abusi omofobi mirati alla comunitĂ LGBTQ sudcoreana.
Infine, in alcuni casi, le politiche governative di discriminazione nei confornti di minoranze etniche, politiche e religiose si Ăš riflessa anche nellâimpedimento a tali minoranze di utilizzare app di contact-tracing. In Bangladesh, Paese che ospita il piĂč grande campo profughi del mondo per i rifugiati Rohingya provenienti dal Myanmar, il governo ha imposto un blackout di internet e confiscato le carte SIM dei residenti del campo, apparentemente per motivi di sicurezza. In altri campi, i rifugiati cambiano piĂč volte le schede SIM per far fronte a connessioni Internet instabili, il che ostacolerebbe un corretto uso delle app di tracciamento dei contatti.
Applicazioni etiche della tecnologia
CosĂŹ come altri problemi intrinseci alla natura delle tecnologie, le app di contact-tracing, in generale, presentano dei problemi che sono strettamente collegati al modo in cui le tecnologie sono pensate, sviluppate e modellate. Infatti, ad esempio, nel pensare e sviluppare applicazioni di contact-tracing che si basino esclusivamente su tecnologie Bluetooth si Ăš preso piĂč o meno deliberatamente in considerazione solo la classe dominante e privilegiata, non tenendo in considerazione i bisogni e le necessitĂ di chi non rientra allâinterno di questa categoria. In altri casi, non Ăš la tecnologia in sĂ© a presentare dei âdifettiâ, ma Ăš il contesto sociale, politico ed economico a rendere particolarmente dannosa tale tecnologia per certe fasce della popolazione. CiĂČ, di nuovo, Ăš dovuto al fatto che nel pensare e sviluppare una tale tecnologia si Ăš tenuta in considerazione solo la classe dominante al potere non ragionando su come un determinato strumento possa avere effetti politici e sociali diversi allâinterno della stessa popolazione.
Come Ăš possibile, dunque, ideare delle tecnologie che siano eticamente inclusive e democratiche? In tal merito, si propongono tre approcci differenti, ma complementari lâuno allâaltro: un approccio che mette al centro la logica dei diritti umani; il design thinking; e i principi per lo sviluppo digitale. In particolare, anche per poter mitigare i limiti di ciascuna di queste metodologie, si propone una coordinazione dei seguenti approcci:
- la logica dei diritti umani: secondo questo approccio, ogni misura, strumento o norma che viene ideata ed implementata deve avere un impatto ragionato sui diritti e sulle libertĂ individuali. Pertanto, anche quando degli strumenti tecnologici vengono adottati per il bene comune o per implementare un diritto umano (quale la salute), bisogna tenere in considerazione che il loro effetto sugli altri diritti umani e sulle libertĂ fondamentali deve essere legale, necessario e proporzionato. CiĂČ vuol dire che tali misure devono essere prescritte dalla legge, necessarie per il bene comune e proporzionali, ovvero non devono avere un impatto sproporzionato sugli altri diritti e libertĂ dellâindividuo;
- design thinking: il design thinking Ăš un processo iterativo in cui si cerca di capire lâutente, sfidare le ipotesi e ridefinire i problemi nel tentativo di identificare strategie e soluzioni alternative che potrebbero non essere tratte dalla nostra parziale conoscenza del mondo. In particolare, questo approccio promuove la necessitĂ di mettere al centro del processo di design lâutente per poter centrare e risolvere i suoi problemi e rispondere ai suoi bisogni;
- principi di sviluppo digitale: i principi per lo sviluppo digitale sono nove linee guida, ideate dallâUNICEF e progettate per aiutare a integrare delle best practices nellâuso delle tecnologie. Esse fungono da guida per ogni fase del ciclo di vita del progetto e devono essere considerate in modo proattivo, piuttosto che come rigide regole da seguire.
Grazie alla combinazione di questi metodi â si sostiene â i designers possono tentare di superare la soggettivitĂ dei dati che elaborano e, quindi, rispondere ai loro beneficiari in modo piĂč efficiente ed efficace. Ad esempio, nellâideare e progettare unâapp di contact tracing che sia inclusiva e democratica, il designer si deve porre domande di varia natura, concernenti argomenti quali lâetica, la privacy e la societĂ che ci circonda (se ne possono vedere alcuni esempi nel paragrafo successivo).
Spesso Ăš molto difficile rispondere a tali domande e talvolta le risposte stesse non riescono a tener conto della continua evoluzione della societĂ , ma sicuramente il solo tentativo di porre la persona al centro del processo ideativo Ăš un primo passo verso una societĂ piĂč inclusiva e democratica.
Linee Guida: lâApp di contact-tracing Ăš eticamente giustificabile?
I designer di app di contact tracing dovrebbero rispondere alle seguenti domande.
Principi: Ăš questa la giusta app da sviluppare?
1. Ă necessaria?
âą Si, deve essere sviluppata per salvare vite e per il bene comune (+).
âą No, ci sono soluzioni migliori (â).
2. Ă proporzionata?
âą Si, la gravitĂ della situazione giustifica i potenziali impatti negativi (+).
âą No, il potenziale impatto negativo Ăš sproporzionato rispetto alla situazione (â).
3. Ă sufficientemente efficiente, efficace e accurata?
âą SĂŹ, lâesperienza dimostra che Ăš sufficientemente efficiente, puntuale, che verrĂ usata da sufficienti persone e che produce dati accurati (+).
âą No, non funziona bene, Ăš in ritardo o in anticipo, non verrĂ usata da abbastanza persone, probabilmente collezionerĂ dati che hanno falsi positivi e/o falsi negativi (â).
4. Ă temporanea?
âą SĂŹ, câĂš una data di termine esplicita e ragionevole in cui lâapp cesserĂ di funzionare (+).
âą No, non câĂš una data di termine definita (â).
Requisiti: lâapp sta per essere sviluppata nella giusta maniera?
5. Ă su base volontaria?
âą Si, Ăš lâindividuo a scegliere se scaricarla sul telefono (+).
âą No, Ăš obbligatorio installarla e i detrattori possono essere sanzionati nel caso si rifiutino di farlo (â).
6. Richiede il consenso?
âą SĂŹ, gli utenti possono decidere quali dati personali condividere e quando, e possono cambiarli in qualsiasi momento (+).
âą No, le impostazioni di default costringono a condividere tutto in qualsiasi momento, e non si possono cambiare (â).
7. I dati personali sono tenuti privati e lâanonimato degli utenti Ăš preservato?
âą SĂŹ, i dati sono anonimi e sono salvati solo sul telefono dello user. Coloro che sono entrati a contatto con lo user vengono notificati di essere a rischio contagio, ma non dicono da chi e dove (+).
âą No, i dati sono identificabili (o re-identificabili) data are (re)identifiable a causa del numero alto di dati raccolti e salvati in modo centralizzato. Viene notificato dove si ha avuto il contatto potenzialmente pericoloso (â).
8. Gli user possono cancellare i propri dati?
âą SĂŹ, possono farlo (+).
âą No, non Ăš garantito che i dati vengano eliminati definitivamente (â).
9. Il fine per cui i dati vengono raccolti Ăš definito?
âą SĂŹ, esplicitamente; ad esempio, per avvertire gli utenti di aver incontrato una persona potenzialmente infetta (+).
âą No, i fini della raccolta dati non sono esplicitamente definiti (â).
10. Il fine Ăš limitato?
âą SĂŹ, viene usato per tracciare solo la propagazione del COVID-19 (+).
âą No, puĂČ essere regolarmente aggiornata con funzioni extra che estendono la sua funzionalitĂ (â).
11. Ă utilizzata solo per la prevenzione?
âą SĂŹ, Ăš usata solo per aiutare le persone a limitare volontariamente il contagio (+).
âą No, Ăš anche usata come passaporto per permettere alle persone di avere certi diritti o meno (â).
12. Ă usata per sanzionare?
âą No, non Ăš usata per obbligare un certo comportamento (+).
âą SĂŹ, il non adeguamento a quanto stabilito dallâapp puĂČ risultare in una punizione come una multa o il carcere (â).
13. Ă open source?
âą SĂŹ, il codice Ăš pubblicamente disponibile per analizzarlo, condividerlo e migliorarlo a livello collettivo (+).
âą No, il codice Ăš proprietario e nessun tipo di informazione in merito Ăš pubblica (â).
14. Ă disponibile per tutti?
âą SĂŹ, Ăš gratuita e distribuita a tutti (+).
âą No, Ăš arbitrariamente distribuita solo ad alcuni o ad alcune fasce della popolazione (â).
15. Ă accessibile per tutti?
âą SĂŹ, Ăš user-friendly (anche per chi non Ăš pratico) e funziona su tutti (o quasi tutti) i telefoni cellulari (+).
âą No, funziona solo su alcuni specifici devices e serve una conoscenza digitale sufficientemente elevata (â).
16. CâĂš un processo per decommissionarla?
âą SĂŹ, ci sono le pratiche per renderla inutilizzabile (+).
âą No, non ci sono pratiche (â).
Fonti:
â Amoore, L. e Piotukh, V. (2015), âLife Beyond Big Data: Governing with Little Analyticsâ, Economy and Society 44(3), 341-366. DOI: 10.1080/03085147.2015.1043793.
â Anonimo (2020), âĂ giusto sorvegliare gli spostamenti delle persone contro il coronavirus?â, il Post, 18 marzo. Disponibile su: https://www.ilpost.it/2020/03/18/sorveglianza-coronavirus-privacy/ (Ultimo accesso: 18 novembre 2021).
â Barbican Centre (2019), âJoy Buolamwini: examining racial and gender bias in facial analysis softwareâ, Google Arts & Culture. Disponibile su: https://artsandculture.google.com/exhibit/joy-buolamwini-examining-racial-and-gender-bias-in-facial-analysis-software/LgKCaNKAVWQPJg (Ultimo accesso: 22 febbraio 2022).
â Benjamin, R. (2019), Race After Technology: Abolitionist Tools for the New Jim Code, Cambridge, UK: Polity Press.
â Bowker, G. e Star, S. (1999), Sorting Things Out: Classification and its Consequences, Cambridge, MA.: MIT Press.
â Boyd, d. e Crawford, K. (2012), âCritical Questions for Big Dataâ, Information and Communication Society 15(5), 662-679. DOI: 10.1080/1369118X.2012.678878.
â Broussard, M. (2018), Automated Unintelligence: How Computers Misunderstand the World, Cambridge, MA: MIT Press.
â Brown, D. e Toh, A. (2020), âHow Digital Contact Tracing for COVID-19 Could Worsen Inequalityâ, Human Rights Watch, 4 giugno. Disponibile su: https://www.hrw.org/news/2020/06/04/how-digital-contact-tracing-covid-19-could-worsen-inequality# (Ultimo accesso: 22 febbraio 2022).
â Browne, S. (2015), Dark Matters: On the Surveillance of Blackness, Durham, NC: Duke University Press.- Cheney-Lippold, J. (2011), âA New Algorithmic Identity: Soft Biopolitics and the Modulation of Controlâ, Theory, Culture & Society 28(6), 164-181. DOI: 10.1177/0263276411424420.
â Costanza-Chock, S. (2020), Design Justice. Community-Led Practices to Build the Worlds We Need, Cambridge, MA: MIT Press.
â Davis, S. L. M. (2020), âContact Tracing Apps: Extra Risks for Women and Marginalized Groupsâ, Health and Human Rights Journal, 29 aprile. Disponibile su: https://www.hhrjournal.org/2020/04/contact-tracing-apps-extra-risks-for-women-and-marginalized-groups/ (Ultimo accesso: 22 febbraio 2022).
â Easterday, J. (2020), âTechnology in Conflict: how COVID-19 contact tracing apps can exacerbate violent conflictsâ, LSE Ideas, 12 agosto. Disponibile su: https://lseideas.medium.com/technology-in-conflict-how-covid-19-contact-tracing-apps-can-exacerbate-violent-conflicts-5df0ac0631c2 (Ultimo accesso: 22 febbraio 2022).
â Eubanks, V. (2018). Automating Inequality. How High-Tech Tools Profile, Police, and Punish the Poor, New York, NY: St Martinâs Press.
â Foucault, M. (1971), Lâarcheologia del sapere (traduzione di Giovanni Bogliolo), Milano, IT: Rizzoli.
â Gitelman, L. e Jackson, V. (2013), âIntroductionâ. In: Gitelman, L. (Ed.), âRaw Dataâ is an oxymoron, Cambridge, MA: MIT Press, pp.1-15.
â Harari, Y. N. (2016), Homo deus. Breve storia del futuro (traduzione di Marco Piani), Milano, IT: Bompiani.
â Haraway, D. (1988), âSituated Knowledges: The Science Question in Feminism and the Privilege of Partial Perspectiveâ, Feminist Studies 14(3), 575-599. DOI: 10.2307/3178066
â Hier, S. (2003), âProbing the Surveillant Assemblages: On the Dialectics of Surveillance Practices as Processes of Social Controlâ, Surveillance and Society 1(3), 399-411. DOI: 10.24908/ss.v1i3.3347
â Kitchin, R. (2021), Data Lives: How Data Are Made and Shape Our World. Bristol, UK: Bristol University Press.
â Lo, B. e Sim, I. (2021) âEthical Framework for Assessing Manual and Digital Contact Tracing for COVID-19â, Annals of Internal Medicine 174, 395-400. DOI: 10.7326/M20-5834.
â Mayer-Schönberger, V. e Cukier, K. (2013), Big Data: A Revolution That Will Transform How We Live, Work and Think. London, UK: John Murray.
â Mittelstadt B. D., et al. (2016) âThe ethics of algorithms: Mapping the debateâ, Big Data & Society 3(2), 1-21. DOI: 10.1177/2053951716679679.
â Rouvroy, A. e Poullet, Y. (2009), âThe Right to Informational Self-Determination and the Value of Self- Development: Reassessing the Importance of Privacy and Democracyâ. In: Gutwirth, S, Poullet, Y., De Hert, P., de Terwangne, C. (Eds.), Reinventing Data Protection?, Dordrecht, NL: Springer, pp. 45-76.
â Saetta, B. (2020), âApp di contact tracing: soluzione o problema?â, Valigia Blu, 30 maggio. Disponibile su: https://www.valigiablu.it/app-immuni-contact-tracing-soluzione-problema/ (Ultimo accesso: 18 novembre 2021).
â Sekalala, S., et al. (2020), âAnalyzing the Human Rights Impact of Increased Digital Public Health Surveillance during the COVID-19 Crisisâ, Health and Human Rights 22(2), 7â20. DOI: 10.17615/8e8a-m957.
â Tedford, T. (2019), âApple Card algorithm sparks gender bias allegations against Goldman Sachsâ, The Washington Post, 11 novembre. Disponibile su: https://www.washingtonpost.com/business/2019/11/11/apple-card-algorithm-sparks-gender-bias-allegations-against-goldman-sachs/ (Ultimo accesso: 22 febbraio 2022).
â Van Dijck, J. (2014), âDatafication, dataism, and dataveillance: Big Data between scientific paradigm and secular beliefâ, Surveillance & Society 12(2), 197-208. DOI: 10.24908/ss.v12i2.4776
â Varley-Winter, O. (2020), âThe overlooked governance issues raised by facial recognitionâ, Biometric Technology Today 2020(5), 5-8. DOI: 10.1016/S0969-4765(20)30061-8.
â Weckler, A. (2020), âThe Big Tech Show: Is stopping the spread of Coronavirus worth handing over our Google passwords to see where weâve been?â, Independent.ie, 6 marzo. Disponibile su: https://www.independent.ie/business/technology/the-big-tech-show-is-stopping-the-spread-of-coronavirus-worth-handing-over-our-google-passwords-to-see-where-weve-been-39022193.html (Ultimo accesso: 18 novembre 2021).
â Whittaker, M. et al. (2019) âDisability, Bias, and AIâ, AI NOW Institute. Disponibile su: https://ainowinstitute.org/disabilitybiasai-2019.pdf (Ultimo accesso: 22 febbraio 2022