Il tracciamento dei contatti: questioni etiche (collana di ricerca)

6 Maggio 2022

Maggio 6, 2022

Quando pensiamo ai cambiamenti epocali che la pandemia del COVID-19 ha apportato alle nostre vite, raramente tendiamo a includere nella lista anche il contact-tracing. Vuoi perchĂ© in Italia il dibattito sul tema Ăš stato relativamente ridotto o riservato agli “addetti ai lavori”; vuoi perchĂ© meno radicale rispetto a misure senza dubbio piĂč restrittive delle nostre libertĂ  personali, il tracciamento dei contatti sembra esser stato maggiormente tollerato dalla collettivitĂ .

È fondamentale fare un’analisi critica su come questa misura possa far sorgere questioni di natura etica, oltre che questioni di privacy. In particolare, ci si deve interrogare come questo strumento possa essere democratico e inclusivo, adatto ad una società in cui nessuno rimane indietro o ù considerato cittadino di serie B.

Alla luce di ciĂČ, e della mancanza di studi in materia nel panorama italiano, Privacy Network ha deciso di condurre una ricerca con l’obiettivo di carpire a tutto tondo i vantaggi e gli svantaggi di questo strumento, cercando di avere un respiro internazionale.  La ricerca verrĂ  pubblicata in una serie di articoli, a cadenza regolare.

Parte 1: Tracciamento dei contatti, le origini

Parte 2: Il contact-tracing nel XXI secolo: dalla MERS al COVID-19

Parte 3: L’approccio europeo e italiano al tracciamento dei contatti

Parte 4: Il tracciamento dei contatti fuori dall’Italia

Autore: Dipartimento Ricerca

Le misure non farmaceutiche come il contact-tracing, la sorveglianza e il social distancing sono solo alcuni dei pochi strumenti efficaci per arginare i virus facilmente trasmissibili, in assenza di un vaccino specifico e di agenti antivirali. Seppure la storia del contact-tracing si possa far risalire fino al Medioevo, la crisi del COVID-19 Ăš stata la prima pandemia in cui la tecnologia Ăš stata sfruttata come strumento di massa per facilitare il contenimento e l’attenuazione del contagio. L’introduzione di app di contact-tracing, cosĂŹ come l’adozione di altre tecnologie digitali e di data infrastructures, per garantire la salute pubblica puĂČ essere percepita come una vera e propria rivoluzione digitale.

Tuttavia, il suo impiego presenta nuove sfide oltre che grandi opportunitĂ . Ad esempio, come vedremo, tutti questi strumenti piĂč o meno innovativi si basano sul fatto che le persone possiedano e portino con sĂ© dei dispositivi mobili adatti. Conseguentemente, le persone che non possiedono un dispositivo mobile adeguato non potranno godere degli stessi benefici di chi invece ne possiede uno. Inoltre, le tecnologie data-driven, che si basano sul trattamento dei dati personali, hanno un forte impatto sulla privacy e la protezione dei dati, e altri diritti e libertĂ  fondamentali.

Da una parte, le applicazioni mobili sono spesso percepite da molti come una risposta necessaria e complementare al bisogno di monitorare la diffusione del COVID-19. Infatti, questo tipo di tecnologie di contact-tracing consentirebbe di risparmiare ore preziose di lavoro del personale sanitario, rendendo piĂč rapido ed efficiente l’intero processo di tracciamento. Inoltre, secondo alcuni, tali tecnologie ridurrebbero le possibilitĂ  di errore umano. Tuttavia, anche se gli strumenti tecnologici sembrano giocare un ruolo importante ed efficace nell’affrontare la sfida attuale, la prima – essenziale – domanda che dobbiamo porci prima dell’adozione sistematica e acritica delle tecnologie (senza averne valutato la loro efficacia e proporzionalitĂ ) Ăš: queste “app” sono la soluzione?

Considerando l’assenza di prove della loro efficacia, le promesse valgono i prevedibili rischi sociali e legali? Quando i governi decidono di ricorrere alla tracciamento digitale dei contatti nella loro gestione della pandemia COVID-19, quali sono le garanzie legali e tecniche che devono essere in atto per mitigare i rischi in in gioco?

In generale, infatti, il COVID-19 ha messo in luce ed esacerbato le giĂ  presenti discriminazioni sociali in termini di genere, razza, status economico e nazionalitĂ . In tal contesto, le tecnologie data-driven (tra cui si annoverano anche le applicazioni di contact-tracing) non solo riflettono tali discriminazioni, ma spesso le promuovono e le esasperano. A proposito del pericolo di riprodurre giĂ  esistenti e generare nuove discriminazioni e gerarchie sociali, Ăš importante anche ricordare come ci sia stata, e ci sia tuttora, poca diversitĂ  tra coloro che programmano le tecnologie digitali, e come le figure che ricoprono ruoli professionali di questo tipo spesso appartengano a classi sociali privilegiate.

Considerando che, come notato dalla matematica Cathy O’Neil in “Armi di distruzione matematica”, i sistemi basati su dati tendono a riflettere le dinamiche sociali e le relazioni di potere presenti nella società all’interno della quale questi vengono sviluppati, il rischio che il design di queste tecnologie perpetui equilibri e dinamiche di esclusione, creandone parallelamente di nuove, sembra essere tangibile.

Ma in che modo, nello specifico, queste tecnologie possono riflettere ed esasperare forme di discriminazione? 

Digital divide

In primis, l’uso di applicazioni di contact-tracing tende ad escludere gran parte della popolazione andando ad alimentare il cosiddetto digital divide, termine con cui si definisce il divario tra coloro che hanno accesso alle  tecnologie data-driven e coloro che non lo hanno. 

Gran parte della popolazione mondiale non ha accesso alle infrastrutture e agli strumenti necessari, come smartphone, computer e banda larga, per beneficiare delle tecnologie data-driven nel settore sanitario. Tale divario si aggrava ancor di piĂč se l’installazione e l’utilizzo di app di contact-tracing richiede smartphone e/o altri dispositivi di ultima generazione, comportando, in questo modo, un’automatica esclusione di coloro che non possono o non sono in grado di investire su nuovi strumenti tecnologici. Gli analisti del settore stimano che fino a 2 miliardi di utenti di telefonia mobile nel mondo non possiedono dispositivi configurati per supportare il tracciamento basato sul Bluetooth.

Le disparitĂ  di accesso potrebbero minare ulteriormente l’adozione delle app di contact-tracing: solo circa il 52% della popolazione in America Latina usa regolarmente internet mobile; nell’Africa sub-sahariana, Ăš il 23%. Inoltre, il mero accesso alle infrastrutture non garantisce il corretto utilizzo delle applicazioni di contact-tracing. Infatti, per il loro corretto utilizzo, si deve presupporre che il singolo individuo abbia un bagaglio di competenze digitali sufficiente per poter comprendere al meglio il funzionamento delle app di contact-tracing e farne un uso efficace.

Per questo motivo, secondo diversi studi, spesso chi non ha accesso a queste tecnologie o chi non Ăš in grado effettivamente di sfruttarle sono coloro che sono giĂ  fortemente discriminati e/o coloro che piĂč sono a rischio di contrarre il COVID-19. CiĂČ avviene anche nei paesi democratici dove questo tipo di app sembra escludere diversi target. Tra questi, figurano gli anziani, disabili e coloro appartenenti alle classi sociali piĂč basse. Inoltre, per molti gruppi svantaggiati, la ricerca digitale dei contatti non sarebbe solo inefficace, ma anche un pericolo per i loro diritti.

I falsi positivi possono costringere gruppi emarginati a dover far fronte ad ingenti problemi basate su notifiche non corrette. Ad esempio, i lavoratori a basso salario tra cui corrieri rischiano di perdere lo stipendio o il lavoro se si danno in malattia. In alcuni Paesi, come gli Stati Uniti, per gli immigrati senza documenti, visitare l’ospedale o un centro di test puĂČ portare alla loro deportazione. 

Privacy

La seconda questione rilevante quando si parla di applicazioni di contact-tracing Ăš quella della privacy. Infatti, molte di queste app raccolgono e usano una grande quantitĂ  di dati, sia personali sia di geolocalizzazione, per poter identificare potenziali focolai e mettere in quarantena le persone infette. La modalitĂ  con cui tali dati vengono gestiti dipende anche dalle norme e dagli obblighi legali che le aziende tech sono tenute a rispettare. 

In Unione europea, a far da tutela ai dati personali degli utenti Ăš il Regolamento 2016/679, meglio conosciuto come GDPR. Entrato ufficialmente in vigore nel 2018, il GDPR ha per la prima volta stabilito alcuni principi standard per la protezione dei dati personali individuali. In particolare, ai fini di questa ricerca, se ne elencano i principali:

  • consenso: al fine di effettuare un’attivitĂ  di trattamento dei dati personali, un’organizzazione e/o un’azienda deve ottenere il consenso inequivocabile da parte degli utenti. Nel caso in cui gli utenti siano dei minori, Ăš necessario il consenso dei genitori o di chi ne fa le veci legali.
  • diritto all’informazione: per poter dare il proprio consenso inequivocabile, Ăš diritto dell’utente sapere i fini e le modalitĂ  del trattamento dei propri dati. Tale diritto, inoltre, implica che tali informazioni debbano essere comunicate in modo chiaro e semplice. Per questo motivo, al fine di ottenere il consenso al trattamento dei dati, un’azienda deve redigere una privacy policy che sia leggibile e comprensibile anche per chi non conosce il gergo legale.
  • diritto all’accesso : gli utenti hanno il diritto di accedere ai propri dati personali e alle informazioni relative alle modalitĂ  di trattamento degli stessi. Su richiesta dell’utente, i titolari del trattamento devono fornire informazioni sulle categorie di dati trattati, una copia degli effettivi dati raccolti dell’utente ed una descrizione delle modalitĂ  del trattamento. In questo senso, tale diritto Ăš complementare a quello all’informazione dato che permette una reiterazione di quest’ultimo.
  • diritto alla modifica: gli utenti hanno il diritto di richiedere la modifica dei loro dati personali se sono imprecisi o incompleti. Questo diritto implica anche che la rettifica debba essere comunicata a tutti i soggetti terzi coinvolti nel trattamento dei dati in questione, a meno che ciĂČ non sia impossibile o particolarmente difficile.
  • diritto alla cancellazione: nel momento in cui i dati non sono piĂč utili alla fine del trattamento per cui sono stati raccolti o se l’utente decide di disdire il consenso al trattamento dei propri dati, l’utente ha il diritto di chiederne la cancellazione nonchĂ© la cessazione di ogni altra forma di diffusione con enti terzi.

L’implementazione di applicazioni di contact-tracing, dunque, si deve conformare ad una corretta applicazione del GDPR. In caso di non conformitĂ  al regolamento, l’utente si puĂČ appellarsi all’autoritĂ  giudiziaria o al Garante per la protezione dei dati personali. In tal modo, il soggetto Ăš in grado, almeno sul piano legale e teorico, di far valere ed esercitare i propri diritti.

Al contrario, ci sono molti esempi di Stati che hanno introdotto l’obbligatorietĂ  dell’uso di questo tipo di strumenti senza che venissero messe in atto una serie di adeguate misure di protezione della privacy degli utenti. Molto spesso, soprattutto nei Paesi non democratici e autoritari, tale assenza di salvaguardie sulla privacy individuale Ăš andata a discapito della sicurezza, dei diritti umani e delle libertĂ  democratiche, soprattutto per le minoranze etniche, politiche, religiose e sociali. 

In generale, infatti, si puĂČ sostenere che i governi potrebbero utilizzare le applicazioni di contact-tracing anche per istigare conflitti e perpetuare violazioni dei diritti umani di minoranze o oppositori politici dato che questi strumenti possono essere facilmente sfruttati come mezzi di sorveglianza.     Gli esempi sono numerosi. In Cina Ăš stata introdotta, come misura obbligatoria per arginare il COVID-19, un’applicazione per smartphone in grado di tracciare i movimenti dei propri utenti e di imporre loro restrizioni alla propria libertĂ  di movimento. Inoltre, sembrerebbe abilitata ad inviare i dati personali dei propri utenti direttamente alla polizia. Per tali motivi, in un paese che giĂ  utilizza le tecnologie di riconoscimento facciale per targetizzare e colpire le minoranze etniche, essa risulterebbe particolarmente pericolosa. 

In Guatemala, l’app di contact-tracing approvata e promossa dal governo, Alerta Guate, raccoglie i dati di geolocalizzazione degli utenti, anche quando l’app non Ăš in funzione. I dati raccolti possono essere conservati fino a dieci anni e il Presidente guatemalteco ha giĂ  annunciato la possibilitĂ  che l’app si possa evolvere ed espandere per coprire “questioni di sicurezza”. 

In Etiopia, lo Stato ha rilasciato una piattaforma di monitoraggio del COVID-19 dove gli utenti possono segnalare altre persone sospettate di avere sintomi – sulla base di valutazioni soggettive e non scientifiche – dei loro sintomi. CiĂČ risulta particolarmente preoccupante sia perchĂ© responsabilizza eccessivamente il singolo individuo, bypassando il ruolo dell’operatore sanitario, sia perchĂ© si applica inevitabilmente in un contesto in cui tale strumento puĂČ essere utilizzato contro le minoranze giĂ  discriminate. Non Ăš sorprendente, infatti, che si sia assistito a numerose segnalazioni di molestie e discriminazioni contro gli stranieri e contro operatori sanitari. 

In altri casi, l’aumento della sorveglianza sanitaria digitale puĂČ esacerbare forme di discriminazione e di disuguaglianza nei confronti di gruppi minoritari come le persone LGBTQ e i migranti. Se da una parte i dati di localizzazione aggregati possono monitorare i flussi di popolazione in tempo reale e identificare potenziali hotspot di trasmissione, essi possono anche danneggiare gli utenti vulnerabili identificando la loro posizione esatta. Questo dato Ăš estremamente preoccupante visto che una recente analisi di 50 applicazioni relative al COVID-19 nello store di Google ha mostrato che solo 16 hanno esplicitamente dichiarato nelle loro politiche l’impegno a rendere anonimi i dati personali degli utenti, rendendo ancora piĂč vulnerabili a violenze gli emarginati. Per esempio, la ricerca di contatti per un focolaio di COVID-19 in Corea del Sud ha portato ad abusi omofobi mirati alla comunitĂ  LGBTQ sudcoreana. 

Infine, in alcuni casi, le politiche governative di discriminazione nei confornti di minoranze etniche, politiche e religiose si Ăš riflessa anche nell’impedimento a tali minoranze di utilizzare app di contact-tracing. In Bangladesh, Paese che ospita il piĂč grande campo profughi del mondo per i rifugiati Rohingya provenienti dal Myanmar, il governo ha imposto un blackout di internet e confiscato le carte SIM dei residenti del campo, apparentemente per motivi di sicurezza. In altri campi, i rifugiati cambiano piĂč volte le schede SIM per far fronte a connessioni Internet instabili, il che ostacolerebbe un corretto uso delle app di tracciamento dei contatti.

Applicazioni etiche della tecnologia

CosĂŹ come altri problemi intrinseci alla natura delle tecnologie, le app di contact-tracing, in generale, presentano dei problemi che sono strettamente collegati al  modo in cui le tecnologie sono pensate, sviluppate e modellate. Infatti, ad esempio, nel pensare e sviluppare applicazioni di contact-tracing che si basino esclusivamente su tecnologie Bluetooth si Ăš preso piĂč o meno deliberatamente in considerazione solo la classe dominante e privilegiata, non tenendo in considerazione i bisogni e le necessitĂ  di chi non rientra all’interno di questa categoria. In altri casi, non Ăš la tecnologia in sĂ© a presentare dei “difetti”, ma Ăš il contesto sociale, politico ed economico a rendere particolarmente dannosa tale tecnologia per certe fasce della popolazione. CiĂČ, di nuovo, Ăš dovuto al fatto che nel pensare e sviluppare una tale tecnologia si Ăš tenuta in considerazione solo la classe dominante al potere non ragionando su come un determinato strumento possa avere effetti politici e sociali diversi all’interno della stessa popolazione.

Come Ăš possibile, dunque, ideare delle tecnologie che siano eticamente inclusive e democratiche? In tal merito, si propongono tre approcci differenti, ma complementari l’uno all’altro: un approccio che mette al centro la logica dei diritti umani; il design thinking; e i principi per lo sviluppo digitale. In particolare, anche per poter mitigare i limiti di ciascuna di queste metodologie, si propone una coordinazione dei seguenti approcci:

  • la logica dei diritti umani: secondo questo approccio, ogni misura, strumento o norma che viene ideata ed implementata deve avere un impatto ragionato sui diritti e sulle libertĂ  individuali. Pertanto, anche quando degli strumenti tecnologici vengono adottati per il bene comune o per implementare un diritto umano (quale la salute), bisogna tenere in considerazione che il loro effetto sugli altri diritti umani e sulle libertĂ  fondamentali deve essere legale, necessario e proporzionato. CiĂČ vuol dire che tali misure devono essere prescritte dalla legge, necessarie per il bene comune e proporzionali, ovvero non devono avere un impatto sproporzionato sugli altri diritti e libertĂ  dell’individuo; 
  • design thinking: il design thinking Ăš un processo iterativo in cui si cerca di capire l’utente, sfidare le ipotesi e ridefinire i problemi nel tentativo di identificare strategie e soluzioni alternative che potrebbero non essere tratte dalla nostra parziale conoscenza del mondo. In particolare, questo approccio promuove la necessitĂ  di mettere al centro del processo di design l’utente per poter centrare e risolvere i suoi problemi e rispondere ai suoi bisogni;
  • principi di sviluppo digitale: i principi per lo sviluppo digitale sono nove linee guida, ideate dall’UNICEF e progettate per aiutare a integrare delle best practices nell’uso delle tecnologie. Esse fungono da guida per ogni fase del ciclo di vita del progetto e devono essere considerate in modo proattivo, piuttosto che come rigide regole da seguire. 

Grazie alla combinazione di questi metodi – si sostiene – i designers possono tentare di superare la soggettivitĂ  dei dati che elaborano e, quindi, rispondere ai loro beneficiari in modo piĂč efficiente ed efficace. Ad esempio, nell’ideare e progettare un’app di contact tracing che sia inclusiva e democratica, il designer si deve porre domande di varia natura, concernenti argomenti quali l’etica, la privacy e la societĂ  che ci circonda (se ne possono vedere alcuni esempi nel paragrafo successivo).

Spesso Ăš molto difficile rispondere a tali domande e talvolta le risposte stesse non riescono a tener conto della continua evoluzione della societĂ , ma sicuramente il solo tentativo di porre la persona al centro del processo ideativo Ăš un primo passo verso una societĂ  piĂč inclusiva e democratica.

Linee Guida: l’App di contact-tracing ù eticamente giustificabile?

I designer di app di contact tracing dovrebbero rispondere alle seguenti domande.

Principi: Ăš questa la giusta app da sviluppare?

1. È necessaria?

‱ Si, deve essere sviluppata per salvare vite e per il bene comune (+).

‱ No, ci sono soluzioni migliori (–).

2. Ăˆ proporzionata?

‱ Si, la gravità della situazione giustifica i potenziali impatti negativi (+).

‱ No, il potenziale impatto negativo ù sproporzionato rispetto alla situazione (–).

3. Ăˆ sufficientemente efficiente, efficace e accurata?

‱ Sì, l’esperienza dimostra che ù sufficientemente efficiente, puntuale, che verrà usata da sufficienti persone e che produce dati accurati (+).

‱ No, non funziona bene, Ăš in ritardo o in anticipo, non verrĂ  usata da abbastanza persone, probabilmente collezionerĂ  dati che hanno falsi positivi e/o  falsi negativi (–).

4. Ăˆ temporanea?

‱ SĂŹ, c’ù una data di termine esplicita e ragionevole in cui l’app cesserĂ  di funzionare  (+).

‱ No, non c’ù una data di termine definita (–).

Requisiti: l’app sta per essere sviluppata nella giusta maniera? 

5. Ăˆ su base volontaria?

‱ Si, ù l’individuo a scegliere se scaricarla sul telefono (+).

‱ No, ù obbligatorio installarla e i detrattori possono essere sanzionati nel caso si rifiutino di farlo (–).

6. Richiede il consenso?

‱ Sì, gli utenti possono decidere quali dati personali condividere e quando, e possono cambiarli in qualsiasi momento (+).

‱ No, le impostazioni di default costringono a condividere tutto in qualsiasi momento, e non si possono cambiare (–).

7. I dati personali sono tenuti privati e l’anonimato degli utenti Ăš preservato? 

‱ Sì, i dati sono anonimi e sono salvati solo sul telefono dello user. Coloro che sono entrati a contatto con lo user vengono notificati di essere a rischio contagio, ma non dicono da chi e dove (+).

‱ No, i dati sono identificabili (o re-identificabili) data are (re)identifiable a causa del numero alto di dati raccolti e salvati in modo centralizzato. Viene notificato dove si ha avuto il contatto potenzialmente pericoloso (–).

8. Gli user possono cancellare i propri dati?

‱ Sì, possono farlo (+).

‱ No, non ù garantito che i dati vengano eliminati definitivamente (–).

9. Il fine per cui i dati vengono raccolti Ăš definito?

‱ Sì, esplicitamente; ad esempio, per avvertire gli utenti di aver incontrato una persona potenzialmente infetta (+).

‱ No, i fini della raccolta dati non sono esplicitamente definiti  (–).

10. Il fine Ăš limitato?

‱ Sì, viene usato per tracciare solo la propagazione del COVID-19 (+).

‱ No,  puĂČ essere regolarmente aggiornata con funzioni extra che estendono la sua funzionalitĂ  (–).

11. Ăˆ utilizzata solo per la prevenzione?

‱ Sì, ù usata solo per aiutare le persone a limitare volontariamente il contagio (+).

‱ No, ù anche usata come passaporto per permettere alle persone di avere certi diritti o meno (–).

12. Ăˆ usata per sanzionare?

‱ No, non ù usata per obbligare un certo comportamento (+).

‱ SĂŹ, il non adeguamento a quanto stabilito dall’app puĂČ risultare in una punizione come una multa o il carcere (–).

13. Ăˆ open source?

‱ Sì, il codice ù pubblicamente disponibile per analizzarlo, condividerlo e migliorarlo a livello collettivo (+).

‱ No, il codice ù proprietario e nessun tipo di informazione in merito ù pubblica (–).

14. Ăˆ disponibile per tutti?

‱ Sì, ù gratuita e distribuita a tutti (+).

‱ No, ù arbitrariamente distribuita solo ad alcuni o ad alcune fasce della popolazione (–).

15. Ăˆ accessibile per tutti?

‱ Sì, ù user-friendly (anche per chi non ù pratico) e funziona su tutti (o quasi tutti) i telefoni cellulari (+).

‱ No, funziona solo su alcuni specifici devices e serve una conoscenza digitale sufficientemente elevata (–).

16. C’ù un processo per decommissionarla?

‱ Sì, ci sono le pratiche per renderla inutilizzabile (+).

‱ No, non ci sono pratiche (–).


Fonti:

– Amoore, L. e Piotukh, V. (2015), ‘Life Beyond Big Data: Governing with Little Analytics’, Economy and Society 44(3), 341-366. DOI: 10.1080/03085147.2015.1043793.

– Anonimo (2020), ‘È giusto sorvegliare gli spostamenti delle persone contro il coronavirus?’, il Post, 18 marzo. Disponibile su: https://www.ilpost.it/2020/03/18/sorveglianza-coronavirus-privacy/ (Ultimo accesso: 18 novembre 2021).

– Barbican Centre (2019), ‘Joy Buolamwini: examining racial and gender bias in facial analysis software’, Google Arts & Culture. Disponibile su: https://artsandculture.google.com/exhibit/joy-buolamwini-examining-racial-and-gender-bias-in-facial-analysis-software/LgKCaNKAVWQPJg (Ultimo accesso: 22 febbraio 2022).

– Benjamin, R. (2019), Race After Technology: Abolitionist Tools for the New Jim Code, Cambridge, UK: Polity Press.

– Bowker, G. e Star, S. (1999), Sorting Things Out: Classification and its Consequences, Cambridge, MA.: MIT Press.

– Boyd, d. e Crawford, K. (2012), ‘Critical Questions for Big Data’, Information and Communication Society 15(5), 662-679. DOI: 10.1080/1369118X.2012.678878.

– Broussard, M. (2018), Automated Unintelligence: How Computers Misunderstand the World, Cambridge, MA: MIT Press.

– Brown, D. e Toh, A. (2020), ‘How Digital Contact Tracing for COVID-19 Could Worsen Inequality’, Human Rights Watch, 4 giugno. Disponibile su: https://www.hrw.org/news/2020/06/04/how-digital-contact-tracing-covid-19-could-worsen-inequality# (Ultimo accesso: 22 febbraio 2022).

– Browne, S. (2015), Dark Matters: On the Surveillance of Blackness, Durham, NC: Duke University Press.- Cheney-Lippold, J. (2011), ‘A New Algorithmic Identity: Soft Biopolitics and the Modulation of Control’, Theory, Culture & Society 28(6), 164-181. DOI: 10.1177/0263276411424420.

– Costanza-Chock, S. (2020), Design Justice. Community-Led Practices to Build the Worlds We Need, Cambridge, MA: MIT Press.

–  Davis, S. L. M. (2020), ‘Contact Tracing Apps: Extra Risks for Women and Marginalized Groups’, Health and Human Rights Journal, 29 aprile. Disponibile su: https://www.hhrjournal.org/2020/04/contact-tracing-apps-extra-risks-for-women-and-marginalized-groups/ (Ultimo accesso: 22 febbraio 2022).

– Easterday, J. (2020), ‘Technology in Conflict: how COVID-19 contact tracing apps can exacerbate violent conflicts’, LSE Ideas, 12 agosto. Disponibile su: https://lseideas.medium.com/technology-in-conflict-how-covid-19-contact-tracing-apps-can-exacerbate-violent-conflicts-5df0ac0631c2 (Ultimo accesso: 22 febbraio 2022).

– Eubanks, V. (2018). Automating Inequality. How High-Tech Tools Profile, Police, and Punish the Poor, New York, NY: St Martin’s Press.

– Foucault, M. (1971), L’archeologia del sapere (traduzione di Giovanni Bogliolo), Milano, IT: Rizzoli. 

– Gitelman, L. e Jackson, V. (2013), ‘Introduction’. In: Gitelman, L. (Ed.), â€œRaw Data” is an oxymoron, Cambridge, MA: MIT Press, pp.1-15.

–  Harari, Y. N. (2016), Homo deus. Breve storia del futuro (traduzione di Marco Piani), Milano, IT: Bompiani.

– Haraway, D. (1988), ‘Situated Knowledges: The Science Question in Feminism and the Privilege of Partial Perspective’, Feminist Studies 14(3), 575-599. DOI: 10.2307/3178066 

– Hier, S. (2003), ‘Probing the Surveillant Assemblages: On the Dialectics of Surveillance Practices as Processes of Social Control’, Surveillance and Society 1(3), 399-411. DOI: 10.24908/ss.v1i3.3347

– Kitchin, R. (2021), Data Lives: How Data Are Made and Shape Our World. Bristol, UK: Bristol University Press.

– Lo, B. e Sim, I. (2021) ‘Ethical Framework for Assessing Manual and Digital Contact Tracing for COVID-19’, Annals of Internal Medicine 174, 395-400. DOI: 10.7326/M20-5834.

– Mayer-Schönberger, V. e Cukier, K. (2013), Big Data: A Revolution That Will Transform How We Live, Work and Think. London, UK: John Murray.

– Mittelstadt B. D., et al. (2016) ‘The ethics of algorithms: Mapping the debate’, Big Data & Society 3(2), 1-21. DOI: 10.1177/2053951716679679.

– Rouvroy, A. e Poullet, Y. (2009), ‘The Right to Informational Self-Determination and the Value of Self- Development: Reassessing the Importance of Privacy and Democracy’. In: Gutwirth, S, Poullet, Y., De Hert, P., de Terwangne, C. (Eds.), Reinventing Data Protection?, Dordrecht, NL: Springer, pp. 45-76.

– Saetta, B. (2020), ‘App di contact tracing: soluzione o problema?’, Valigia Blu, 30 maggio. Disponibile su:  https://www.valigiablu.it/app-immuni-contact-tracing-soluzione-problema/ (Ultimo accesso: 18 novembre 2021).

– Sekalala, S., et al. (2020), ‘Analyzing the Human Rights Impact of Increased Digital Public Health Surveillance during the COVID-19 Crisis’, Health and Human Rights 22(2), 7–20. DOI: 10.17615/8e8a-m957.

– Tedford, T. (2019), ‘Apple Card algorithm sparks gender bias allegations against Goldman Sachs’, The Washington Post, 11 novembre. Disponibile su: https://www.washingtonpost.com/business/2019/11/11/apple-card-algorithm-sparks-gender-bias-allegations-against-goldman-sachs/ (Ultimo accesso: 22 febbraio 2022).

– Van Dijck, J. (2014), ‘Datafication, dataism, and dataveillance: Big Data between scientific paradigm and secular belief’, Surveillance & Society 12(2), 197-208. DOI: 10.24908/ss.v12i2.4776

– Varley-Winter, O. (2020), ‘The overlooked governance issues raised by facial recognition’,  Biometric Technology Today 2020(5), 5-8. DOI: 10.1016/S0969-4765(20)30061-8.

– Weckler, A. (2020), ‘The Big Tech Show: Is stopping the spread of Coronavirus worth handing over our Google passwords to see where we’ve been?’, Independent.ie, 6 marzo. Disponibile su: https://www.independent.ie/business/technology/the-big-tech-show-is-stopping-the-spread-of-coronavirus-worth-handing-over-our-google-passwords-to-see-where-weve-been-39022193.html (Ultimo accesso: 18 novembre 2021).

– Whittaker, M. et al. (2019) ‘Disability, Bias, and AI’, AI NOW Institute. Disponibile su: https://ainowinstitute.org/disabilitybiasai-2019.pdf (Ultimo accesso: 22 febbraio 2022

Potrebbe interessarti anche