Covid: un algoritmo tra regioni e governo

0 Comment
3306 Views

Perché la Campania e la Toscana sono diventate zone rosse? Perché la Calabria mette in dubbio l’esattezza dei dati? Queste sono solo alcune delle questioni che in questi giorni sono oggetto di discussione tra le regioni ed il governo centrale.

Come ormai sappiamo, esistono 21 criteri attraverso i quali vengono determinate le tre fasce di rischio (gialla, arancione, rossa) assegnate di volta in volta alle regioni italiane.

Considerate le conseguenze che derivano dal diventare una zona rossa, è lecito aspettarsi che i governatori delle regioni chiedano spiegazioni sulle modalità di assegnazione delle fasce di rischio.

Gli algoritmi di valutazione del rischio

I dati ottenuti a livello nazionale sull’evoluzione della pandemia sono elaborati attraverso 21 criteri di valutazione, con l’ausilio di due algoritmi: uno per la valutazione della probabilità, ed uno per la valutazione dell’impatto, determinando così la matrice di rischio.

I governatori delle regioni non sembrano comprendere il funzionamento di questi algoritmi, e le modalità con cui viene determinato il rischio da cui poi deriva l’assegnazione delle zone. In verità, sembra esserci ben poca trasparenza in merito, ed è molto difficile reperire informazioni concrete sul funzionamento di questi algoritmi.

Esattezza dei dati e trasparenza dei processi decisionali automatizzati sono parametri fondamentali per affrontare la pandemia in modo efficace e nel rispetto dei nostri principi democratici.

Assegnare una zona rossa ad una regione significa imporre gravi oneri sociali ed economici ad una grande parte della popolazione, oltre all’evidente compressione di diritti fondamentali.

Comprendere il funzionamento degli algoritmi per l’assegnazione del rischio, le modalità di elaborazione dei dati, e le logiche di valutazione dei 21 criteri identificati dalle istituzioni è un diritto dei cittadini oltre che un dovere di trasparenza da parte dell’amministrazione pubblica.

Effetto scatola nera

Fin dall’inizio abbiamo criticato tenacemente Immuni, la soluzione proposta dal governo per la gestione del contact-tracing digitale. Non perché non credessimo nella necessità di uno strumento di contact-tracing digitale, ma per mancanza di trasparenza e scarsa attenzione al rispetto dei diritti dei cittadini.

Uno dei principali motivi è proprio l’assenza di spiegazioni circa il concreto funzionamento dell’algoritmo di rischio da cui derivano le notifiche di esposizione.

I governatori regionali hanno compreso ora, a livello macroscopico, ciò che stava già accadendo da mesi con Immuni.

L’oscurità del funzionamento di questi algoritmi determina un effetto scatola nera che non permette alcuno scrutinio o contestazione.

Comprimere i diritti fondamentali dei cittadini italiani sulla base di decisioni prese unilaterlamente da algoritmi di cui non si conosce il funzionamento, e che non danno alcuna possibilità di contestazione ed intervento umano è semplicemente sconsiderato ed in violazione dei più basilari principi democratici.

La tecnologia come strumento, non come atto di fede

La tecnologia deve essere uno strumento al servizio dell’uomo, e non un qualcosa a cui l’uomo deve affidarsi ciecamente, come un atto di fede. Per essere utile e non pericolosa la tecnologia deve essere governata, criticata, ed esposta al pubblico scrutinio.

La normativa europea (Reg. UE 2016/679) prevede il diritto dei cittadini di ottenere una spiegazione della decisione conseguita attraverso processi decisionali automatizzati, come quelli di Immuni e per l’assegnazione delle zone di rischio.

Il motivo è semplice: i processi decisionali automatizzati sono un rischio per la nostra democrazia e per i nostri diritti fondamentali, proprio per la loro natura subdola e di difficile comprensione.

Trasparenza ed il diritto di spiegazione delle decisioni automatizzati sono pilastri fondamentali per evitare la subdola dittatura degli algoritmi

Oltre alla intrinseca mancanza di trasparenza dei processi decisionali automatizzati, deve poi essere preso in considerazione un altro elemento cruciale: la tecnologia non è infallibile.

Gli algoritmi di analisi e valutazione sono soggetti a numerosissimi errori, che derivano in larga parte dai modelli utilizzati e dai dati acquisiti.

I dati, il carburante degli algoritmi

L’esattezza, l’aggiornamento e la corretta catalogazione dei dati sono fattori fondamentali per avere algoritmi efficienti e con minimi tassi di errore. Più i dati sono incompleti, obsoleti, o catalogati in modo errato, più sarà probabile che l’algoritmo commetta errori – talvolta anche con risultati catastrofici.

Un algoritmo che viene rifornito di dati errati, obsoleti, inesatti, funzionerà male. Come un automobile nel caso di carburante di scarsa qualità.

Ad oggi ancora non ci sono standard qualitativi uguali per tutte le regioni italiane, nè tantomeno esistono sistemi di acquisizione centralizzata. Il principale mezzo di comunicazione dei dati epidemiologici è ancora la posta elettronica. Tutto questo comporta un’inevitabile abbassamento del livello generale dei dati analizzati.

Anche per questo motivo abbiamo deciso di farci promotori della campagna #datibenecomune, chiedendo tra le altre cose:

  • di rendere disponibili, aperti, interoperabili (machine readable) e disaggregati tutti i dati comunicati dalle Regioni al Governo dall’inizio dell’epidemia per monitorare e classificare il rischio epidemico
  • rendere pubbliche le evidenze scientifiche, le formule e gli algoritmi, che mettono in correlazione la valutazione del rischio, le misure restrittive e l’impatto epidemiologico ad esso correlato

Il governo, l’Istituto Superiore della Sanità e tutti i soggetti coinvolti nello sforzo per la lotta alla pandemia dovrebbero soddisfare queste richieste di trasparenza, per il rispetto dei nostri principi democratici e per favorire la lotta alla pandemia.

La confusione, le accuse di manomissione dei dati, e le critiche dei governatori regionali, sono soltanto un ostacolo alla ripresa del paese.

Chiediamo più trasparenza, più accountability, e meno fede incondizionata nella tecnologia.


Autore: Matteo Navacci