RDUD in senato per la proposta di legge AIANT

25 Ottobre 2024

Giovedì 24 ottobre 2024, nella Sala Caduti di Nassiriya del Senato della Repubblica, la Rete per i Diritti Umani Digitali, rappresentata da Laura Ferrari e Sara Marcucci, ha preso parte alla presentazione della proposta di legge per un’autorità per l’intelligenza artificiale e le neurotecnologie (AIANT) insieme ai Senatori Lorenzo Basso, Antonio Nicita e Filippo Sensi.

Perché siamo ospiti d’onore? Il disegno di legge si ispira alla proposta unificata per la creazione di un’autorità indipendente per l’intelligenza artificiale in Italia elaborata e promossa dalla Rete.

…Ci hanno ascoltati!

Da anni sosteniamo la necessità di un’autorità indipendente per la governance dell’intelligenza artificiale in ogni Stato membro dell’Unione Europea.

In Italia, abbiamo avanzato una proposta che enfatizza indipendenza, multi-disciplinarietà, trasparenza, etica e tutela dei diritti.

Siamo felici di comunicarvi che è stata accolta la nostra richiesta di istituire tavoli di lavoro permanenti aperti alla partecipazione della società civile.

Se il disegno di legge dovesse essere approvato, le organizzazioni più rappresentative della cittadinanza in tema di diritti umani digitali saranno incluse nei lavori dell’autorità, garantendo un processo decisionale inclusivo e trasparente.

Intervento

Laura Ferrari (The Good Lobby)

“Buongiorno Senatori, buongiorno a tutti i presenti, 

sono Laura Ferrari, e sono Public Affairs Consultant per The Good Lobby, e sono qui con la Dott.ssa Sara Marcucci di Privacy Network in rappresentanza della Rete per i Diritti Umani Digitali.

Rete per i diritti umani digitali, che consiste nella coalizione delle orga x la soc cili impegnata nella promozione e nella tutela dei diritti umani nella sfera digitale, ed  è composta da The good Lobby, Privacy Network, Hermes Center, Strali, Period Think Tank e Amnesty International Italia..

Brevemente, per farvi comprendere qual è l’attitudine della Rete, possiamo dire che il nostro obiettivo è quello di diffondere conoscenza e consapevolezza dell’impatto generato dalle nuove tecnologie, e in particolare dall’intelligenza artificiale, sui diritti umani e sulla società, e sulla base di tali consapevolezze ci proponiamo di promuovere richieste puntuali alle istituzioni e ai decisori pubblici.

Noi pensiamo che per garantire un’adeguata tutela dei diritti umani e digitali e mitigare i rischi insiti in una tecnologia per sua natura difficilmente intelligibile, è fondamentale stabilire norme idonee ad assicurare equità e trasparenza sugli usi dei sistemi di intelligenza artificiale. 

Quindi, quello che intendiamo fare, è affiancare le istituzioni con spirito costruttivo, offrendo il nostro  contributo, laddove può essere utile  nella ricomposizione del quadro dei rischi e dei risvolti inattesi della tecnologia, comunque in una prospettiva di progresso e incentivazione delle innovazioni, che però non dimentichi di regolare gli ambiti in cui possono insorgere discriminazioni e disparità a danno delle cittadine e dei cittadini.

Come Rete, abbiamo iniziato la nostra attività  -coordinandoci con realtà europee omologhe – nel momento delle negoziazioni tra Parlamento europeo e Consiglio dell’Unione europea, per definire la disciplina del Regolamento europeo in materia di intelligenza artificiale: l’AI Act, 

Durante questo percorso abbiamo sostenuto la necessità che ogni Stato membro dovesse designare un’autorità indipendente

Dunque, una volta che -approvato l’Ai Act – la questione è passata sul piano nazionale,  abbiamo delineato una proposta unificata per la creazione di un’Autorità indipendente destinata alla governance dell’Intelligenza Artificiale (IA) in Italia, secondo una visione improntata alla multi-disciplinarietà, competenza tecnica e con un’ enfasi sull’etica e i diritti.

Questa nostra proposta ha trovato riscontro nella visione dei qui presenti Senatori, che non possiamo che ringraziare, in quanto in questa proposta di legge abbiamo constatato una fortissima presenza dei valori e dei contenuti che abbiamo portato avanti con la nostra proposta per un’autorità indipendente. Ritroviamo, in particolare,  il tema dell’indipendenza, della multi-disciplinarietà, della trasparenza, e anche quello dell’apertura alla società civile. nel DDL presentato 

Su questo ultimo punto, la partecipazione della società civile, poi, diamo un ultimo suggerimento per rendere ancora più concreta l’intenzione che è già ben presente nella pdl: noi pensiamo che possa essere istituire dei tavoli di lavoro permanenti che includano anche le organizzazioni più rappresentative della cittadinanza in tema di diritti umani digitali. 

Vi ringrazio per l’attenzione.

Passo la parola alla mia collega, Dott.ssa Marcucci.

Sara Marcucci (Privacy Network)

Buongiorno, sono Sara Marcucci e oggi indosso il mio cappello di Privacy Network in rappresentanza della Rete per i Diritti Umani Digitali

Vorrei iniziare ringraziando il Senatore Basso per l’invito e l’opportunità di partecipare alla presentazione del DDL presentato dai Senatori Basso, Nicita e Sensi, che prevede l’istituzione di un’Autorità nazionale per l’intelligenza artificiale in Italia.

Come menzionato dalla mia collega la Dott.ssa Ferrari, l’indipendenza, la multidisciplinarietà, la trasparenza e l’apertura alla società civile, tutti elementi che abbiamo sostenuto nel nostro lavoro come Coalizione, sono principi che ritroviamo nel DDL proposto dai Senatori. Questi aspetti sono fondamentali per garantire che l’Autorità operi in modo equo, integrato e inclusivo, proteggendo gli interessi della collettività e assicurando che la regolamentazione sull’IA sia allineata ai bisogni della società.

Ma perché abbiamo bisogno di questa Autorità?

Oggi vorrei soffermarmi sulle ragioni che stanno alla base di questo bisogno.

L’intelligenza artificiale (IA) offre benefici in molti settori, come quello sanitario, amministrativo e finanziario. Tuttavia, è uno strumento materiale composto da modelli statistici, minerali rari, lavoro umano, cavi sottomarini, satelliti e dati, ovvero percezioni del mondo. L’IA quindi non è neutra: è il prodotto del contesto in cui viene ideata, prodotta e utilizzata. Ciò significa che le disuguaglianze e le marginalizzazioni presenti nel mondo reale si riflettono inevitabilmente in essa, riproducendosi in maniera sistematica. L’IA ha sempre dei bias (che siano questi nei dati o nei modelli), ovvero una particolare e situata modalità di vedere e conoscere il mondo. Il punto non è quindi eliminare i bias, che ci saranno sempre, ma mitigarli e governarli. 

La vera sfida che affrontiamo è quella di quantificare, codificare il mondo umano e quello cosiddetto “più-che-umano”, cioè tutto ciò che non è strettamente umano. La quantificazione implica classificazione, standardizzazione e gerarchizzazione: tutto ciò che è X non è Y. Quando l’intelligenza artificiale viene applicata a contesti umani, soprattutto nel settore pubblico – per esempio nell’erogazione di servizi – emergono rischi significativi. Negli ultimi anni, a livello internazionale, si è discusso molto di come la dataficazione possa portare a discriminazioni sociali.

Abbiamo visto casi emblematici: sistemi di riconoscimento facciale che non riescono a riconoscere i volti delle donne nere, algoritmi che negano sussidi a cittadini immigrati, prestiti rifiutati sulla base del sesso o dello status economico, e insegnanti licenziate senza spiegazioni perché l’algoritmo responsabile delle decisioni era una black box: un sistema opaco che non rende comprensibili i processi che portano alla decisione finale. Questi esempi mostrano chiaramente che l’IA, senza un controllo adeguato, può amplificare e sistematizzare ulteriormente le disuguaglianze già esistenti.

Questi sono alcuni dei rischi che come Coalizione abbiamo portato alla luce, e per i quali pensiamo sia fondamentale avere un’Autorità sull’intelligenza artificiale che sia non solo imparziale e indipendente, ma anche trasparente, partecipata e responsabile verso i cittadini.

I meccanismi di controllo previsti dal DDL, come le ispezioni, i poteri sanzionatori e la supervisione sull’utilizzo dell’IA, sono essenziali per garantire che i sistemi vengano implementati in conformità con standard etici e normativi. Ma, come notato nel DDL, l’Autorità deve svolgere un ruolo preventivo, promuovendo la sensibilizzazione e l’educazione pubblica sui rischi e le opportunità dell’IA. Questo approccio proattivo è fondamentale per creare una cultura dell’uso responsabile delle tecnologie, aiutando cittadini e istituzioni a comprendere meglio le implicazioni di queste tecnologie.

Vorrei approfittare di questo momento per riflettere insieme sull’importanza di stabilire meccanismi di valutazione chiari che ci permettano di comprendere quando l’IA sia realmente utile e necessaria per raggiungere un determinato obiettivo, e quando invece si rischia di considerarla automaticamente come la soluzione migliore, anche in contesti dove forse non lo è. 

Questo diventa particolarmente importante nel considerare anche gli impatti ambientali dell’IA, che sono ancora poco esplorati ma sicuramente significativi, in quanti l’IA è una tecnologia materiale, il cui utilizzo impiega minerali rari, acqua, elettricità, energia, e produce CO2.

Dobbiamo quindi co-costruire metodi di valutazione per determinare questo valore e capire quando l’uso dell’IA è giustificato e porta un valore complessivo aggiunto, e quando invece potremmo trovare un’altra strada altrettanto o più soddisfacente. Questo ci permetterebbe anche di individuare con più chiarezza quali sono le cose a cui diamo valore, e quindi quali bias–inevitabili–le AI che useremo avranno.

Pensiamo che attraverso gli strumenti identificati nel DDL oggi presentato, come ad esempio i meccanismi di controllo, la supervisione e la vigilanza sull’uso dell’IA e il coinvolgimento della società civile, l’Autorità possa giocare un ruolo centrale in questo processo, contribuendo a valutare l’impatto sociale e ambientale dell’IA e garantendo un equilibrio tra innovazione e tutela dei diritti umani e del pianeta.”

Potrebbe interessarti anche