AI ACT, incontro con l’On. Brando Benifei e la nostra posizione

8 Giugno 2022

Giugno 8, 2022

08.06.22 MILANO – L’11 maggio scorso Privacy Network, insieme ad altrə rappresentant​​ə e organizzazioni della società civile italiana, ha incontrato l’On. Brando Benifei per discutere della Proposta di Regolamento Europeo che prevede l’armonizzazione, a livello comunitario, delle norme sull’Intelligenza Artificiale (“AI ACT”).

L’obiettivo dell’incontro era quello di illustrare e discutere le posizioni della delegazione in merito al contenuto del Regolamento, e in particolare degli emendamenti proposti il 22 aprile scorso dalle commissioni IMCO-LIBE, rappresentate da Brando Benifei (S&D) e Dragos Tudorache (Renew Europe), del Parlamento europeo. A sottolineare l’importanza della nostra iniziativa, nonché la forte attenzione pubblica sull’AI ACT, la scorsa settimana i diversi gruppi politici hanno inviato al Parlamento migliaia di emendamenti, causando notevoli ritardi al sistema di registrazione. 

Pensiamo che l’AI ACT sia essenziale nella definizione del futuro dell’Unione Europea, sia in termini di capacità di estendere la competitività di mercato nel settore dell’intelligenza artificiale, sia per lo sviluppo di una cultura incentrata sulla valorizzazione dei diritti umani fondamentali e dei principi di equità, trasparenza, responsabilità e della certezza del diritto. 

Privacy Network vuole stimolare il dibattito e focalizzare l’attenzione su alcune aree che valutiamo ancora eccessivamente opache e che, se non regolate con coraggio, potrebbero portare a rischiose situazioni di incertezza interpretativa. Il dipartimento Advocacy, a questo fine, ha prodotto un documento esplicativo (policy briefing) illustrando alcuni punti chiave su cui chiediamo interventi concreti e puntuali, già presentati e discussi in diverse occasioni istituzionali e ora portati all’attenzione dei correlatori europei. Per ognuno di questi, nel documento sono avanzate delle proposte di formulazione che riteniamo maggiormente comprensive e soddisfacenti.

SCARICA IL NOSTRO POLICY BRIEFING

CLICCA QUI


Per prima cosa, il riconoscimento della portata fondamentale del concetto di “rischio sistemico”, tipico dei sistemi di intelligenza artificiale, soprattutto nell’ambito pubblico. Una maggiore attenzione dovrà essere rivolta ai sistemi di categorizzazione e riconoscimento biometrico, incluso il riconoscimento facciale e quello emotivo, che riteniamo vadano vietati senza eccezioni. Dal nostro punto di vista, poi, il Regolamento dovrebbe puntare alla definizione di strategie quanto più concrete e strutturali per la mitigazione sia dei bias algoritmici sia cognitivi al momento insoddisfacenti. Le modifiche presenti, infatti, concentrano esclusivamente sui set di dati usati per le fasi di training testing dei sistemi, tralasciando tutte le altre fasi rilevanti del design dell’IA. Infine, insistiamo sulla standardizzazione di pratiche di valutazione e certificazione in materia di conformità imparziali e robuste, insieme alla possibilità di incentivare un dibattito pubblico sulle negoziazioni che sia quanto più trasparente e partecipativo. 

Continueremo a monitorare da vicino lo sviluppo del dibattito sull’AI ACT.

A questo progetto hanno lavorato:

Diletta Huyskes, Head of Advocacy
Luna Bianchi, Advocacy Officer
Eleonora Bonel, Advocacy Officer
Luca Nannini, Advocacy Officer
Francesca Giannaccini, Advocacy Officer

Potrebbe interessarti anche