Possibili Rischi per la Strategia Italiana sull’Intelligenza Artificiale a confronto con l’EU AI Act

0 Comment
5180 Views

Autore: Luca Nannini, associato Privacy Network e dottorando Marie Curie in AI esplicabile

Abstract

Il seguente è un commento a caldo sul nuovo Programma Strategico Intelligenza Artificiale 2022-2024 (PS) rilasciato il 24 Novembre 2021 da parte del Ministro per l’Innovazione Tecnologica e la Transizione Digitale del Governo Italiano. Commento da parte di un dottorando italiano in AI grazie ad un progetto EU Horizon, da chi può essere considerato un cervello in fuga avendo basato la propria educazione e carriera anche al di fuori dei confini nazionali.

Il mio intento è fornire spunti critici sul’attuale contesto europeo ed internazionale in cui il PS si inserisce, provando a delineare i rischi maggiori in cui potrebbe incorrere a livello tecnico e socioeconomico.

Dopo un preambolo iniziale su cosa significhi parlare di responsabilità per la governance AI oggi, mi concentro nel tratteggiare vari gradi di rischi interni ed esterni riguardo alla strategia proposta. Questo commento riflette la mia visione personale – ogni critica costruttiva e puntualizzazione è ben accetta.

1 Preambolo: verso un dibattito sul’AI senza fronzoli

Una tema rilevante per la mia ricerca di dottorato in Intelligenza Artificiale Esplicabile (XAI) è lo sviluppo sostenibile, etico, di soluzioni AI idealmente antropocentriche. Questo tema, che di certo non si riassume in una singola disciplina, dibattito o approccio, spesso viene nominato come Responsible AI, Trustworthy AI, Fairness-Accountability Transparency values, ed approcci Human- Centred o Human-in-the-loop.

Il mio idealmente è in corsivo perché questi concetti, spesso, vuoi per semplice ignoranza (la mia in primis, sarà l’effetto Dunning-Kruger o la sindrome dell’impostore) o per intenzione, vengono usati come buzzwords. Concetto che delinea come alcuni termini possano essere usati senza cognizione di causa, senza aver chiaro tutte le implicazioni tecniche e socio-economiche che connotano. Creando hype, ossia aspettative ed ammirazione nel pubblico, dando l’impressione che quello di cui si parla sia necessariamente sfuggevole e complesso.

Quello che spesso avverto nel dibattito corrente non solo per l’XAI sono pratiche di AI-washing, dove ossia si premia l’utilizzo di congetture e di una retorica che non permettono una reale riflessione sulla portata e sui limiti delle applicazioni politiche dell’AI. O peggio ancora, dibattiti sul’etica AI che utilizzano quelle buzzwords senza alla fine incidere realmente su un miglioramento delle condizioni esistenti, depistando e confondendo i limiti di trasparenza, equalità e responsabilità.

In parole povere, spesso facili entusiasmi alimentano l’opinione pubblica sulle potenzialità applicative dell’AI, senza avviare un dibattito concreto e mirato a definire gli aspetti relativi alla regolamentazione e governance. Estremizzando, oggi è più facile sentirsi corteggiati dalle narrazioni sulle possibilità insite a modelli predittivi, assistenti virtuali e social media marketing di quanto non lo sia trattare l’endemicità delle problematiche relative ad esempio alle scarse pratiche di Data Provenance e Model Reporting, sui limiti epistemologici degli Stochastic Parrots, fino al buco nero delle pratiche di governance disvelate prima con Cambridge Analytica fino ai recenti Facebook Files.

Di fondo, l’AI non può essere intesa come una Deus-ex-machina ma come un mezzo per assistere – e non sostituire – l’intelligenza umana. L’ecosistema di un prodotto o servizio AI è esso stesso profondo come le reti neurali che talvolta lo compongono.

Questo ecosistema – L’Atlas dell’AI secondo Kate Crawford – coinvolge, più o meno direttamente, chi provvede a fornire i beni materiali per la sua produzione, chi ne detiene le proprietà d’uso e chi invece fornisce lavoro cognitivo per raccogliere, allenare, mantenere e proteggere dati e modelli, rispondendo a delle scelte politiche di governance ben precise.

Che si abbia un dibattito sull’etica dell’AI solo a partire degli scandali relativi alla misinformazione, alla manipolazione, alla microprofilazione ed alle privacy breaches è sintomatico della maturità di un dibattito internazionale volto a vedere principi di responsabilità come conseguenza e non primo paradigma di un approccio deontologico all’AI – approccio che premia innanzitutto metriche socioeconomiche di performance, accuracy, engagement nelle sue architetture e scelte di governance.

CONTINUA A LEGGERE…