Costruzione dei dispositivi di IA: quali costi sociali?

15 Dicembre 2022

Dicembre 15, 2022

Autrice: Camilla GiorgioCamilla Quaresmini

Partendo dalla visione che il mondo delle Big Tech ci propone dell’intelligenza artificiale (IA) come dello strumento che darà un nuovo volto all’umanità, è necessaria una riflessione  su come effettivamente l’IA impatti la vita dell’uomo.  Come vedremo più avanti, analisi e reportage hanno svelato la matrice invisibile del lavoro umano e dell’impatto ambientale che si nascondono dietro costruzione e crescita delle reti digitali e dell’intelligenza artificiale. Lontani dalla visione convenzionale di macchine sofisticate e senzienti ritratte nei media e nella cultura pop, i sistemi di intelligenza artificiale sono alimentati da milioni di lavoratori sottopagati in tutto il mondo che svolgono compiti ripetitivi in condizioni di lavoro precarie e talvolta pericolose: un’ immagine che stride con l’idea  di tecnologie progettate per migliorare la vita dell’uomo. 

Tuttavia, nell’odierno discorso etico attorno allo sviluppo dei sistemi di IA, la questione dello sfruttamento della forza lavoro umana non è centrale.  

Già nel 2014 un’inchiesta della BBC analizzava le controverse condizioni di lavoro dei dipendenti delle Big Tech in Cina e in Indonesia. Lo scenario risultante dalla ricerca inquadra uno sfruttamento lavorativo importante, con cicli di 18 giorni continuativi di lavoro o turni giornalieri di 12 ore. Da studi come quello pubblicato dalla BBC  emerge uno sfruttamento dei lavoratori di tipo non solo fisico, ma anche psicologico. 

Figura 1: Estrazione di minerali. Immagine da:https://www.istockphoto.com/it/

Due terzi del cobalto mondiale, materia prima essenziale per smartphone e auto elettriche, arriva da uno dei paesi più poveri del pianeta: la Repubblica Democratica del Congo. Le condizioni lavorative sono altamente pericolose per i minatori artigiani, che spesso rischiano addirittura la vita.

Un’analisi condotta da Maplecroft nel 2017 mostra che i Paesi africani della regione dei Grandi Laghi non sono più né gli unici né i più importanti fornitori di minerali fondamentali per la produzione di dispositivi ad alta tecnologia. Secondo le conclusioni degli analisti c’è stata una forte estensione di estrazione e produzione anche sotto il controllo di gruppi armati attivi in Myanmar (ex Birmania) e Colombia, al fine di finanziare la guerriglia nei due paesi, con risvolti anche socio-politici di rilievo per lo sviluppo dell’IA.

Anche recentemente, un’inchiesta-reportage di ARTE descrive la situazione allarmante dell’Indonesia, documentando come la maggior parte dell’estrazione di stagno provenga da miniere illegali sull’isola di Bangka. L’incessante richiesta del minerale determina un mercato nero senza tutele, che espone i lavoratori – spesso minori – a rischi per la loro vita. Problema questo particolarmente diffuso nel settore estrattivo informale, che vede i minatori artigianali e le comunità circostanti regolarmente esposti a numerosi pericoli, quali il rischio di frane e la diffusione di malattie contagiose come la malaria.

È stato anche messo in luce come gravi violazioni relative alla tutela della sicurezza e della salute sul lavoro siano diffuse in tutti i maggiori Paesi produttori di stagno. In particolare lo stagno sembra il minerale che, a causa delle tecniche per il processo di estrazione e lavorazione, determina il più alto rischio di violazioni dei diritti degli operai impiegati nelle miniere.

Anche a livello software l’esistenza dell’intelligenza artificiale presuppone lo sfruttamento di una grande mole di lavoratori sottopagati che si occupa di testare i sistemi. 

La metodologia lavorativa che sostiene questo compito è nota come crowdsourcing, e consiste nell’esecuzione di piccoli compiti specifici – i microtask – da parte di una grande forza lavoro distribuita.

Senza dubbio la piattaforma più famosa che utilizza questa pratica lavorativa è Amazon Mechanical Turk. Il nome deriva dal Turco Meccanico, automa costruito nel 1770 dall’inventore ungherese von Kempelen. Questa macchina sembrava saper giocare a scacchi, ma in realtà nascondeva al suo interno un giocatore umano. Sia in questo caso che in quello della piattaforma di Amazon, l’illusione dell’intelligenza della macchina nasconde la performance invisibile e ripetitiva, nonché indispensabile, dei lavoratori.

Figura 2: Turco Meccanico. Immagine da: https://en.wikipedia.org/wiki/Mechanical_Turk

crowdworker (anche detti clickworker) sono dunque la componente umana necessaria per portare a termine quelle attività che ancora i computer non sono in grado di svolgere autonomamente, attività che vengono appunto chiamate HIT (Human Intelligence Task), ovvero “compiti di intelligenza umana”, che consistono ad esempio nel riconoscere oggetti nelle fotografie, descrivere prodotti, valutare recensioni.

Questi gig worker fortemente sorvegliati sostengono lo sviluppo dell’IA, ma vengono pagati frazioni di centesimo per ogni micro-attività che svolgono. Si tratta del cosiddetto crowdsourcing per le masse: grandi volumi di lavoro vengono minimizzati e suddivisi in compiti molto più piccoli che possono essere completati rapidamente da milioni di persone in tutto il mondo.

Figura 3: Interfaccia di Amazon Mechanical Turk con esempi di compensi. Schreenshot da: https://www.mturk.com

Pare dunque che le Big Tech si rivolgano alla folla non solo per vendere i loro prodotti, ma anche per svilupparli. In un simile contesto, i compensi miseri non sono l’unico aspetto problematico. Il lavoro fantasma che guida l’IA porta anche con sé l’assimilazione dei lavoratori alle macchine: completamente anonimizzati, i clickworkers svolgono attività altamente ripetitive.

Esempio principe di tale metodologia lavorativa è l’etichettatura manuale di milioni di immagini che, appositamente suddivisa in micro-task, viene eseguita automaticamente da un migliaio di persone in parallelo, ciascuna delle quali etichetta un solo migliaio di immagini.

Un ulteriore esempio è quello delle figure dei moderatori di contenuti di YouTube, o di piattaforme analoghe, i quali si occupano della segnalazione di contenuti definiti inappropriati sulla base delle linee guida della piattaforma in questione. È noto che utilizzare l’IA non affiancata da attività umana anche in questo contesto rivela errori che portano all’insoddisfazione degli utenti.

Il lavoro di segnalazione di contenuti viene poi a sua volta utilizzato per l’addestramento dei sistemi che si occupano del compito stesso, con l’obiettivo di perfezionare la sua automatizzazione. Dunque, mentre lavorano – in condizioni precarie – per mantenere le piattaforme funzionanti, i lavoratori forniscono anche dati per allenare quegli stessi sistemi di IA che un giorno potrebbero forse rimpiazzarli.

La domanda che viene naturale porsi è come mai, in questa corsa alla creazione e all’utilizzo dell’IA come strumento che dovrebbe supportare e facilitare la vita degli esseri umani in ambiti sempre più vari, non vengano presi in considerazione in maniera consistente quei risvolti etici, sociali e politici, nonché le problematiche legate allo sfruttamento del lavoro, che ne determinano lo sviluppo.

La narrativa che dipinge le macchine e i sistemi intelligenti come autonomi è dunque altamente fuorviante. I sistemi di IA sono costruiti da masse di lavoratori sfruttati in tutto il mondo, che lavorano in condizioni precarie e dannose, nonché con scarse tutele. Essere consapevoli di tali dinamiche che sottostanno ai sistemi che stiamo implementando in maniera sempre più totalizzante è indispensabile per poterne derivare tutele per i lavoratori coinvolti, e sanzioni per le società che le violano.

Potrebbe interessarti anche