Photo by Markus Spiske on Unsplash

Povertà: ghettizzazione digitale

di Luca Mario Nejrotti

Una volta gli individui “colpevoli” di essere poveri venivano isolati fuori dalla vista della società produttiva. Oggi questa ghettizzazione, ufficialmente inaccettabile, è sostituita da forme più sottili che coinvolgono i grandi algoritmi di profilazione: il digital profiling.

Un problema, un libro.

Sin dagli albori dell’era digitale, il processo decisionale in materia di finanza, occupazione, politica, salute e servizi umani ha subito un cambiamento rivoluzionario. Oggi i sistemi automatizzati – piuttosto che gli umani – controllano quali quartieri vengono sorvegliati, quali famiglie ottengono le risorse necessarie e chi è indagato per frode. Mentre viviamo tutti sotto questo nuovo regime di dati, i sistemi più invasivi e punitivi sono rivolti ai poveri.

Il saggio di Virginia Eubanks (vedi), Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor Automating Inequality, indaga sistematicamente gli effetti del data mining, degli algoritmi di policy e dei modelli di rischio predittivo su persone povere e della classe operaia in America. Il libro è pieno di esempi che mostrano come i modelli statistici influenzino la vita quotidiana degli statunitensi e di come trattandosi di sistemi automatizzati non sia nemmeno possibile prendersela con persone fisiche.

Povertà e barriere.

Gli esempi mostrati dalla Eubanks e ripresentati in un recente articolo su “il Tascabile” (vedi) mostrano l’aberrazione della delega dell’assistenza sociale alla tecnologia.

L’automatizzazione dell’assistenza fa sì che soltanto i profili statistici (digital profiling), basati su raccolte di dati spesso illegali o comunque surrettizie, diano l’accesso ai servizi. Basta finire nella categoria sbagliata, per un errore formale o per un’applicazione troppo rigida della regola, ed ecco perdere i propri diritti, vedersi sottrarre un aiuto indispensabile, non avere accesso alle cure mediche o alla casa.

Affidarsi a un sistema matematico funziona come i ghetti per poveri del XIX secolo, cioè nasconde il problema di fronte al resto della società, dietro il velo della presunta oggettività del dato statistico.

Sistema anglosassone.

Si tratta di un sistema ormai endemico negli Stati Uniti, molto meno in ambito europeo, figlio delle prime teorie sociali sulla povertà sviluppatesi in ambito anglosassone durante la prima rivoluzione industriale: oltremare, in fondo, i “poveri” sono spesso considerati come i veri “colpevoli” della propria condizione. Negli USA si pensa che basti la sola forza di volontà per raggiungere i propri obiettivi.

A questa falsa narrazione, che si svolge nel paese che ospita 7 delle 10 persone più ricche al mondo, ma in cui un terzo della popolazione vive sotto la soglia di povertà, si aggiunge la falsa certezza che gli algoritmi matematici siano di connaturata imparzialità e giustizia.

Questo fenomeno si chiama mathwashing (vedi) ed è figlio della frase fatta “la matematica non è un’opinione”.

Se anche la matematica non è soggettiva lo sono per lo più gli usi che se ne fanno: programmare un algoritmo significa decidere quali dati inserirvi e che peso dar loro.

Molte realtà economiche si nascondono dietro il digital profiling per la valutazione dei salari, delle assunzioni, dei licenziamenti, omettendo di ammettere che sono loro stesse ad avere chiesto ai programmatori di creare quegli algoritmi in un determinato modo, con determinati parametri. Si tratta di strumenti programmati per fare esattamente quello che è stato richiesto dal committente.

La raccolta dei dati non è imparziale.

Un altro errore comune è immaginare che i dati raccolti siano sempre uguali, sempre obiettivi, sempre veritieri.

In realtà anche in questa parte vi è un ampio margine di aleatorietà e senza forme di controllo e correzione si possono creare ingiustizie dalle conseguenze gravissime: “Raccolti in modo per lo più illegale, attraverso procedure di profilazione coatta o ancor peggio estorti in forma di ricatto rispetto alla possibilità di accedere a servizi assistenziali, questi dati vengono messi infine a disposizione delle autorità giudiziarie e delle aziende private incaricate di lavorarli, il tutto senza alcuna supervisione politica né tutela legale nei confronti dei diretti interessati. L’opposizione anche solo simbolica da parte dei richiedenti a questo processo altamente discriminante e invalidate, comporta automaticamente l’esclusione da ogni forma di aiuto statale.” (vedi)

Un grande fratello automatico.

Il panorama prospettato dall’opera della Eubanks è tragicamente surreale: i software di profilazione perpetrano ineguaglianze e ingiustizie, ma i veri responsabili il più delle volte la fanno franca, potendo nascondersi dietro la presunta imparzialità degli algoritmi. Come una volta si nascondevano i poveri dal resto della società dietro le apparentemente rassicuranti mura delle istituzioni di assistenza.

Fonti.

https://virginia-eubanks.com/books/

https://www.iltascabile.com/societa/automazione-poverta/

https://www.mathwashing.com/