NET00 TECHTÈQUE / E02

Intelligenza Artificiale Antifascista

Sappiamo quali siano le conseguenze di povertà, razzismo e discriminazioni. Non c'è bisogno di un'intelligenza artificiale che renda le persone dei target, ma di una che aiuti l'intera popolazione a stare meglio.

Intelligenza Artificiale Antifascista

parole di:

immagini di:

Questo è un pezzo sull’Intelligenza Artificiale (di quelli che di solito non compaiono nei titoli di prima pagina) e sul perché è importante parlarne, per riuscire a concepire finalmente un’Intelligenza Artificiale antifascista. Quando parlo di AI parlo di machine learning e di reti neurali artificiali, meglio conosciute come deep learning. Non parlerò però di critica letteraria né di film o narrativa post-human.

L’Intelligenza Artificiale è politica

Non solo perché è una questione di cosa farci con quest’Intelligenza, ma soprattutto per via delle tendenze politiche della stessa tecnologia: le possibilità dell’AI emergono dalla risonanza tra le sue applicazioni concrete e il contesto politico circostante. L’AI agisce nello spazio tra ciò che è e ciò che dovrebbe essere, influenzando la nostra comprensione di cosa è sia possibile che desiderabile.

Essenzialmente, i computer non sono altro che assemblaggi molto rapidi di valvole e tubi. Ma come riescono a emulare attività umane, dal riconoscere volti al valutare crimini? Pensate ai minimi quadrati: state cercando di valutare la correlazione tra due variabili inserendo una linea dritta tra punti sparsi, quindi calcolate la somma dei quadrati delle distanze da tutti i punti e li minimizzate. Il machine learning fa qualcosa di molto simile. Trasforma i vostri dati in vettori spaziali così da permettervi di trovare divisioni tra classi, minimizzando la somma delle distanze come definito dalla vostra funzione oggettiva.

Questi modelli vengono presi in considerazione perché ci dicono molto del mondo. Si basano sul neoplatonismo delle scienze matematiche: un patto di fede verso un livello della realtà che può essere percepito al meglio tramite calcoli matematici.

Questi modelli, tuttavia, sono basati su correlazione, non su causalità: per quanto complessa sia la computazione, non si tratta né di comprensione e nemmeno di buonsenso.

Le reti neurali che classificano le immagini sono facilmente ingannabili da prospettive inusuali di oggetti comuni: uno scuolabus, visto di lato, viene classificato con fiducia come uno spazzaneve. Tuttavia, gli arroganti paladini dell’AI stanno imponendo velocemente un contesto sociale sempre più caotico, sperando di essere in grado di estrarre informazioni che erano prima dei semplici elementi del discorso.

Il deep learning è tutt’altro che profondo.

Servirà tutto ciò a rallentare l’adozione dell’Intelligenza Artificiale, mentre cerchiamo di capire a cosa può essere utile davvero? Ovviamente no; perché ciò che abbiamo ora è un’Intelligenza Artificiale sotto un regime di ‘austerity’, ovvero l’adozione di modelli meccanici che possano i risolvere problemi emersi dopo la crisi finanziaria.

Il modo in cui l’Intelligenza Artificiale deriva la sua ottimizzazione da calcoli basati su di un vasto set di input discreti combacia esattamente con la maniera in cui il neoliberismo concepisce l’ottimizzazione di un mercato che può offrire il meglio se libero da restrizioni statali. L’AI è vista come un modo di quadrare il cerchio tra servizi eviscerati e una crescente domanda, senza dover mettere in discussione la logica alla base di tutto ciò.

Il risultato modellato dall’Intelligenza Artificiale si presta a predizione, e di conseguenza a prevenzione, e può individuare, ad esempio, a quanto ammontano le risorse pubbliche, dove sorgeranno problemi, se vi è un crimine di abuso di minori, se avrete problemi di demenza senile. E non c’è un modo semplice di invertire operazioni di retropropagazione dell’errore per tornare al ragionamento umano. Ciò non solo ne danneggia i processi più regolari, ma produce, come direbbe Hannah Arendt, incoscienza:

inabilità di critica verso le istruzioni della macchina, mancanza di considerazione in merito alle conseguenze, ma anzi un vero impegno a voler credere che si persegua un ordine corretto e giusto.

La critica più consueta al giudizio degli algoritmi è un certo sdegno verso i falsi positivi, specialmente quando risultano da un input di dati parziale. Ma il problema di fondo è l’imposizione di un’ottimizzazione basata su una sola idea di ciò che produce risultati migliori, con un ranking basato su ciò che serve e ciò che è da scartare.

Il risultato di una Intelligenza Artificiale acritica è il rischio di una callosità algoritmica, che non può essere risolta dall’avere un umano in sincronia con la macchina, poiché quello stesso umano sarà rapito dall’istituzione che ha prodotto quella sincronia. Rigettando le nostre comuni convinzioni e capendo che non hanno alcun valore predittivo, le operazioni dell’AI di individuare e sbarazzarsi di ogni riconoscimento sistemico cancellano ogni traccia di elementi politici della situazione.

La fusione algoritmica di distanze vettoriali e differenze sociali diverrà ben presto la maniera più semplice di amministrare “ambienti ostili”, come ha già fatto Theresa May per targhettizzare i migranti.

Ma i punti di contatto con Intelligenza Artificiale e estrema destra non finiscono qui. Il discorso di “imparare attraverso l’AI” include semplificazioni e riduzioni basate su dati innati rispetto alle analisi, e la semplificazione di problemi sociali in materia di esclusioni basate su caratteristiche innate è esattamente la politica della destra populista.

Dovremmo chiederci se le gigantesche aziende esperte di Intelligenza Artificiale se la sentono veramente di ritirare delle vere e proprie leve di correlazioni di massa, che sono state messe a disposizione dei regimi che cercano a tutti i costi di riproporre una rinascita nazionale tramite un etnocentrismo razionalizzato. Nel 1936, nello stesso periodo in cui Daniel Guerin scriveva il suo libro sulla relazione tra fascismo e big business, Thomas Watson dell’IBM e la sua società affiliata tedesca Dehomag stavano entusiasticamente fornendo ai nazisti avanzate schede perforate Hollerith.

Oggi vediamo foto di Jair Bolsonaro a Davos seduto al tavolo con Tim Cook, CEO Apple, e Satya Nadella di Microsoft.

Intanto le correlazioni algoritmiche di studi di associazione genome-wide vengono usate per sostenere concetti basati sul realismo della razza e supportare una narrativa di gerarchia genomica.

Siamo già di fronte alla riunificazione storica tra statistica e supremazia bianca.

Non è un caso che la matematica, le regressioni logistiche e le correlazioni fondamentali per il machine learning siano state sviluppate dagli eugenetici eduardiani Francis Galton e Karl Pearson.

La mia proposta è quella di sviluppare un’Intelligenza Artificiale antifascista.

Deve essere più di una semplice pulizia dei bias dei dataset, poiché ciò lascerebbe intatto il cuore pulsante dell’AI. Deve essere più di una partecipazione inclusiva nelle élite di ingegneri, poiché, anche se necessario, ciò non basterebbe a cambiare il sistema. Deve essere ben più di un’Intelligenza Artificiale etica, perché la maggior parte di Intelligenze etiche hanno solo valore di public relations che servono a calmare le paure sociali mentre l’industria va avanti con i suoi esperimenti. Deve essere più di un’idea di equità espressa a livello legislativo, poiché ciò immagina la società come un campo da gioco già uniforme, e offusca le asimmetrie strutturali che generano ingiustizie perfettamente legali che vediamo acuirsi ogni giorno.

Credo che un buon inizio sia prendere esempio dagli studi femministi e decoloniali che hanno cominciato a incrinare le nostre idee più salde di oggettività e neutralità.

Queste teorie critiche suggeriscono che le posizioni di svantaggio politico e sociale possono diventare siti di vantaggio analitico, e che solo una prospettiva parziale e situata possa essere l’origine di una visione fortemente oggettiva. Allo stesso modo, l’etica femminista della cura che assume “l’essere in relazione” e che stabilisce una relazione tra i ricercatori e il loro oggetti di ricerca, aiuterebbe a soggiogare l’inconscia prospettiva da “spettatore” dell’AI.

Per ri-centrare le voci marginalizzate e i concetti di relazionalità, suggerisco un’Intelligenza Artificiale antifascista che tenga in considerazione i comitati di cittadini, che metta la prospettiva di gruppi marginalizzati alle fondamenta della pratica dell’AI, e che trasformi il machine learning in una forma di pedagogia critica.

Questa formazione dell’AI non significherebbe semplicemente un’ottimizzazione delle griglie di ricerca ma fornirebbe una forte critica riguardo le origini di questo problema, ovvero riguardo le forze strutturali che questi problemi li hanno prodotti e resi prioritari.

L’Intelligenza Artificiale è al servizio di ciò che Bergson ha definito “ready-made problems”, problemi basati su di una presupposizione mai esaminata ma anzi istituzionalizzati, con soluzioni infondate e costruite sullo stesso tossico amianto. Avere agency significa reinventare il problema, creare qualcosa di genuinamente vero che renda in questo modo il possibile distinto dal probabile:

il possibile non è prevedibile, non è un rimpasto di fatti esistenti.

Dato che l’AI è stata catturata dalle grandi aziende, ogni reale trasformazione richiederà uno spostamento in termini di produzione. Lo scorso anno è stato caratterizzato da alcuni dissensi interni a Google, Amazon, Microsoft, Salesforce e altri ancora, riguardo gli obiettivi “sociali” per cui i loro algoritmi erano stati costruiti. Negli anni ‘70 i lavoratori di una fabbrica d’armi inglese proposero il piano Lucas, che pretendeva la riprogrammazione del posto di lavoro su una produzione socialmente utile. Non misero in dubbio solo lo scopo del loro lavoro, ma lo fecero affermando fortemente il ruolo dei lavoratori organizzati, che suggerisce oggi che la corrente di dissenso di alcuni tech workers diventerà propriamente trasformativa quando si scorgerà la possibilità di una nuova società che prende forma nel guscio di quella vecchia.

Suggerisco che un’AI antifascista debba prendere le parti del possibile contro il probabile, facendolo nel punto di incontro tra soggetti organizzati e lavoratori organizzati.

E richiederà di sicuro un certo tipo di resistenza organizzata di alcune comunità.

Un thread (filo) è una sequenza di istruzioni programmate eseguite da un microprocessore. Su un GPU Nvidia, uno dei chip per l’Intelligenza Artificiale, un warp (ordito) è un insieme di thread eseguiti in parallelo. È incredibile come il linguaggio della tessitura dell’era Luddista ci abbia raggiunto nell’era dell’Intelligenza Artificiale. Lo sforzo dell’autodeterminazione nel quotidiano potrebbe richiedere un nuovo movimento Luddista, come per alcuni residenti e genitori di Chandler in Arizona, che hanno boicottato i van a guida autonoma di Waymo: “Non ci hanno mai chiesto se volessimo essere parte del loro test beta”, ha detto la madre di un bambino quasi investito da un van.

I Luddisti, ricordate, non erano contro la tecnologia, ma ambivano invece a “abbattere ogni tipo di macchinario dannoso per la Comunità”.

I modelli predittivi di riconoscimento del deep learning stanno per essere introdotti nelle nostre vite grazie alla risoluzione granulare dei laser LI.D.A.R (Light Detection and Ranging).

Possiamo farci governare, oppure organizzarci.

La domanda di un’Intelligenza Artificiale antifascista è una domanda di auto-organizzazione, e di una produzione autonoma del Sé che si sta organizzando.

Chiedere “come possiamo prevedere chi farà X?” significa porsi la domanda sbagliata. Sappiamo già che conseguenze distruttive possono avere sulla psiche individuale e collettiva razzismo e negligenza sistematica. Non abbiamo bisogno di un’AI che individui ma di qualcosa che risollevi la società intera.

Una vera AI è importante non perché annuncia l’intelligenza delle macchine, ma perché ci permette di confrontarci con le ingiustizie irrisolte del nostro sistema. Un’Intelligenza Artificiale antifascista è un progetto basato sulla solidarietà, aiuto mutuale e supporto reciproco. Non abbiamo bisogno di macchine autonome, ma di una tecnica, una tecnologia che sia parte di un movimento sociale per l’autonomia.

Traduzione di Tommaso Grossi

Pubblicato originariamente su: OpenDemocracy