NET95 TECHTÈQUE / E01

Ripensare l’Intelligenza Artificiale attraverso le politiche del ‘68

Abbiamo bisogno di proseguire sulla strada della filosofia politica abbracciata nel ‘68, per vivere in una nuova società attraverso un’azione autentica del qui e ora.

Ripensare l’Intelligenza Artificiale attraverso le politiche del ‘68

parole di:

immagini di:

C’è una chiara risonanza tra la propaganda politica del 1968 e i social media. I partecipanti allo sciopero delle università inglesi indetto dall’University and College Union (UCU), per esempio, hanno sfruttato Twitter come piattaforma di solidarietà attiva e di auto-organizzazione.

Eppure, un’altra genealogia sta parlando direttamente alla nostra condizione attuale: quella delle teorie dei sistemi e la cibernetica. Cosa succede se le battaglie nelle strade hanno luogo nelle smart city attraversate da dati e sensori? Forse la rivoluzione non sarà trasmessa in televisione, ma sarà certamente soggetta ad analisi algoritmiche. Non dimentichiamoci che il 1968 fu l’anno dell’uscita di “2001. Odissea nello spazio”, e che vedeva comparire l’intelligenza artificiale del supercomputer HAL.

Durante la guerra del Vietnam il piano di pacificazione Hamlet da solo produceva 90,000 pagine di dati e report al mese e la conta delle vittime veniva pubblicata giornalmente sui giornali. L’ambiente che ha contribuito a sollevare i nostri attuali dilemmi algoritmici è stato il vortice contemporaneo di teorie dei sistemi e della cibernetica, tesi che riguardano comportamenti emergenti ed esperimenti di calcolo computazionale, oltre al mescolamento di fondi militari con le visioni hippy del Whole Earth Catalogue.

La nascita del binomio DARPA (Defense Advanced Research Projects Agency) e Silicon Valley può essere tracciata dall’evoluzione del web sino ai giorni nostri. Giorni in cui AI e machine learning avanzano senza sosta supportando le proprie narrative di disturbo rivoluzionarie sulla scia di una Ho Chi Minh di analisi predittive.

Giocano a Go! meglio di molti professionisti. Si preparano a guidare le nostre macchine mentre i media intimoriti ci raccontano di un’Intelligenza Artificiale pronta a rubarci il lavoro.

Non si tratta di HAL, ma piuttosto di una forma di riconoscimento di pattern sulla base di una semplificazione matematica; un tentativo semplificato di disegnare una linea retta su un set di punti. Più gli input di dati sono complessi e disordinati, più questi algoritmi sembrano trovare soluzioni ottimali. Algoritmi di backpropagation (reti neurali) possono trovare modelli di dati impossibili da rintracciare tramite una descrizione analitica, come il riconoscimento di un volto umano da angoli diversi o in penombra. Gli algoritmi delle intelligenze artificiali appiattiscono al limite le correlazioni e i risultati spesso funzionano misteriosamente bene.

Ma si tratta pur sempre di un computer capace di fare quello per cui è stato creato, sin dai giorni delle valvole termoioniche, ovvero eseguire calcoli matematici più velocemente rispetto a noi.

Grazie allo sviluppo di reti neurali, questo potere di calcolo può imparare ad imitarci in modi che non avremmo mai saputo immaginare. E questo apprendimento può essere applicato in ogni contesto riducibile a un insieme di numeri, in modo tale che le caratteristiche di ogni esempio vengano ridotte a una fila di numeri tra lo 0 e l’1 ed etichettate da un obiettivo prestabilito. I dataset sono più o meno gli stessi, sia che si tratti di scan per il cancro che per le grafiche di Netflix.

Nulla di più che matematica, nessuna traccia di autoconsapevolezza né di assimilazione di esperienze incarnate.

Queste macchine possono sviluppare il proprio comportamento non programmato ma non riescono a comprendere se quello che hanno imparato abbia un senso o meno. Eppure, machine learning e Intelligenza Artificiale stanno diventando sempre più dei moderni meccanismi di ragionamento, portandosi dietro quel dualismo contro cui si scagliava la filosofia sessantottina: un credo in uno strato nascosto della realtà, ontologicamente superiore ed espresso matematicamente.

L’accuratezza delfica dell’AI è accompagnata pari passo da una opacità incorporata, perché la grande quantità di calcoli fatti in parallelo non possono certo essere continuamente confrontati da una mente umana.

Non solo, la macchina rigurgiterà i pregiudizi della società se impostata su dati sociali raccolti rozzamente.

Per di più, è matematicamente impossibile disegnare un algoritmo equo con tutti allo stesso tempo.

Ad esempio, se il tasso di recidività varia a seconda dei diversi gruppi etnici, un algoritmo predittivo come COMPAS è capace di prevedere un tot di falsi positivi, in base a questi dati le persone di colore si vedranno ingiustamente in modo maggiore negata la possibilità di essere rilasciate su cauzione. Tale impatto deriva dalla maniera in cui gli algoritmi proliferano categorie sociali come “famiglia problematica” o “studente con basse aspettative”, frazionando il sociale in binario ogni volta che tali categorie vengono suddivise in “è” e “non è”. Non si tratta solamente di una questione di dati dividuali [per Deleuze, quei dati creati dalla frammentazione di esseri umani, amministrati dalle nuove tecnologie delle società del controllo N.d.T.] incapaci di rappresentare i nostri io autentici, ma di vere e proprie tecnologie dell’io, che attraverso la ripetizione producono e governano soggetti. Con l’AI che comincia a sovraccodificare scan MRI (magnetic resonance imagining) forzando sintomi psicosociali nel cervello, cominceremo a vedere alcuni algoritmi giocare un ruolo fondamentale all’interno dei nostri corpi.

Ciò che chiamiamo Intelligenza Artificiale, ovvero il machine learning che vediamo agire nel nostro mondo, è in realtà una tecnologia politica nel senso più ampio del termine.

Tuttavia, dietro la cortina dell’oggettività, neutralità e universalità, esiste un vero e proprio giuramento di fedeltà verso l’amministrazione algoritmica.

La dialettica che guida l’AI dentro il cuore del sistema è la contraddizione di quelle società ricche di dati ma soggette a politiche di austerità. Basta dare uno sguardo ai recenti annunci sulla creazione di una nuova NHS (National Health System in UK) per vedere il fervore con cui questa buona novella viene accolta.

Mentre la crisi finanziaria globale viene fabbricata a puntino, la ristrutturazione è reale.

Gli algoritmi vengono arruolati nella riconfigurazione del lavoro e delle relazioni sociali, così che l’assunzione del precariato dipenda dalla soddisfazione di criteri algoritmici e la sfera pubblica possa esistere all’interno di una specifica attenzione economica.

Gli algoritmi e il machine learning cominciano a agire nella maniera descritta da Pierre Bourdieu: strutture strutturate predisposte per funzionare come strutture strutturanti, per essere infine assorbite come abitudini, costumi, comportamenti preriflessivi.

Come per il riscaldamento globale, l’Intelligenza Artificiale è divenuta un iperoggetto così imponente che la sua totalità non è realizzata in nessuna manifestazione locale, ma è anzi un’entità di una dimensione più grande che aderisce a qualunque cosa tocchi, non importa la resistenza, e che noi percepiamo attraverso le sue impronte informazionali.

Un’impronta chiave del machine learning è ad esempio il suo potere predittivo. Avendo imparato sia gli elementi rozzi e più sottili di un dato modello, il machine learning può essere applicato ad altri dati per prevedere quale risultato sia il più probabile, sia che si tratti di un semplice acquisto in rete, che di prevedere un attacco terroristico. Ciò conduce inesorabilmente a una logica di prelazione per ogni campo sociale in cui possono esistere dati, per cui gli algoritmi che li interpretano possono predire a quale carcerato dare un permesso per buona condotta, o quale genitore avrà più probabilità di abusare dei propri figli.

Dobbiamo tenere a mente che la logica dietro queste analisi è la correlazione.

Trattasi semplicemente di un accoppiamento di pattern, non la rivelazione di un meccanismo causale, motivo per cui la deprivazione di alternative future diviene effetto senza causa. Le barriere computazionali che classificano la mappa di input dei dati in uscita come esclusioni cibernetiche stanno aumentando forme continue di ciò che Agamben chiama stati d’eccezione. L’imperativo interno al machine learning, che risponde all’ottimizzazione di una funzione che esso ha generato, è inserito in un processo di ottimizzazione economica e sociale, che vede fondere strategie di mercato e militari attraverso un’attività unitaria di targetizzazione.

Una società le cui sinapsi sono state rimpiazzate da reti neurali tenderà sempre di più a sostenere una versione amplificata dello status quo.

Il machine learning da solo non può imparare un nuovo sistema di pattern sociali, ma solo ingigantire quelli esistenti rendendoli computazionalmente eterni. Il peso di questi effetti amplificati tenderà a ricadere sui dati più visibili, quelli dei più poveri e marginalizzati. L’effetto è l’automazione delle diseguaglianze.

Nello stesso momento in cui la tecnologia è emersa per favorire la completa automazione del neoliberismo, il sistema ha perso il controllo sul migliore dei mondi possibili, mentre il razzismo autoritario si metastatizza nelle vene della democrazia.

L’opacità delle classificazioni algoritmiche ha la tendenza a sfuggire a certi processi, poco importa se le leve di correlazione di massa vengono usate a piacimento da ideologie basate su teorie cospirazionistiche e paranoiche. Una caratteristica comune a tutte le forme di fascismo è la rinascita della nazione dalla sua attuale decadenza e la mobilitazione contro quella parte della popolazione che ne rappresenta il contagio.

L’identificazione automatizzata di anomalie è esattamente ciò che il machine learning è capace di fare, proponendo quella irriflessività che Arendt identificava in Eichmann.

Abbiamo parlato a lungo dell’intensificazione di alcune tendenze autoritarie dell’Intelligenza Artificiale. E la resistenza?

Lo staff dissidente di Google ha forzato la compagnia ad abbandonare parzialmente il progetto chiamato Maven, che sviluppa droni programmati per l’identificazione di bersagli; i lavoratori di Amazon stanno organizzando una campagna contro la vendita al governo di sistemi di riconoscimento facciale. Questi lavoratori fanno parte tuttavia di una minoranza privilegiata della tecnologia moderna; non si tratta di un ritorno al potere della classe operaia.

Nel Regno Unito e negli Stati Uniti esiste una spinta istituzionale per un’Intelligenza Artificiale etica. In realtà, non è altamente improbabile proporre iniziative che mirino a introdurre un’etica negli algoritmi, ma il sospetto è che si tratti di un’operazione di pubbliche relazioni che tranquillizzi il crescente disagio delle persone rispetto al potere dei signori dell’AI.

Tutte le iniziative che tentano di cambiare l’AI sembrano limitarsi a voler aggiungere una parte etica, anziché rivelare le presupposizioni di valore presenti ad ogni livello di computazione fino al cuore della matematica stessa.

Tutte queste iniziative sembrano indicare che basti aggiungere qualcosa per cambiare l’AI.

I modelli di democrazia radicale offrono invece una risposta ben più politica. Attraverso comitati di cittadini composti da coloro colpiti direttamente dall’AI, mobilizzando ciò che Donna Haraway ha definito come conoscenze situate, veicolate da orizzontalismo e democrazia diretta. Mentre questi sono validi modelli di resistenza, un’altra valida alternativa è la lezione insegnataci dai Situazionisti nel ‘68: è lo Spettacolo a generare il potenziale per il suo stesso superamento.

La qualità auto-sabotatrice dell’Intelligenza Artificiale è infatti a mio avviso il suo lato più surreale.

Ad esempio, gli esperimenti sul riconoscimento di immagini saggiano il contenuto di strati intermedi di reti neurali, ricorrendo all’applicazione costante di filtri che producono immagini allucinate che sembrano provenire da un trip di acidi, come cani-lumaca e alberi fatti interamente di occhi. Quando l’AI viene nutrita volontariamente di dati errati la macchina produce classificazioni surreali. Suona tutto molto divertente. Alcune immagini vengono addirittura esposte in gallerie d’arte, ma come ci insegnano i Situazionisti – mentre guidano tra le montagne di Harz in Germania mentre si affidano ciecamente una mappa di Londra – tutto ciò può essere un poetico disorientamento capace di spostarci dalle nostre categorie abituali.

Mentre business e burocrazia applicano l’AI nei contesti più critici per farci risparmiare soldi, o mentre risolvono i problemi più seri della società attraverso una presunta miracolosa oggettività macchinica, il potenziale liberatorio dell’AI è in realtà ben più ludico.

L’AI dovrebbe essere usata più a cuor leggero anziché abusarne come fosse una profezia.

A cuor leggero, ma seriamente, come le tattiche degli stessi Situazionisti, un disordine di sensi che rivelino le possibilità nascoste dal peso morto della mercificazione: riattivare le domande dei movimenti sociali del ‘68 affinché il lavoro diventi un gioco, l’utile diventi buono e la vita stessa diventi arte.

In questo momento storico, in cui i nostri futuri vengono troncati da una prelazione algoritmica, abbiamo bisogno di proseguire sulla strada della filosofia politica abbracciata nel ‘68 per vivere in una nuova società attraverso un’azione diretta del qui e ora.

Una controcultura dell’AI deve essere costruita sull’immediatezza. Le battaglie nelle strade devono avanzare mano nella mano con la deviazione [per Guy Débord détournement significa la riappropriazione di un concetto] del machine learning; un processo che miri a una decentralizzazione autentica, non alla servitù Uber-izzata, ma un orizzontalismo federato contro i “nudges” dell’amministrazione algoritmica.

Vogliamo un’Intelligenza Artificiale spensierata ma antifascista: oltre la backpropagation, la spiaggia!

 

Traduzione di Tommaso Grossi

Pubblicato originariamente su: OpenDemocracy