Hot topic / 6 min
Il valore dei dati
Il caso dell’app che invecchia ha sollevato di nuovo il problema dell’uso dei nostri dati e del valore della privacy. Ma capiamo davvero a cosa prestiamo il consenso?
parole di:
immagini di:
Sembrava un gioco divertente per l’estate, come ce ne sono tanti. La curiosità nei confronti del futuro ha preso il sopravvento: chissà come sarò da vecchio? Come sarei stato se fossi nato uomo o donna? Lo fanno tutti sui social. Simpatiche immagini di come saremo da vecchi: faceapp. Un’applicazione che come una sfera di cristallo promette di fare luce tra le nebbie del futuro e rivelarci il nostro volto pieno di zampe di gallina e con terribili borse cadenti sotto gli occhi. Ma guardando bene dentro la sfera di cristallo, ecco che appaiono altre nebbie, ben più pericolose. A cuor leggero abbiamo scaricato l’app. È gratis, lo fanno tutti, è divertente. Ma ora, dopo aver sottoposto al suo algoritmo decine tra selfie e foto, incominciano a venirci i dubbi. Forse non avrei dovuto.
D’improvviso ci siamo chiesti che fine facciano i nostri dati.
A quali altri dati del mio telefono ha avuto accesso la app? Come è stato fatto notare, l’app scaricata da circa 80 milioni di persone (cioè più o meno gli abitanti della germania), presenta qualche perplessità. Il fatto che la dichiarazione sul trattamento della privacy di faceapp non sia aggiornata e che scaricandola si accetta di inviare loro dati personali e di navigazione ha fatto pensare che dietro ci fosse un’attività sospetta. Sia chiaro, qui non si vuol difendere faceapp. Ma la questione la dice lunga sulla nostra alfabetizzazione informatica. Se un’app è gratuita, vuol dire che riesce a remunerare i suoi creatori e sviluppatori, e a pagare l’uso di server e altre apparecchiature in un altro modo. E quest’altro modo sono i dati. I dati sono il nuovo petrolio. Combinado grandi insiemi di dati (dataset), i cosiddetti big data, è possibile ottenere correlazioni statistiche rilevanti in altri settori.
Una delle prime e più conosciute applicazioni è la previsione dell’influenza A/H1N1 del 2009.
Il dipartimento della sanità americano non riusciva a prevedere come si sarebbe diffusa la pandemia influenzale, dato che raccoglieva i dati sulla sua diffusione ancora in modo manuale. Ogni modello che veniva elaborato era costantemente indietro rispetto al diffondersi della malattia. Ecco che a google hanno un lampo di genio. Invece che fare un modello con i dati diretti di quanti si ammalano, combinandoli con un fattore di diffusione, si potevano utilizzare dati vicarianti, cioè le nostre ricerche sul motore di ricerca che avevano una correlazione con l’influenza. L’idea di fondo è questa: se non mi sento bene, cercherò su google i miei sintomi, e questo potrà dire a google in tempo reale chi si sta per ammalare e quindi in quale direzione si andrà diffondendo l’epidemia. Google in sostanza ha utilizzato i nostri dati (le nostre ricerche) per fini che non avevamo inteso. Poco male finché si tratta di prevedere un’epidemia.
Lo stesso sistema è stato utilizzato sempre da google per affinare il suo sistema di correzione automatica. Mentre microsoft ha dovuto pagare decine di linguisti e programmatori per costruire il sistema che tutti utilizziamo con word, google lo ha fatto fare a noi. Ha utilizzato i nostri errori nelle ricerche. Avete notato che ogni volta che sbagliamo a scrivere sul motore di ricerca, sotto compare la frase “forse cercavi…”? Cliccando su quel suggerimento abbiamo implicitamente detto a google: “eh sì, ho sbagliato a scrivere, hai ragione sul modo giusto in cui si scrive”. Discorso simile per google traduttore.
Vale a dire che abbiamo fatto lavoro gratuito per google.
È molto probabile che faceapp utilizzi le immagini che abbiamo caricato sui suoi server per creare un grande dataset per allenare i sistemi di riconoscimento facciale. Questo per essere buoni. Più saliamo nella scala del complottismo, più possiamo immaginare scenari distopici e antidemocratici. Alcuni hanno immaginato la creazione di un sistema di catalogazione, da utilizzare in caso di proteste. Ho un video di una sommossa, estraggo i volti e vedo se sono presenti in altri dataset, e se a questi volti è associato un nome, un numero, una via. Certo, nessuno può garantire che io abbia caricato la mia immagine per sottoporla al processo di invecchiamento. Magari volevo giocare con le foto della mia vecchia zia ottantaseienne, vedere come sarebbe se arrivasse a centovent’anni. Anche fosse così, i big data funzionano probabilisticamente, quindi il risultato non cambia. Salendo ancora nella scala del complottismo potrei anche pensare che l’app abbia carpito i dati di whatsapp, delle mie ricerche sul web, o dati che si riferiscono a me e a me soltanto. È possibile. Ciò dimostra ancora di più quanto i nostri dati valgano quanto un pozzo petrolifero. Combinando dati è possibile dominare qualsiasi cosa.
Menelique è un progetto indipendente: diventa nostro complice!
Oggi però (almeno in europa) il consenso è necessario. Ogni volta che entriamo in un sito dobbiamo accettare o meno che i nostri dati vengano utilizzati per alcuni o per altri scopi. Alcuni siti e alcune app per guadagnare vendono i nostri dati a aziende, per profilazione e per somministrarci pubblicità mirata. Non tutti, ovviamente. Ma se un sito è completamente gratis è molto probabile che lo faccia. Ma deve chiedercelo.
Il problema diventa allora quanto comprendiamo tutto questo.
Già che ci venga chiesto è un passo fondamentale. Ma nella fretta di poter usare una nuova applicazione, spesso acconsentiamo a tutto. Non serve allora piangere sul latte versato. Certo ci sono app che aggirano la legislazione europea sulla protezione della privacy. Ma ci sono app che la rispettano e a cui noi diamo i nostri dati in cambio della possibilità di utilizzare le loro funzionalità. Spesso funzionalità che non valgono tanto quanto il valore di ciò che gli concediamo di utilizzare.
Il clamore sollevato da questa storia mostra non solo come incominciamo a essere sempre più attenti agli algoritmi e all’uso che viene fatto dei nostri dati. Ma ci mostra anche come i governi lo siano sempre di più. Nel momento in cui è scoppiata la pandemia di faceapp, hanno subito drizzato le orecchie e sentito odore di bruciato. Siamo oggi tutti più consapevoli dell’uso che si può fare dei dati, anche a fini politici, anche per manipolare o influenzare una campagna elettorale.
Prendiamo per esempio il sistema elettorale e politico statunitense. È capitato più volte nel corso della storia che il risultato di un’elezione venisse deciso o da un solo stato, o anche da una sola contea. Riuscire a targetizzare gli indecisi di quella contea, riuscire a proporgli una campagna mirata, trovare i loro punti sensibili, significa vincere le elezioni. È chiaro che nessuno stato vuole che la propria politica sia nelle mani di una compagnia o di uno stato nemico.
Gli algoritmi consentono un potenziamento dei mezzi pubblicitari che sono stati utilizzati in passato. Oggi però un computer ci conosce meglio di quanto pensiamo di farlo noi stessi. Sa cosa ci piace e cosa ci disgusta, sa quali sono le corde da solleticare per farci cambiare idea. Sa cosa potremmo fare. O meglio sa cosa potrebbe fare una persona simile a noi. Gli algoritmi lavorano su probabilità e su gruppi statistici, ma il livello di precisione aumenta costantemente. Per questo diventa sempre più urgente non solo riflettere su questi temi, ma aumentare l’alfabetizzazione alle nuove tecnologie di intelligenza artificiale.
Non si tratta solo di un’app ogni tanto che non rispetta le regole. Si tratta di aver ben chiaro il valore dei nostri dati.