Giornata Europea della protezione dei dati personali 2018
30 gennaio 2018
“Dio è il primo tecnico. La tecnica è l’ultimo dio“. Così Emanuele Severino descrive “la tendenza fondamentale del nostro tempo”, ovvero l’abbandono, da parte della tecnica, del suo carattere strumentale, per assurgere a fine in sé, esponendo l’uomo al rischio di divenire, paradossalmente, egli stesso strumento della tecnica anziché suo signore.
E se già nel primo novecento il “dominio della tecnica” fu considerato tratto distintivo del post-moderno, esso caratterizza ancor più marcatamente il nostro tempo, profondamente mutato dalle nuove tecnologie e dalle loro implicazioni sociali, economiche, persino politiche ed esistenziali.
Il 27 dicembre 1982 la rivista “Time” dedicava al computer – per la sua “grande influenza nella nostra vita quotidiana” – la propria copertina, assegnando per la prima volta la qualifica di soggetto dell’anno a una “macchina” anziché a una persona.
La pubblicazione – che sembrò quasi suggerire la fine della centralità culturale e sociale dell’uomo – precedeva di poco più di un anno quel 1984 in cui George Orwell prefigurava, già settant’anni fa, la riduzione dell’uomo a codice e l’affermazione della sorveglianza totale quale tecnica di governo della complessità sociale.
Non si trattava, del resto, di una preoccupazione isolata se pochi anni dopo Erich Fromm avrebbe osservato come “la civiltà sta producendo macchine che si comportano come uomini e uomini che si comportano come macchine. Il pericolo del passato era che gli uomini diventassero schiavi. Il pericolo del futuro è che gli uomini diventino robot”.
Il progresso tecnologico appariva pertanto- già prima dell’avvento di internet- come talmente capace di sconvolgere i parametri del vissuto individuale e collettivo, da rovesciare l’interrogativo su cosa l’uomo possa fare delle macchine nel suo inverso: cosa le macchine possano fare dell’uomo.
Se, dunque, il mero calcolatore suggeriva l’idea di un potere smisurato della tecnica e del costo umano del progresso, la rivoluzione -cognitiva, simbolica, antropologica- determinata da internet (of things, of toys, of beings) e dall’intelligenza artificiale, dovrebbe oggi indurci ad un supplemento di riflessione.
Essenzialmente perché il digitale è divenuto la trama stessa delle nostre vite, agente potentissimo di trasformazione sociale, struttura e sovrastruttura insieme, testo e contesto: la cornice entro cui si svolge ogni espressione dell’uomo, che condiziona secondo i soli parametri della funzionalità e dell’efficienza.
Con internet, la tecnologia da strumento si è fatta dimensione, ecosistema in cui siamo così profondamente immersi da non renderci conto, fino in fondo, delle sue implicazioni.
Che si estendono dal lavoro (con inquietanti interrogativi sulle prospettive di occupazione) alla salute e alla ricerca scientifica ma anche alla giustizia, che finisce con il divenire “predittiva”, affidando agli algoritmi persino quelle decisioni dirimenti sull’uomo -colpevolezza, libertà, punibilità-che sembravano l’ultimo baluardo della sovranità e, quindi, della razionalità umana.
L’impatto sull’esistenza individuale e collettiva non è, del resto, meno rilevante.
La genomica infrange il dogma dell’immutabilità del testo del nostro futuro, così come scritto nei cromosomi.
Con le tecnologie indossabili la persona è modificata nella sua stessa fisicità: incorpora la tecnica e, quindi, la predisposizione al controllo. Il corpo diviene una password che rende accessibile a chiunque la nostra identità più remota; la fisicità è ridotta a superficie di scrittura di un’identità indifesa.
Del resto, affidare a un algoritmo impronte digitali, reticolo venoso, iridi, può sottrarci quanto di più intimo custodiamo come riferimento ultimo del nostro essere.
Gli algoritmi determinano, infatti, non soltanto la nostra percezione del mondo, ma la nostra stessa identità, che con internet diviene necessariamente plurale, affiancandosi a quella fisica anche un caleidoscopio di identità digitali che concorrono, fin quasi a prevalere, sulla prima.
E finiremo con l’essere sconosciuti a noi stessi ma trasparenti a chiunque sia capace di estrarre frammenti di noi dalla galassia delle nostre tracce on-line. E’ quello che Derrick de Kerckhove chiama inconscio digitale: ciò che ancora non sappiamo di noi ma che la rete sa, per effetto del pedinamento dello sciame informativo prodotto dal nostro comportamento on-line.
Nel 2016 abbiamo generato tanti dati quanti ne ha prodotti l’intera storia dell’umanità sino al 2015.
Tra dieci anni questa quantità raddoppierà ogni 12 ore.
Attualmente il 70 % delle transazioni finanziarie è realizzato mediante algoritmi e il valore dei dati personali cresce progressivamente. L’innovazione digitale nel sistema finanziario darà un forte impulso alla crescita dell’economia globale.
Le grandi compagnie tecnologiche sono impegnate a tradurre i big data in megaprofitti.
Scienziati e ingegneri in tutto il mondo puntano al prossimo salto nella capacità di elaborazione, ai cosiddetti supercomputer alla esascala, con capacità di calcolo fino a mille volte quelle dei migliori supercomputer attuali: macchine in grado di risolvere problemi che oggi non è possibile affrontare in campi diversi come la climatologia, le energie rinnovabili, la genomica, la geofisica.
L’intelligenza artificiale, dal canto suo, diviene sempre più capace di auto-apprendimento e, quindi, di autonomia.
E viene usata sempre più spesso a fini di difesa, con il ricorso a dispositivi la cui intrinseca predisposizione al dual use fa sfumare il confine tra civile e militare.
Il passaggio dalla “guerra ibrida all’iperguerra informatica” si annuncia come tutt’altro che irrilevante.
E’ significativo che personalità come Elon Musk, Bill Gates o Stephen Hawking manifestino forti preoccupazioni sui rischi legati agli sviluppi dell’intelligenza artificiale.
Per altro verso, è convincimento diffuso tra gli esperti che nei prossimi dieci o al massimo vent’anni, circa la metà dei lavori attuali saranno realizzati da macchine dotate di intelligenza artificiale.
E non solo lavori manuali, ma soprattutto lavori che comportano lo sviluppo di processi intelligenti. Molti osservatori prevedono una grande crisi occupazionale, non delle tute blu ma dei colletti bianchi, e non è infondato il rischio di una stagione di grandi tensioni sociali a livello globale.
Pur non accedendo alla teoria del pendio scivoloso e dunque al netto di ogni visione apocalittica, ciò che è certo è che stiamo vivendo la più radicale trasformazione sociale, economica, antropologica, persino politica, dalla fine della seconda guerra mondiale.
L’assunzione di lavoratori, la determinazione dell’affidabilità per un prestito, la valutazione della capacità di un insegnante, persino il rating di legalità ai fini dell’aggiudicazione degli appalti sono sempre meno il frutto di una scelta umana e sempre più l’esito di selezioni algoritmiche, alle quali deleghiamo, quasi fideisticamente, il compito di decidere aspetti determinanti della vita delle persone.
Presto ogni oggetto attorno a noi, persino il nostro abbigliamento, sarà connesso: si stima che in 10 anni vi saranno 150 miliardi di sensori in rete, 20 volte di più della popolazione mondiale.
Ogni cosa, dunque, sarà “smart”: non solo i telefoni ma anche le nostre auto, le nostre case, le nostre città; l’internet degli oggetti e l’analisi dei big data convergeranno con l’intelligenza artificiale e i sistemi biometrici: in definitiva vivremo in un pianeta “intelligente”.
Tutto ciò favorirà certamente, per un verso, un netto miglioramento della qualità della vita, liberandoci – come già oggi è evidente- del peso di molte incombenze quotidiane e dischiudendo possibilità prima precluse.
Ma il processo di connessione di tutte le cose deve essere governato con lungimiranza, per minimizzare i rischi cui già oggi questi fenomeni ci espongono.
L’apparente “innocuità” di oggetti di uso quotidiano (si pensi alle bambole-robot o alla domotica) ci induce, infatti, a sottovalutare in primo luogo la probabilità che essi rappresentino il canale di accesso elettivo per attacchi informatici e hacker capaci di sfruttarne le vulnerabilità.
In secondo luogo, di questi dispositivi sottovalutiamo la capacità di rivelare, mediante l’uso secondario dei dati raccolti, stili di vita, capacità economica, persino patologie o dipendenze.
La normativa di protezione dati, sotto questo profilo, rappresenta un fondamentale presidio di garanzia, tanto in termini di diritti esercitabili dall’utente quanto in termini di complessiva responsabilizzazione dei titolari, a vario titolo coinvolti, nella sempre più articolata filiera in cui si snodano questi trattamenti.
E dovrebbe servire per minimizzare il rischio, inaccettabile anzitutto sul piano culturale, di intendere la cessione dei propri dati, quale tributo necessario alla fruizione dei vantaggi offerti dal pianeta connesso.
Numerose applicazioni hanno dimostrato che gli algoritmi non sono matematica pura -infallibile e neutra- ma piuttosto opinioni umane strutturate in forma matematica e riflettono quindi spesso, in misura più o meno rilevante, le precomprensioni di chi li progetta o le serie storiche assunte a riferimento.
Con il rischio, dunque, non soltanto di cristallizzare il futuro nel passato, leggendo sempre il primo con gli schemi del secondo, ma anche di assumere le correlazioni (quasi sempre contingenti) delle serie storiche considerate, come relazioni necessariamente causali.
Un algoritmo utilizzato negli Usa per il calcolo del rischio di recidiva penale si è dimostrato, ad esempio, incline ad assegnare – in assenza di ragioni criminologiche -un tasso maggiore ai neri rispetto ai bianchi, solo sulla base delle correlazioni desunte da una determinata serie storica assunta a riferimento.
Il risultato che si trae dall’impiego di tecnologie che dovrebbero assicurare la massima terzietà rischia dunque di essere, paradossalmente, più razzista, lombrosiano o anche solo antistorico di quanto possa essere la pur fallibile razionalità dell’uomo.
Eppure la giustizia predittiva continua a esercitare un fascino particolare, assecondando l’antica idea di un diritto talmente positivo da essere capace di autoapplicazione senza l’intermediazione umana, legittimato non dalla sovranità ma dalla sua stessa, sola, infallibilità.
E’ lecito chiedersi se questa giustizia, paradossalmente così performativa, sarà ancora umana e se, quando ad emettere le sentenze sarà un algoritmo anziché un uomo, saranno garantite davvero la giustizia e l’equità.
La discriminazione algoritmica rischia pertanto, se non sapientemente governata, di approfondire le iniquità alle quali vorrebbe ovviare, senza che ne siamo neppure consapevoli perché la precomprensione coperta da veste statistica non ci appare più tale e perché le modalità di decisione algoritmica non sono sindacabili perché neppure conoscibili.
Non va poi sottovaluto l’impatto degli algoritmi sulla formazione dell’opinione e della stessa coscienza individuale.
Secondo Dominique Cardon, il 95% degli internauti si concentra sullo 0,03% dei contenuti potenzialmente disponibili on-line, per effetto della gerarchizzazione delle notizie determinata dai motori di ricerca, in base a criteri tutt’altro che neutri perché desunti anche dal nostro comportamento on-line.
Con una sorta di cornice cognitiva basata non sul riconoscimento dell’altro ma sul rispecchiamento del sé, ci viene dunque proposto ciò che assomiglia di più all’immagine di noi che si è costruito il motore di ricerca.
Traendo informazioni dal nostro comportamento passato, l’algoritmo rafforza e conferma le nostre opinioni, indebolendo quell’etica del dubbio che è il presupposto necessario del rispetto della differenza e di ogni altra attitudine democratica.
Come schiavi digitali, siamo così prigionieri di una bolla di filtri autoreferenziale, capace di renderci sempre più intolleranti verso le differenze e di negare il pluralismo informativo e le stesse straordinarie opportunità di arricchimento cognitivo che pur la rete potrebbe offrire.
Sul piano politico, la possibilità offerta dagli algoritmi di “informatica persuasiva” di personalizzare i contenuti proposti agli utenti per renderli maggiormente appetibili e appunto persuasivi, ha sancito l’affermazione del “big nudging”. Ovvero dell’uso dei big data e di metodi profilativi per esercitare quel tipo di intervento pubblico di stampo paternalistico, fondato appunto sul “nudge” (pungolo), che consente di “guidare” la condotta dei cittadini persuadendoli all’adozione di comportamenti socialmente desiderabili.
Come dimostrano questi sommari esempi, dunque, il tema della neutralità dell’algoritmo, dell’equità delle sue soluzioni e, più in generale, della sostenibilità etica e giuridica della tecnologia diviene, oggi, una questione democratica cruciale.
Per scongiurare – o quantomeno minimizzare- i rischi connessi al digitale, valorizzando peraltro le sue straordinarie opportunità, è necessaria un’assunzione di responsabilità da parte di ciascun soggetto coinvolto nel governo della tecnologia, che per restare “umano” deve incentrarsi su irrinunciabili principi etici e giuridici.
La tecnica dev’essere progresso, in primo luogo umano e sociale, non cieco positivismo, pena la negazione delle essenziali conquiste di civiltà raggiunte nel corso della storia. In questo senso è necessaria un’etica per l’algoritmo, da strutturarsi nel rispetto dei principi, in particolare di dignità e non discriminazione, fondativi dello Stato di diritto.
Vi è in gioco, del resto, anche una sfida culturale: non cedere all’idea che la nostra persona sia definita dal punteggio attribuitogli da un sistema di classificazione e valutazione computerizzata, irresponsabile e dal funzionamento opaco.
Di qui l’importanza delle norme del Regolamento generale sulla protezione dei dati sulla contestabilità e la trasparenza del processo decisionale automatizzato, dei suoi criteri e delle sue conseguenze, esigendo la possibilità di un intervento umano, contrastando la delega assoluta al cieco e neppure neutro determinismo dell’algoritmo.
Del resto, la disciplina sulla protezione dati delinea una cornice generale al cui interno possono ricondursi i più complessi fenomeni con i quali dobbiamo oggi confrontarci.
Così per l’iperconnettività favorita dall’internet degli oggetti, il nuovo quadro giuridico europeo sancisce alcune garanzie essenziali per impedire che in questo flusso ininterrotto di dati l’uomo, da sua fonte, divenga oggetto di un potere che lo trascende.
La salvaguardia dell’autodeterminazione informativa, dell’autonomia e della responsabilità delle scelte – articolata non soltanto nei vari istituti del consenso informato, ma anche nella valutazione di impatto privacy, della minimizzazione del trattamento, della protezione sin dalla progettazione e per impostazione predefinita – è in questo senso presidio essenziale per mantenere il governo sulle nostre tracce digitali, che più di ogni altro aspetto concorrono oggi a definire la nostra identità e, con essa, la nostra libertà.
Tutto questo diverrà ancor più importante con l’avvento dell’internet of beings e, dunque, l’incorporazione delle nuove tecnologie all’interno della nostra stessa fisicità, che determineranno mutamenti radicali nell’antropologia, nel rapporto tra natura e cultura, biologia e biografia, perdendo la prima la funzione di limite della seconda.
In tale contesto, noi pensiamo che nella dignità e non nella materialità del dato biologico vada ricercato il limite oltre cui la tecnica non può e non deve spingersi.
E in un mondo iperconnesso e in un’economia fondata sui dati e alimentata dall’intelligenza artificiale, presupposto per la dignità e quindi anche per la libertà dell’uomo è la protezione di ciò che, come i suoi dati personali, lo caratterizza più emblematicamente.
E se il diritto in generale svolge oggi, sempre più, una funzione di umanizzazione della tecnica- soprattutto quando il soggetto di diritti rischia di divenire mero oggetto di calcoli predittivi e tecniche manipolative – il diritto alla protezione dei dati rappresenta una straordinaria risorsa per mantenere la persona, nella sua libertà e nella sua responsabilità, al centro della società digitale.