(di Michela Nicolais, “La Voce”, 17 maggio 2019)
Le straordinarie potenzialità delle nuove tecnologie esigono uno statuto di regole capace di restituire alla persona quella centralità altrimenti negata dall’economia digitale, fondata sullo sfruttamento dei dati”. Parole di Antonello Soro, presidente dell’autorità Garante per la protezione dei dati personali, intervenuto alla seconda giornata del convegno Cei “Comunità digitali”, che si è tenuto ad Assisi dal 9 all’11 maggio. Lo abbiamo intervistato.
Quali sono i principali rischi a cui l’economia digitale espone gli utenti della Rete?
“Lo sfruttamento dei dati è la materia prima di un nuovo ‘capitalismo estrattivo’ alimentato da frammenti, spesso delicatissimi, della nostra vita. La stessa Rete sta subendo una trasformazione radicale, perdendo la sua capacità generativa, con il rischio di ridursi a quei minimi interstizi che residuano nell’incrocio di piattaforme sempre più estese e potenti, alimentate dagli utenti, spesso ignari di cedere, in cambio di utilità piccole o grandi, frammenti della propria libertà. Ma la monetizzazione dei dati personali e, con essi, dell’identità individuale non è il solo rischio cui un utilizzo incontrollato delle nuove tecnologie può portare, in assenza di un governo lungimirante che ne orienti lo sviluppo in funzione della persona. Papa Bergoglio ha indicato il rischio di rendere gli utenti della Rete degli ‘eremiti sociali’: paradossalmente, proprio la società della comunicazione globale rischia di non conoscere più la relazione”.
Quanto conta, in questo processo, lo strapotere degli algoritmi?
“L’algoritmo apprende dal nostro comportamento passato e rafforza e conferma le nostre opinioni, indebolendo quell’etica del dubbio che è il presupposto necessario del rispetto delle diversità e di ogni altra attitudine democratica. La bolla di filtri autoreferenziale in cui ci muoviamo rischia, dunque, di renderci sempre più intolleranti verso le differenze, negando il pluralismo informativo e le stesse straordinarie opportunità di arricchimento cognitivo che pure la rete potrebbe offrire. Come dimostra il caso di Cambridge Analytics, l’applicazione del microtargeting e della pubblicità occulta alla propaganda politica può avere effetti dirompenti sul funzionamento delle democrazie, eludendo con un click istituti – dalla par condicio alle norme sul finanziamento dei partiti, al silenzio elettorale – pensati proprio per consentire lo svolgimento dell’attività politica, e in particolare della competizione elettorale, in condizioni pari-ordinate. Ed è significativo che il legislatore europeo abbia recentemente introdotto una disciplina specificamente volta a sanzionare i tentativi di condizionamento, mediante uso illecito di dati personali, delle elezioni per il Parlamento europeo”.
Cosa succede ogni giorno ai “profili” di tutti noi, utenti della Rete?
“Le piattaforme digitali fondano i loro profitti sulla vendita di spazi pubblicitari ritagliati su misura degli utenti o, meglio, del profilo che di ciascuno di loro gli algoritmi hanno stilato. L’effetto che ne risulta sul piano sociale è quello di una polarizzazione estremistica, perché i social concedono spazio a contenuti che si sa che attrarranno manifestazioni di gradimento o avversità, commenti, semplici click, perché divisivi o al contrario aggreganti. E generalmente capaci di ciò sono i contenuti di più alto valore emotivo, che fanno leva sugli istinti di rabbia, paura, ostilità, solidarismo giocato sull’antagonismo nei confronti del ‘nemico opportuno’. Ciò che conta, insomma, nell’economia digitale è la possibilità di ricondurre un dato non tanto e non solo a una specifica identità, quanto piuttosto a un profilo, determinando effetti significativi e, spesso, anche potenzialmente discriminatori, in capo agli interessati”.
Si può, e in che modo, contrastare questo meccanismo?
“A fronte di tutto questo è importante il rafforzamento dei diritti dell’interessato, con anche implicazioni nuove quali la portabilità dei dati – che consente di ricomporre le tessere del mosaico del nostro io digitale, proteggendo anche la concorrenza dei fenomeni di lock-in – e l’oblio, tramite un equilibrio tra storia individuale e memoria collettiva. La strada da percorrere attiene alla duplice tutela della persona. Da realizzare a partire da una consapevolezza di ciascuno dell’importanza di proteggere i propri dati, non svendendoli in cambio di qualunque servizio offerto apparentemente gratis. E da rafforzare poi con un governo complessivo della società digitale basato sui limiti chiari alle possibilità di concentrazione di poteri basati sullo sfruttamento dei dati. Un analogo statuto di regole capaci di rimettere la persona al centro di un processo d’innovazione altrimenti anemico dovrebbe presiedere anche alla diffusione, sempre più pervasiva, dell’intelligenza artificiale nelle nostre vite”.
In che modo la disciplina di protezione dei dati può essere un argine alle possibili derive?
“È una delle risorse più preziose che abbiamo: non soltanto perché i dati personali sono il motore dell’intelligenza artificiale, ma anche e soprattutto perché la disciplina di protezione dati, pure tecnologicamente neutrale, è il settore normativo più avanzato e maggiormente capace di riportare l’uomo al centro di un mutamento – non solo tecnologico, ma anche sociale, etico, culturale, persino simbolico – che altrimenti rischia di sfuggire”.