(Media2000, 19 novembre 2014)
Siamo immersi in nell’economia digitale, favorita ed alimentata dall’enorme volume dei dati circolanti (particolarmente quelli immessi in rete), così come dalla velocità ed eterogeneità delle fonti da cui provengono. Il crescente numero dei dispositivi mobili posti nella disponibilità di ciascuno di noi, la diffusione di sensori intelligenti (il cosiddetto “Internet ofThings”), nonché l’interazione e lo scambio continuo di messaggi (inclusi foto, video etc.) attraverso le reti sociali, hanno rivoluzionato la possibilità di generare, condividere e soprattutto raccogliere dati. Le nuove capacità di analisi, sempre più potenti e meno costose, e quelle di elaborazione, anche in tempo reale, di questa ingente mole di informazioni (strutturate e non), spesso carpite agli utenti, consentono di estrarre conoscenza e, ormai in misura crescente, di effettuare valutazioni predittive sui comportamenti degli individui al fine di condizionarne scelte o decisioni.
Non sempre le operazioni coinvolgono dati personali, ma l’enorme potenzialità dei Big Data, anche rispetto a dati anonimi o aggregati, solleva preoccupazione in merito ai rischi di nuove forme di discriminazione che possono derivare per gli individui da profìlazioni sempre più puntuali ed analitiche. Dati che svolgono per l’interessato una funzione di utilità sociale in un determinato contesto (dati sensibili utilizzati per ricerche scientifiche) possono provocare un grave pregiudizio in un altro (richiesta dt attivazione di coperture assicurative). Per questo uno dei principi cardine in tema di protezione dei dati che più di altri merita di essere richiamato, è proprio l’affermazione del diritto degli individui di non essere sottoposti a misure che producano effetti giuridici o che incidano significativamente sulla vita, basate unicamente su trattamenti automatizzati destinati a valutare aspetti della personalità (quali rendimento professionale, situazione economica, ubicazione, stato di salute etc.).
Le sfide poste dai Big Data richiedono non solo massima attenzione con riferimento agli aspetti della sicurezza dei sistemi e delle infrastrutture utilizzate, ma un pensiero innovativo sulla capacità delle norme giuridiche di tutelare in modo effettivo la privacy, avendone chiari i limiti. Di fronte ai dubbi sollevati dalla grande raccolta di dati, il tradizionale paradigma “informativa – consenso” rischia di non garantire tutela adeguata in una realtà dove, appunto, i dati possono essere utilizzati e riutilizzati più volte per finalità diverse ed imprevedibili al momento della raccolta, le tecniche di re-identificazione sono sempre più raffinate, le informazioni sono ricavabili – anche all’insaputa degli interessati – da insiemi di dati (o da loro correlazioni) che, in origine, non erano personali. Alcuni principi come quelli di finalità o di conservazione dei dati per tempi definiti e strettamente necessari rischiano di apparire anacronistici rispetto alla logica dei Big Data che si fonda sull’accumulo massiccio dci dati. In questo quadro, il Working Party art. 29, che riunisce le Autorità europee di protezione dei dati, ha di recente affermato che le norme giuridiche di riferimento rimangono comunque valide in termini di obiettivi e principi anche per il mondo dei Big Data, ma richiedono nuove modalità di applicazione per poter essere pienamente efficaci.
In una cornice così complessa, che più di ogni altra deve essere contestualizzata al di là delle frontiere disciplinari e geografiche, la riforma del quadro normativo dell’UE per la protezione dei dati (dossier tra i più delicati che l’Italia, Presidente di turno del semestre europeo, è chiamata a gestire) ha l’ambizione di incorporare la tutela dei diritti nelle tecnologie (si parla a tal fine di “privacy by design”, di “privacy by default”, di “valutazioni di impatto privacy” etc.), affinchè lo sviluppo delle potenzialità offerte dallo sfruttamento innovativo dei dati sia rispettoso delle persone e, soprattutto, sostenibile.
La discussione intorno alle potenzialità dei Big Data ed ai rischi per la protezione dei dati non può comunque essere affrontata soltanto considerando l’effettività delle norme giuridiche e le possibili soluzioni che la tecnologia (che peraltro muta continuamente) è in grado di offrire.
Poiché è crescente il numero di soggetti (banche, compagnie assicurative, enti di ricerca ma anche organi di sicurezza) interessati a sfruttare le potenzialità che derivano dalle analisi dei dati, è opportuno che vengano preliminarmente bilanciati i possibili benefici sociali, pcr gli individui e per la collettività, con il pregiudizio che anche solo potenzialmente può essere arrecato alla privacy.
Occorre dunque un approccio etico sull’utilizzo responsabile dei dati, sulla sostenibilità sociale delle attività di analisi che possono essere consentite, anche al fine di evitare raccolte indiscriminate, senza limiti e senza garanzie come dimostrato dalla vicenda del Datagate.
Una riflessione che richiede da parte dei mercati e delle stesse istituzioni una maggiore trasparenza degli obiettivi che si intendono perseguire — e delle modalità per farlo – quale elemento imprescindibile per garantire la fiducia degli utenti e dei cittadini. In questo senso anche la recente Risoluzione adottata dalla Conferenza internazionale delle Autorità di protezione dei dati richiama l’importanza che le decisioni e le scelte riguardo all’utilizzo dei Big Data siano eque e trasparenti.
Nei prossimi anni la compatibilita e la conformità ai principi di protezione dei dati delle attività connesse all’analisi dei Big Data sarà il vero campo per valutare il modello della nuova società digitale che si intende costruire e, soprattutto, per misurare la forza di valori fondamentali quali il valore della dignità e della libera costruzione dell’identità di ciascuno.