I rischi per la privacy nell'era dell'AI
L’intelligenza artificiale sta trasformando radicalmente il modo in cui viviamo, lavoriamo e comunichiamo; l’IA è ormai integrata in ogni aspetto della nostra quotidianità. Tuttavia, se queste tecnologie promettono maggiore efficienza, personalizzazione e comodità, al tempo stesso sollevano anche molteplici interrogativi sul tema della privacy.
Ogni interazione con un sistema di intelligenza artificiale lascia dietro di sé una traccia: dati biometrici, abitudini di consumo, preferenze personali, persino emozioni.
Ma siamo consapevoli di quali pericoli l’IA rappresenta per la tutela della privacy?
I rischi dell’AI per la privacy
Le tecnologie basate su IA si fondano sull’elaborazione di enormi quantità di informazioni, spesso raccolte, utilizzate e archiviate con modalità che mettono a dura prova la tutela della sfera personale.
Una prima criticità per la privacy legata all’intelligenza artificiale è la raccolta di dati sensibili, che si configura come uno degli aspetti più problematici; per addestrare i modelli, infatti, vengono utilizzati enormi quantità di dati di diverse tipologie, che possono contenere anche informazioni sensibili, come dati provenienti dai social media o addirittura finanziari e sanitari. Ovviamente se questi dati vengono usati nei dataset di addestramento senza essere filtrati adeguatamente, c’è il rischio concreto che molte informazioni private vengano esposte o usate in violazione dei diritti fondamentali delle persone.
Un’ulteriore area critica riguarda la modalità di acquisizione dei dati; molto frequentemente vengono usate informazioni personali per sviluppare i sistemi di IA, senza che i diretti interessati ne siano a conoscenza.
Ne sono un esempio i molti utenti di piattaforme online, tra cui troviamo anche LinkedIn, che hanno scoperto che i propri dati erano stati utilizzati per l’addestramento di modelli di IA senza essere stati adeguatamente informati.
Un terzo problema sempre più comune è rappresentato dall’uso improprio dei dati autorizzati; infatti, molte volte, i dati raccolti previa autorizzazione vengono usati per finalità diverse da quelle dichiarate inizialmente.
Infine, c’è sempre il rischio di furto di dati dai modelli AI; infatti, contenendo una miriade di dati e informazioni sensibili, c’è la possibilità che i sistemi IA diventino un bersaglio ambito dai cybercriminali.
Anche le fughe accidentali di dati non sono da sottovalutare, poiché alcuni modelli di intelligenza artificiale si sono dimostrati vulnerabili a perdite accidentali di informazioni.
GDPR e AI Act
Ovviamente un sistema di IA necessita di elaborare un grande volume di dati in ogni fase del suo ciclo di vita, fin dalla fase di progettazione; queste informazioni comprendono, come detto, anche dati personali e sensibili e di conseguenza tali sistemi devono rispettare i principi stabiliti dal GDPR (Regolamento Generale sulla Protezione dei Dati). Questo regolamento si applica a qualsiasi trattamento automatizzato di dati personali, indipendentemente dalla tecnologia impiegata, e di conseguenza anche ai sistemi basati su AI, quando trattano dati riferibili a persone fisiche.
In particolare l’articolo 22 del GDPR si occupa del “processo decisionale automatizzato”, ovvero quelle decisioni prese interamente da algoritmi senza alcun intervento umano e che possono avere effetti significativi sulla vita delle persone. Molti sistemi di intelligenza artificiale vengono impiegati proprio per automatizzare decisioni e, di conseguenza, questa disposizione risulta di estrema rilevanza e rappresenta una tutela chiave per i diritti degli interessati.
L’AI Act, il regolamento specifico per l’IA, incorpora principi che richiamano direttamente quelli presenti nel GDPR. Tra questi, figurano la trasparenza, l’equità, il rispetto della vita privata, la solidità tecnica e la sicurezza — concetti che rispecchiano i principi fondamentali di liceità, correttezza, riservatezza e sicurezza dei dati personali sanciti dall’articolo 5 del GDPR.