L'intelligenza artificiale e i dati sanitari: una combinazione ricca di promesse ma con diverse insidie nell’ambito privacy

Di Sophie Bernard - Privacy & Data Protection Manager

L'intelligenza artificiale (IA) irrompe nel campo medico, aprendo nuove prospettive rivoluzionarie per la diagnosi, il trattamento e la prevenzione delle malattie. L'analisi dei dati sanitari su vasta scala alimenta algoritmi sempre più avanzati, in grado di rilevare modelli, prevedere rischi, ottimizzare i costi, personalizzare le terapie, ecc. Tuttavia, questa corsa alla transizione dalla società digitale a quella algoritmica, non deve trascurare la protezione di un diritto fondamentale: la protezione dei dati dei cittadini.

Mentre l'Unione Europea si prepara a rilasciare la versione definitiva del Regolamento sull'Intelligenza Artificiale (AI Act), anche oltre oceano si nota un crescente interesse per le possibilità offerte dall'Intelligenza Artificiale in campo medico. Una sfida che coinvolge gli stati membri dell'UE e gli Stati Uniti in modi differenti: i primi, con un focus sull'aspetto umano e, quindi, con l’obbiettivo di garantire la salvaguardia dei diritti fondamentali dell’uomo. I secondi invece, rivolgono una maggiore attenzione agli aspetti commerciali, con una visione tipicamente “business oriented”.

In questo contesto, l’AI Act mira a garantire un utilizzo dell'intelligenza artificiale che sia sicuro, rispettoso dei diritti fondamentali e della democrazia. Nonostante le lodevoli intenzioni, sorgono domande riguardo all'effetto di tale legge sul trattamento dei dati personali, sulla privacy e sulla sicurezza informatica delle imprese.

Quali sono i rischi per la protezione dei dati? Come comportarsi in questo nuovo scenario? Quali saranno le implicazioni dell'AI Act per il futuro della medicina? Come si concilieranno le esigenze di innovazione con la tutela della privacy?

Questo articolo si propone di integrare la nostra serie di articoli sull’IA pubblicati in precedenza sul nostro Business Blog, fornendo un'analisi approfondita dell’uso dell'IA nell’elaborazione dei dati relativi alla salute e delle sue implicazioni per la tutela dei diritti e delle libertà degli individui.  

Quali sono i rischi per la privacy?
L'utilizzo di sistemi di IA in ambito sanitario comporta l'elaborazione di dati particolarmente sensibili, come diagnosi, referti, immagini cliniche e informazioni genetiche. La loro fuga o il loro uso improprio potrebbero avere conseguenze devastanti per la vita privata e la dignità degli individui. Si pensi ad esempio ad un sistema di IA che analizza le cartelle cliniche per individuare i pazienti a rischio di diabete; se queste informazioni fossero sottratte o utilizzate per fini commerciali, le conseguenze potrebbero essere disastrose.

I dati sanitari rientrano nel novero dei dati sensibili e, come tali, risultano essere più suscettibili a rischi di discriminazione, abuso o violazioni della privacy se utilizzati o divulgati impropriamente. Per evitare ciò, bisognerà quindi prestare la massima attenzione riguardo a due aspetti: da un lato, l'uso improprio da parte di individui, dall'altro, le criticità potenziali legate alla progettazione degli algoritmi.

L’uso improprio dei dati sanitari e l’abuso dei sistemi di IA da parte degli individui potrebbe condurre a diversi tipi di discriminazioni e altre conseguenze devastanti per le persone:

  • In ambito lavorativo: I datori di lavoro potrebbero utilizzare i record medici per discriminare i potenziali assunti o per licenziare dipendenti con determinate condizioni di salute.
  • Per l’accesso al credito: Banche e istituti finanziari potrebbero usare i record medici per rifiutare prestiti o mutui nei confronti di individui con particolari patologie.
  • L’esclusione da coperture assicurative: Le compagnie assicurative possono basarsi sui dati di salute per negare la copertura o aumentare i premi a persone con condizioni preesistenti. Ad esempio, le aziende che offrono polizze sulla vita potrebbero negarle a quegli individui con particolari problematiche di salute. Altre compagnie di assicurazione viaggi potrebbero rifiutare la copertura nei confronti di quei soggetti che presentano patologie pregresse e, ancora, taluni dati sanitari potrebbero essere utilizzati per limitare l'accesso a determinati servizi sanitari.
  • Ai fini di estorsione: I dati medici potrebbero essere utilizzati come arma  di minaccia nei confronti delle persone: si pensi ad esempio alla minaccia di divulgazione di informazioni sensibili inerenti ad una particolare patologia nel caso in cui non venissero soddisfatte le richieste del reo, o più semplicemente alla loro divulgazione ai fini di vendetta.

Si immagini poi un soggetto affetto da una malattia genetica che aumenta il rischio di un particolare tipo di cancro; qualora tali informazioni fossero violate, potrebbero essere sfruttate per discriminare la persona in varie forme. Un'assicurazione sanitaria potrebbe ad esempio rifiutare la copertura contro il cancro, un datore di lavoro potrebbe licenziare la persona affetta da tale patologia per timore dell'infermità o un individuo potrebbe fare pressioni minacciando di diffondere al pubblico la condizione del malato.

Inoltre, le informazioni sulla salute rappresentano un obiettivo allettante per cybercriminali e hacker. Il furto di tali dati potrebbe alimentare un mercato nero in crescita, con gravi conseguenze economiche e psicologiche per le persone coinvolte.

Un'altra minaccia significativa riguarda la digitalizzazione dei dati sanitari, che potrebbero rappresentare una risorsa preziosa per le grandi aziende tecnologiche in caso di utilizzo di tali informazioni a fini commerciali, come la profilazione pubblicitaria o per lo sviluppo di nuovi prodotti farmaceutici.

Altri potenziali rischi possono derivare dalla configurazione o dall’impostazione degli algoritmi stessi e, in particolare:

  • L'analisi di dati sanitari su larga scala potrebbe condurre alla profilazione sanitaria, ovvero alla creazione di “profili di salute” personalizzati utilizzando l'intelligenza artificiale sui dati di salute di singoli individui o gruppi della popolazione. Questi dati sensibili comprendono diagnosi, trattamenti, predisposizioni genetiche e stili di vita, diventando risorse preziose per le compagnie assicurative, le industrie farmaceutiche ed altri stakeholder del settore. Algoritmi discriminatori potrebbero perpetuare stereotipi dannosi o limitare l'accesso a cure e servizi cruciali. Sorge quindi il timore che l’elaborazione di una mole di dati sempre più importante e/o che gli errori commessi durante le fasi di sviluppo e di allenamento dei sistemi di IA possano condurre ad abusi e discriminazioni per le persone, negando loro determinate coperture, opportunità di lavoro, ecc. La qualità delle capacità predittive di un sistema di IA varia in funzione di una pluralità di elementi come il numero, la qualità e l’accuratezza dei dati di addestramento. Il Garante italiano, in un provvedimento del 24 gennaio 2024, ricorda che il GDPR sancisce il principio di non discriminazione algoritmica (cfr. considerando n. 71). In base a questo principio, il titolare del trattamento deve utilizzare procedure matematiche o statistiche adeguate per la profilazione, attuare misure tecniche e organizzative per garantire la sicurezza dei dati personali e minimizzare il rischio di errore, rettificare i fattori che causano inesattezze nei dati, e impedire effetti discriminatori nei confronti di persone fisiche.
  • L'opacità di alcuni sistemi di IA: La mancanza di trasparenza in alcuni sistemi di intelligenza artificiale complica la comprensione delle logiche sottese alle decisioni automatizzate. Questa mancanza di chiarezza compromette la fiducia dei cittadini e ostacola il loro controllo sull'utilizzo dei propri dati personali. In Italia si discute vivacemente sull'impatto dell'intelligenza artificiale nel settore medico sulla protezione dei dati. Al riguardo, si richiama la sentenza del Consiglio di stato del 13 dicembre 2019, secondo la quale “ognuno ha diritto a conoscere l’esistenza di processi decisionali automatizzati che lo riguardino e in questo caso a ricevere informazioni significative sulla logica utilizzata”.
  • Il rischio della de-anonimizzazione (il cd. Reverse Engineering): Nonostante i dati sanitari vengano resi anonimi, c'è il timore che possano essere facilmente collegati all'individuo originale, compromettendo la tutela dei dati personali. Algoritmi avanzati e tecniche di incrocio dei dati possono correlare delle informazioni sanitarie ad altri dati provenienti dai social network, dai dispositivi indossabili, dalle app per la salute e da altri sistemi, rivelando così l'identità dei pazienti. In una recente decisione del 8 febbraio 2024, il Garante italiano per la Protezione dei Dati ha emesso un provvedimento nel quale ha rammentato la necessità di adottare idonee tecniche di anonimizzazione per la realizzazione di un database internazionale volto a migliorare le cure dei pazienti attraverso la raccolta e l’analisi di dati sanitari.

Come conciliare innovazione e privacy?

L'IA ha il potenziale per rivoluzionare il settore Life Sciences, ma solo se la tutela della privacy sarà considerata un elemento imprescindibile per un futuro sicuro e trasparente. L'Europa si è dotata di un quadro normativo solido per la protezione dei dati personali, il Regolamento Generale sulla Protezione dei Dati (GDPR). Il GDPR pone principi rigorosi per il trattamento dei dati sanitari, che deve:

  • Essere lecito, corretto e trasparente,
  • Essere svolto per finalità specifiche, esplicite e legittime,
  • Essere finalizzato ad una raccolta dei dati che sia adeguata, pertinente e limitata al minimo necessario per le finalità perseguite,
  • Prevedere la conservazione dei dati per un periodo di tempo non superiore a quello necessario per le finalità del trattamento, e
  • Essere effettuato in modo da garantire la sicurezza e la riservatezza dei dati.

Inoltre, l'adozione di misure tecniche e organizzative adeguate è fondamentale per minimizzare i rischi legati al trattamento dei dati sulla salute. La pseudonimizzazione e l'anonimizzazione dei dati, la crittografia e l'adozione di protocolli di sicurezza rigorosi sono solo alcuni esempi.

Infine, la formazione degli operatori sanitari e la sensibilizzazione dei cittadini sono due aspetti chiave per una cultura della privacy efficace. È fondamentale che tutti gli attori coinvolti siano consapevoli dei rischi e delle best practices per la protezione dei dati sanitari.

L'obiettivo dell’Europa, che si pone in prima linea per la tutela della privacy, è di sviluppare un'intelligenza artificiale affidabile e responsabile, che ponga al centro la privacy e la sicurezza dei dati. Le istituzioni europee, così come le singole autorità Garanti degli stati membri dell’UE, hanno pubblicato e stanno sviluppando opinioni e linee guida dettagliate sull'applicazione dell'intelligenza artificiale nel settore della salute.

L'Unione Europea ha adottato una serie di misure per tutelare la privacy dei cittadini, anche nell'era dell'intelligenza artificiale. A livello europeo, il Regolamento GDPR rappresenta la pietra angolare del sistema di salvaguardia della privacy e stabilisce principi rigorosi per il trattamento dei dati personali, incluso il consenso informato e la minimizzazione dei dati. Tuttavia, applicarlo all'intelligenza artificiale nel settore sanitario comporta sfide complesse. Come trovare un equilibrio tra innovazione e protezione dei dati? Come garantire la trasparenza degli algoritmi e il diritto d'accesso alle informazioni? Come potenziare la sicurezza informatica e prevenire violazioni dei dati?

A livello locale, l'Autorità Italiana per la Protezione dei Dati ha anche presentato un elenco di dieci punti sull'impiego dell'intelligenza artificiale nel settore sanitario, offrendo linee guida pratiche per le imprese e le amministrazioni pubbliche che desiderano utilizzare tali tecnologie. Nello specifico, il “Decalogo del Garante della Privacy sull'Utilizzo dell'Intelligenza Artificiale in Sanità” (rilasciato a settembre 2023) presenta dieci principi per un utilizzo responsabile e conforme al GDPR dell'intelligenza artificiale nel campo sanitario. Questi principi includono l'individuazione di basi giuridiche adeguate per il trattamento dei dati, l'adozione di misure di sicurezza progettate e predefinite, la definizione dei ruoli delle varie parti coinvolte, la garanzia della conoscibilità, la non esclusività e la non discriminazione algoritmica, l'esecuzione di una valutazione d'impatto sulla protezione dei dati (DPIA), la garanzia della qualità dei dati, la tutela dell'integrità e della riservatezza delle informazioni personali, il garantire correttezza e trasparenza nei processi decisionali automatizzati, l'attuazione di misure di sicurezza appropriate e il rispetto dei diritti degli interessati. Il Decalogo rappresenta uno strumento fondamentale per promuovere un utilizzo responsabile e sicuro dell'intelligenza artificiale nel settore sanitario nel pieno rispetto dei diritti e delle libertà individuali.

Per poter sviluppare sistemi di IA affidabili (Trustworthy AI) che prevedono l’elaborazione di dati sanitari, alcune soluzioni concrete possono essere adottate, come ad esempio:

  • Lo sviluppo di sistemi di IA affidabili e di modelli di governance robusti: L'IA deve essere progettata e utilizzata in modo da rispettare i principi etici e la privacy dei cittadini. Durante lo sviluppo dei sistemi di IA, è essenziale promuovere la trasparenza e il controllo. Prima che i propri dati possano essere elaborati dagli algoritmi e/o inseriti all’interno dei database, gli individui devono avere il diritto di essere informati su come i loro dati vengono utilizzati e quali decisioni vengono prese in base ad essi. Inoltre, è utile implementare dei sistemi di controllo e di supervisione per garantire l'eticità e l’affidabilità dei sistemi di IA in ambito sanitario.
  • La pseudonimizzazione e l’anonimizzazione avanzate: Si tratta di tecniche di deidentificazione usate per rendere i dati sanitari inutilizzabili per l'identificazione individuale, pur conservando la loro utilità per l'analisi. Ad oggi, si trovano sul mercato anche delle soluzioni per la cd. Differential Privacy che permettono di anonimizzare i dati al momento della raccolta dei dati con l’aggiunta di “rumore” o di un elemento di casualità (randomizzazione).
  • L’uso dei dati sintetici (dati artificiali generati al computer che imitano dati reali): Possono essere utili per la ricerca e l'analisi che preservano la privacy, ma presentano anche rischi di reidentificazione. L'attuale Regolamento (UE) GDPR fatica a regolare i dati sintetici, in particolare quelli completamente sintetici che non sono considerati dati personali. La dottrina propone un cambiamento di paradigma verso linee guida più chiare per tutti i tipi di dati sintetici, che diano priorità alla trasparenza, all'accountability e all'equità. Queste linee guida possono aiutare a mitigare i potenziali rischi e incoraggiare l'innovazione responsabile nell'uso dei dati sintetici.
  • La sensibilizzazione e la formazione: Educare cittadini e professionisti sanitari sui rischi e le opportunità dell'IA in relazione alla privacy. 
  • Gli investimenti nella sicurezza informatica: I dati sanitari devono essere protetti da attacchi informatici e violazioni della sicurezza.
  • La collaborazione tra pubblico e privato: La ricerca e lo sviluppo di sistemi di IA trustworthy richiedono la collaborazione tra autorità, ricercatori, aziende e cittadini.

Verso un futuro di cura e di rispetto della privacy

L'innovazione nel campo dell'intelligenza artificiale non dovrebbe compromettere i diritti e le libertà fondamentali dei cittadini. Le autorità competenti, insieme al mondo scientifico e industriale, devono garantire che lo sviluppo e l'utilizzo dell'IA avvengano in modo etico e responsabile.

L’AI Act rappresenta un passo importante in questa direzione. La creazione di un Dipartimento per l'Intelligenza Artificiale presso la Commissione Europea, un comitato scientifico indipendente e un Consiglio sull'IA assicureranno il monitoraggio dei modelli di intelligenza artificiale e lo sviluppo di standard e procedure di controllo.

Inoltre, l'imposizione di sanzioni significative per le violazioni, che possono arrivare a diversi milioni di euro, renderà le aziende più responsabili nell'assicurare e dimostrare la propria conformità al Regolamento UE.

In conclusione, la sfida consiste nel trovare un giusto equilibrio tra le potenzialità dell'intelligenza artificiale nel campo medico e la salvaguardia dei diritti fondamentali dei cittadini. È essenziale sviluppare sistemi di intelligenza artificiale che siano affidabili, trasparenti e rispettosi della privacy. Grazie all'impegno congiunto delle autorità, dei ricercatori, delle imprese e dei cittadini, possiamo plasmare un domani in cui l'intelligenza artificiale sia al servizio della salute e del benessere della collettività, preservando la privacy.