Per funzionare al meglio gli algoritmi di machine e deep learning lavorano su quantità enormi di dati e presuppongono un’autonomia decisionale. Un tema che solleva ovvie criticità in materia di trattamento dei dati personali, soprattutto se i big data sono associati al settore sanitario.

In ambito sanitario, il trattamento dei dati personali, già sorvegliato speciale, solleva  questioni delicate sotto il profilo sia etico che legale proprio per il tipo di dato trattato, in grado di rivelare lo stato di salute dell’individuo interessato. Il GDPR, ne vieta infatti il trattamento se non per i motivi espressamente previsti (art. 9), tra cui le finalità di medicina preventiva, diagnosi, assistenza o terapia sanitaria (le cosiddette «finalità di cura»). Tutelare i diritti e le libertà della persona, garantendo la liceità del servizio sanitario erogato e sfruttando le potenzialità offerte dal progresso tecnologico è dunque una vera e propria sfida.

É bene infatti ricordare che il GDPR, pur essendo una normativa minuziosa,  non copre tutte le casistiche che potrebbero verificarsi tanto è vero che, già adesso, potenziali illeciti nel trattamento di dati sanitari sono tutt’altro che rari. Violazioni di dati, tecniche avanzate di hacking, discriminazioni sono pericoli concreti: tutte le aziende, in primis le strutture sanitarie, quanto più si avvalgono o intendono avvalersi in futuro di sistemi e tecniche di IA, sono tenuti a conoscerli e a fronteggiarli.

Soluzioni alla portata di aziende responsabili

“Qual è dunque il giusto compromesso tra la tutela dei diritti dei soggetti coinvolti e l’opportunità di trarre vantaggio dalle potenzialità dei sistemi di AI, ad esempio in termini di miglioramento di diagnosi, cura e prevenzione, per pazienti e professionisti sanitari?” Questa la domanda che ha posto Andrea Campagner nel corso del suo intervento al Privacy Day organizzato dalla Cattedra di Informatica Giuridica dell'Università degli Studi di Milano Bicocca in collaborazione con ReD Open.

Di fronte all’avanzata inarrestabile della tecnologia e alla rincorsa un po’ affannosa del legislatore, le imprese che operano nel settore della salute devono porsi questa domanda e tentare di trasformare le criticità insite nell’uso dei sistemi di IA in opportunità. Come? Dotandosi di un piano di governance dei dati integrato con le strategie e con i processi aziendali, valutando l’impatto che si avrà sulle attività aziendali e sui propri clienti e formando le persone: ecco alcuni dei passi che le aziende possono prendere nella direzione di un governo sostenibile dei sistemi di IA e che costituiranno sempre più un vantaggio competitivo e differenziante.

Contrastare la deriva di un uso illecito dei dati

In senso lato l’adozione dell’Intelligenza Artificiale implica un’automazione dei processi decisionali. In altre parole significa delegare ad algoritmi e software una funzione cognitiva (capacità di ragionamento logico, comprensione, pianificazione, risoluzione di problemi, apprendimento) che tradizionalmente è stata competenza e responsabilità dell’uomo. Un tema che solleva non poche domande sul trattamento dei dati personali. Come e quali sono le regole cui ci si deve attenere nel momento in cui si inizia ad applicare l’IA? Una domanda non banale considerato che l’applicazione estensiva di questi modelli tende a dare forma a quelle che da più parti viene definita come l’era dell’autonomous computing. Il denominatore comune del possibile scenario che va emergendo è, infatti, di una sempre più forte autonomia funzionale di tutte le componenti abilitanti nuovi processi di analisi dei dati. Ma quale controllo si può esercitare in materia di Intelligenza Artificiale?

Explainable Artificial Intelligence, come disinnescare la black box

Si discute di un diritto alla leggibilità dell’algoritmo. La formula usata è Explainable Artificial Intelligence, ovvero come riuscire a garantire la spiegabilità degli algoritmi, conditio sine qua non per creare e mantenere la fiducia degli utenti nei sistemi di intelligenza artificiale.  Il tema è stato affrontato a più riprese. Nel documento sugli “Orientamenti etici per un’IA affidabile” elaborato nell’aprile 2019 dal gruppo di esperti istituito dalla Commissione Europea si legge che la spiegabilità «implica che i processi devono essere trasparenti, le capacità e lo scopo dei sistemi di IA devono essere comunicati apertamente e le decisioni, per quanto possibile, devono poter essere spiegate a coloro che ne sono direttamente o indirettamente interessati. Senza tali informazioni, una decisione non può essere debitamente impugnata».

Sembrano affermazioni incoraggianti, dice Ginevra Cerrina Feroni, Vice Presidente dell’Autorità Garante per la protezione dei dati personali. «Purtroppo si è costretti subito dopo a riconoscere che non sempre è possibile spiegare perché un modello ha generato un particolare risultato o decisione. Ciò in quanto, per la gran parte gli algoritmi, sono da considerarsi sistemi imperscrutabili, una sorta di black box».

Comprendere la logica algoritmica

Ecco, quindi, che la normativa europea sulla protezione dei dati personali (artt. 13-14 Reg. UE 2016/679) si è fatta carico del problema e ha introdotto il principio generale di conoscibilità, per cui ognuno ha diritto di conoscere l’esistenza di processi decisionali automatizzati che lo riguardino. Tuttavia, come sottolinea Feroni, «La mera conoscenza dell’esistenza di un algoritmo non produce in sé effetti di rilievo se non si è in grado di decifrarne la logica che ne sta alla base. Per questa ragione il principio di conoscibilità si integra con quello di comprensibilità, ovvero la possibilità di ricevere «informazioni significative sulla logica utilizzata».

Il pericolo degli algoritmi incostituzionali

Insomma, come ha avuto modo di affermare Andrea Simoncini, professore ordinario di Diritto Costituzionale presso il Dipartimento di Scienze Giuridiche dell'Università di Firenze (vedi L’algoritmo incostituzionale: intelligenza artificiale e il futuro delle libertà, BioLaw Journal1) la conoscibilità-comprensibilità presuppone che gli algoritmi – soprattutto quelli predittivi – abbiano una logica, ovvero che vi sia una sequenza argomentativa ripercorribile e verificabile.

Il problema è che gran parte degli algoritmi di nuova generazione non si limitano a dedurre in maniera deterministica conseguenze da assiomi prefissati dal programmatore, ma, in virtù di sistemi automatici di apprendimento, producono essi stessi criteri che in molti casi non sono comprensibili neppure agli stessi programmatori.

Stai pensando di adottare un sistema di IA per automatizzare i tuoi processi? Contattaci subito per scoprire come possiamo aiutarti.


1. L’algoritmo incostituzionale: intelligenza artificiale e il futuro delle libertà, BioLaw Journal

Photo by h heyerlein on Unsplash