Intelligenza Artificiale e diritti fondamentali

Pubblicato il report dell’European Union Agency for Fundamental Rights (FRA)

Lo studio delle implicazioni dell’Artificial Intelligence (AI) sui diritti fondamentali degli individui rappresenta indubbiamente una delle sfide principali con cui l’odierna società è chiamata a confrontarsi. Difatti se, da un lato, molta attenzione è stata sinora prestata alle potenzialità di questa nuova scienza nel supportare la crescita economica globale, dall’altro, sono stati meno indagati i suoi possibili profili di frizione con i diritti fondamentali dei singoli.

È sulla base di questa premessa che l’European Union Agency for Fundamental Rights (FRA) ha elaborato un report che individua i rischi che si annidano dietro l’impiego dell’AI, con specifico riguardo a quattro diversi ambiti (quali: servizi sociali, attività di polizia predittiva, diagnosi medica e pubblicità mirata). Lo studio, in particolare, è stato redatto all’esito di oltre cento interviste di esponenti di organizzazioni pubbliche e private nonché di esperti – tra cui appartenenti ad autorità di vigilanza, organizzazioni non governative e avvocati – che, nelle rispettive attività lavorative, si confrontano a vario titolo con l’utilizzo di strumenti di AI.

A seguito dell’indagine, l’Agenzia ha identificato le problematiche in punto di rispetto dei diritti fondamentali di cui i policymakers – sia a livello degli Stati membri sia della stessa Unione Europea – devono tenere conto e ha, quindi, rivolto loro alcune puntuali raccomandazioni affinché sia assicurato un proficuo e, al contempo, accorto uso dell’AI. Nel dettaglio, queste hanno ad oggetto i seguenti aspetti:

  • assicurare che l’AI rispetti tutti i diritti fondamentali, così come sanciti nella Carta di Nizza e nei Trattati, che vengono in rilievo a seconda del contesto in cui l’AI è impiegata. La ricerca ha infatti dimostrato come non vi sia la piena consapevolezza e, di conseguenza, la dovuta considerazione della totalità dei fundamental rights su cui i sistemi intelligenti sono suscettibili di incidere;
  • valutare preventivamente l’impatto dell’AI sui diritti fondamentali per ridurre gli effetti negativi, in quanto sinora la prassi dimostra come una simile verifica si sia focalizzata prevalentemente sugli aspetti tecnici (al riguardo, il report suggerisce dunque di fare ricorso a checklists ovvero a selfevaluation tools);
  • garantire un sistema di controllo efficace e affidabile per monitorare e, se necessario, gestire qualsiasi impatto negativo dei sistemi di AI sui diritti fondamentali, anche sfruttando le strutture già esistenti (es. Data Protection Authorities) e assicurando che i suddetti organismi siano dotati di risorse e poteri adeguati nonché, soprattutto, del necessario expertise per prevenire eventuali violazioni e fornire un supporto effettivo alle vittime;
  • fare in modo che i sistemi di AI non determinino discriminazioni, incoraggiando le organizzazioni pubbliche e private a valutare preventivamente le potenzialità discriminatorie dei software utilizzati, anche attraverso l’elargizione di finanziamenti da parte della Commissione europea e degli Stati membri, dal momento che i risultati dell’indagine hanno disvelato come la consapevolezza in merito al rischio di discriminazione da parte dell’AI sia relativamente bassa;
  • fornire maggiori chiarificazioni in tema di data protection e, in particolare, sulla portata e sul significato delle disposizioni normative relative ai processi decisionali automatizzati, trattandosi di aspetti cruciali nello sviluppo e nell’uso dell’AI e rispetto a cui tuttora si registra un alto livello di incertezza;
  • prevedere che gli individui possano rivolgersi alle autorità giudiziarie nazionali per contestare le decisioni adottate in base a sistemi di AI e che tale possibilità sia “effective in practice as well as in law”. Tale aspetto si rivela particolarmente delicato in quanto presuppone la conoscibilità, da parte del singolo, del modus operandi del software che, come ricorda il report, si scontra, per un verso, con l’opposizione da parte dei suoi programmatori del segreto industriale e, per altro verso, con la complessità intrinseca degli algoritmi di nuova generazione che spesso non sono decifrabili neppure dagli stessi programmatori; tuttavia, per ovviare a simili criticità, l’Agenzia invita l’Unione e gli Stati membri a elaborare delle linee guida per garantire la trasparenza in questo settore nonché a ragionare sull’introduzione di un obbligo, a carico delle organizzazioni pubbliche e private che impiegano AI systems, di fornire alle vittime di violazioni informazioni circa il funzionamento degli strumenti utilizzati.

 

Si tratta evidentemente di raccomandazioni che potranno orientare il percorso di regolamentazione dell’uso dell’AI anche nel campo del diritto penale; e ciò in relazione anzitutto alle attività di predictive policing – terreno peraltro indagato dal report che non esita a rimarcare i noti problemi in tema di discriminazione che questi software pongono.

Al riguardo, si discute della qualità dei dati forniti alla macchina e relativi allo storico dei reati commessi, nella misura in cui questi sono molto spesso distorti o incompleti, poiché basati sulla percezione soggettiva dell’officer che al tempo intervenne e compilò il relativo rapporto, con la conseguenza che ove l’algoritmo processerà biased-input, ogni suo outcome non potrà che riflettere – se non addirittura amplificare – le pratiche discriminatorie esistenti (c.d. critica del garbage-in, garbage-out). Sono allora da accogliere con favore le indicazioni dell’Agenzia nel senso di investire sulla ricerca in tema di AI al fine di minimizzare il suo potenziale discriminatorio e di sfruttare gli stessi sistemi intelligenti per analizzare i dati a disposizione e rilevare le discriminazioni.

Non si nascondono neppure alcune preoccupazioni in tema di data protection, specie con riferimento ai software che non si limitano a mappare i luoghi di futura commissione dei reati, ma profilano gli autori o le vittime di reati. Tuttavia, per ammissione dello stesso report, su questi aspetti sono già in parte d’ausilio il GDPR nonché, soprattutto, la c.d. Law Enforcement Directive (2016/680/UE) che «contains key fundamental rights safeguards», consistenti nell’imposizione alle autorità di specifici obblighi informativi nei confronti dell’interessato nonché di taluni divieti, tra cui spicca quello relativo all’adozione di decisioni sulla base di un trattamento automatizzato che producano «effetti giuridici negativi o incida significativamente sull’interessato». Piuttosto, il deficit riscontrato dall’Agenzia investe il livello di compiuta conoscenza di tale normativa da parte di coloro che impiegano tali strumenti; deficit che necessita dunque di essere prontamente colmato da parte dei policymakers, pena l’ineffettività delle valide misure di protezione per i diritti fondamentali indicate nella citata Direttiva.

Per altro verso, le indicazioni dell’Agenzia europea sono sicuramente destinate a fungere da guida anche nella riflessione sul (futuribile) utilizzo di algoritmi nelle fasi di decision-making rimesse al giudice penale, sebbene questo aspetto non sia stato oggetto di attenzione da parte del report. L’esperienza straniera testimonia infatti come anche in questo frangente emergano altrettanti profili di criticità in ordine alla tutela dei diritti fondamentali che meritano senz’altro una accurata considerazione.

 

Il report è stato pubblicato il 14 dicembre 2020 ed è consultabile qui.