Libertà o Sicurezza Gli algoritmi predittivi e l’amministrazione della giustizia

11 maggio, 2018 | Autore : |

Whitwhere: Sono certo che capite i difetti legali di precrime, arrestiamo gente che non ha infranto alcuna legge.

Collaboratore di Anderton: Ma lo farà, la stessa escuzione del crimine è metafisica: i precog vedono il futuro e non sbagliano mai.

Whitwhere: Non è il futuro se lo fermate, non è un paradosso fondamentale?

Anderton, lanciando una pallina che Whitwere prende prima che cada: Si lo è … Il fatto che ha evitato che cadesse non cambia il fatto che sarebbe caduta comunque.

Whitwhere: Ricevete mai dei falsi positivi?

2054 il Governo ha praticamente annullato la delinquenza. La sezione Precrime della polizia riesce a prevedere i delitti prima che questi si verifichino e ad arrestare i potenziali colpevoli. Il sistema sembra infallibile perché non vengono commessi più omicidi, la realizzazione di un sogno, tuttavia a lungo andare si presenterà fallace ma soprattutto porrà notevoli dilemmi morali in quanto ad essere arrestati sono sostanzialmente degli innocenti.

In breve questo non è il film Minority Report ma il racconto di Philip K. Dick, scritto nel 1956, dal quale è tratto appunto il film del 2002.

Il racconto, scritto oltre sessanta anni fa, propone il tema, da sempre dibattuto, del rapporto libertà-sicurezza ed il concreto pericolo di una deriva in una società di controllo totalitario, che può ottenere e possedere le complete informazioni sul comportamento dei propri cittadini.

Quanto è desiderabile una società del genere, qual è il prezzo da pagare in termini di libertà e giustizia e può una società del genere definirsi umana?

Il dilemma posto da Dick è inquietante ed è una complessa riflessione sul rapporto libertà/sicurezza, che, attraverso la previsione del crimine, riduce tutte le possibili scelte dell’individuo, finendo per perseguire il crimine mentale, riducendo tutto ad una sola determinazione dettata dall’impulso: non solo la repressione dei crimini ma, addirittura, l’interpretazione dei possibili comportamenti futuri appartiene al governo e viene punita.

Il controllo totale.

L’uomo viene così disumanizzato, gli viene sottratta la libertà, la razionalità, il libero arbitrio e la sua consapevolezza etica, la sua emotività i suoi pensieri, le sue peggiori intenzioni sono, dunque, un male e meritano contenimento.

Ma il sistema è imperfetto, come tutte le costruzioni umane, ma è dotato di un potere assoluto, pertanto si va in galera facilmente, non essendo preso in considerazione il libero arbitrio e un possibile ripensamento.

Ma è solo fantascienza.

Prima è opportuno chiarire, però, cosa è l’Analisi predittiva, oggi largamente utilizzata.

Alcuni la definiscono una scienza, in ogni caso essa comprende l’utilizzo di una varietà di tecniche statistiche, della modellazione predittiva, dell’apprendimento automatico e del data mining, che analizza fatti storici e attuali per fare predizioni sul futuro o su eventi sconosciuti.

Negli affari, i modelli predittivi ricercano schemi in dati storici e transazionali per identificare rischi e opportunità. I modelli trovano relazioni tra molti fattori, che permettono valutazioni del rischio o del rischio potenzialmente associato con un insieme  di condizioni, guidando sostanzialmente il processo decisionale. In sostanza, viene fornito, a chi effettuerà la decisione, un punteggio di predittività  per ogni individuo, per determinare, informare o influenzare i processi organizzazionali, che appartengono ad un gran numero di individui. L’analisi predittiva è usata in scienze attuariali, marketing, finanza, assicurazioni, telecomunicazioni, rivendita al dettaglio, nel settore turistico, della salute e delle scelte pubbliche.

Nel campo del ragionamento e della logica  giuridica, invece,  i primi studi sulla sua calcolabilità  possono essere ricondotti a Leibniz, più precisamente alla sua Ars Combinatoria, quella che già Raimondo Lullo aveva battezzato Ars Magna, e cioè la simbolizzazione di contenuti di pensiero attraverso un sistema di segni linguistici, numerici, schemi e figure, manipolabili formalmente e flessibilmente tramite principi sintattici combinatori. Il progetto leibniziano dell’Ars Combinatoria promuoveva, così, la possibilità di scoprire verità di pensiero come esito dell’applicazione di regole di combinazione a partire da una lista di nozioni primitive. La meccanizzazione del ragionamento, ridotto a calcolo formale, avrebbe evitato confusione, incoerenza, ambiguità.

Ovviamente è solo dagli anni 60, con lo sviluppo dell’informatica, che è cominciata l’elaborazione di programmi  tesi a riprodurre in maniera artificiale il ragionamento giuridico.

È recente la notizia di un algoritmo sviluppato dalla University College di Londra e dalla Sheffield University che è risultato capace di predire i verdetti della Corte europea dei Diritti dell’Uomo con un grado di precisione pari al 79%.

Allo stesso modo, nel 2016 è partito il CRIMESCAN, un software di predizione dei crimini, sviluppato dalla Carneige University of Mellon ed utilizzato per la prima volta dalla Polizia di Pittsburgh; a differenza degli altri software, pare che questo sistema sia in grado di prevedere l’escalation di crimini violenti sulla base di quanto accade giornalmente in città e sull’analisi dei crimini minori.

Ma, forse,  moltissimi ignorano l’esistenza del COMPAS, acronimo di Correctional Offender Management Profiling for Alternative Sanctions, largamente utilizzato nella giurisprudenza penale nei paesi anglosassoni, soprattutto negli USA, un algoritmo predittivo del possibile rischio di recidiva.

Il sistema funziona con un questionario di 137domande  riguardanti precedenti penali, età, educazione, vita sociale, uso di droghe, lavoro, famiglia … cui viene sottoposto l’imputato.

Inoltre, il COMPAS contiene un algoritmo che non è noto nè pubblico e, dunque, la sua validità scientifica non può essere accertata. Tale sistema si rivela oltremodo punitivo per gli uomini e per le persone di colore ed oltretutto potrebbe venire alterato di volta in volta, modificando il sistema dei rischi e delle pene. Era, inoltre, emerso da una analisi del funzionamento dell’algoritmo che gli imputati neri avevano un punteggio nettamente superiore rispetto al rischio reale e che i non recidivi neri venivano classificati con un rischio più elevato rispetto agli omologhi bianchi. È stato, ancora, osservato che il più grosso limite degli algoritmi predittivi è rappresentato dal fatto che si basano su di un metodo statistico, per cui i punteggi di rischio sono correlati ad una probabilità di recidiva generica (calcolata su casi simili) ed non alla probabilità specifica che quel determinato soggetto, a cui l’algoritmo viene applicato, commetta in futuro un altro reato.

La questione è emersa in tutta la sua violenza negli USA ed è stata affrontata dalla Corte Suprema del Wisconsin, che, purtroppo, ha dichiarato all’unanimità la piena legittimità dell’uso dell’algoritmo COMPAS, specificando, però, che non può essere l’unico strumento su cui fondare una pronunzia di condanna.

La profonda novità della recente pronuncia della Corte Suprema del Wisconsin sta nel fatto che il programma COMPAS è stato utilizzato dalla Corte Distrettuale nel percorso valutativo a fondamento di un giudizio di condanna quale elemento determinante per quantificare la pena inflitta all’imputato. È evidente come l’incidenza dell’algoritmo nella vita dell’uomo in questa ultima ipotesi sia di gran lunga maggiore rispetto all’uso che veniva fatto in precedenza e, conseguentemente, i suoi effetti siano potenzialmente molto più pericolosi.

Siamo, oramai, alla giurisprudenza delle intenzioni, al superamento del labile confine tra pensiero e reato, alla domanda che attraversa da sempre la storia dell’uomo, antica quanto la giustizia e che ha avuto nel corso dei secoli risposte diverse: è illegale avere una mente malata?

Oggi questa domanda ha assunto una sfumatura inimmaginabile solo venti anni fa perché, con l’avvento della tecnologia, tracce, piccole o grandi, della nostra coscienza sono spalmate sulla rete di internet.

La rete ci conosce più di noi stessi;

la rete è custode dei nostri più aberranti segreti e delle nostre voglie nascoste;

la rete è accessibile ai nostri governi, alle multinazionali che sanno i nostri gusti, le nostre tendenze, il nostro orientamento politico.

La domanda oggi deve, pertanto, essere cambiata: è giusto che tramite Google si possano processare le nostre intenzioni? La risposta è certamente positiva se i dati digitali provano una nostra condotta illegale, come la pedopornografia, ma se non c’è niente di tutto ciò, allora, ci si mette alla ricerca di un over act, che è la base legale del processo alle intenzioni.

Azioni, proclami o intenzioni manifestate – ad esempio volontà di voler effettuare una truffa – per quanto intrinsecamente legali, finirebbero per costituire un fondamento legale della nostra colpevolezza potenziale, indipendentemente dallo spirito con cui queste vengono fatte: scherzo, mitomania, ecc.

La domanda che, oggi più che mai, dobbiamo porci diventa allora: è accettabile depersonalizzare il procedimento che conduce ad una sentenza penale di condanna, ovverosia una delle decisioni, unitamente a quelle mediche, che più profondamente incidono sulla vita dell’uomo?

Ulteriori accenni vanno fatti, inoltre, ad altri sistemi predittivi dei crimini.

A Chicago è stato messo a punto un altro sistema, che, raccogliendo i dati dei soggetti, il loro profilo facebook, e tutte le notizie relative alla persona, anche precedenti crimini, calcola la probabilità che il soggetto in questione possa delinquere nuovamente; a quel punto, la Polizia avvia il soggetto stesso ad un programma di recupero.

Si chiama Lista Strategica di Soggetti o Programma di Notifica Personalizzato.

A Santa Cruz, California, dove ha sede la PredPol Inc., una società privata  ha sviluppato un algoritmo segretissimo in grado di predire e localizzare atti delittuosi.

Nel 2011,  l’impeto entusiasta su questo progetto fu tale che il Time annoverò la PredPol Inc. tra le cinquanta invenzioni dell’anno.

Il sistema PredPol è in uso in diverse città americane ed oggi in alcune contee inglesi.

La domanda sorge chiaramente spontanea: questi sistemi funzionano ?

L’unica voce critica che ad oggi si è sollevata è quella di un fisico dell’Università di Grenoble, il dott. Ismael Benslimane.

Benslimane ci pone di fronte a un paradosso: immaginiamo un poliziotto nella sua volante, in pausa pranzo, intento a mangiarsi un panino. Il computer gli segnala una zona a rischio e il poliziotto decide di lasciare il panino e correre a sirene spiegate sul posto dove: A) in effetti si compie un reato e il poliziotto valida la predizione; B) non succede nulla e il poliziotto valida la predizione, poiché la sua presenza ha fatto sì che il reato non venisse commesso. In una seconda ipotesi il poliziotto, invece,  decide di finire di mangiare in pace il suo panino e di non andare sul luogo indicato: può succedere che A) venga commesso un reato e che, appresa la notizia, il poliziotto validi comunque la predizione; B) non venga commesso alcun reato. In questo caso il poliziotto finirà il suo panino ed è probabile che dimentichi la predizione del sistema, perché poi nessuno gli ricorderà che non ha avuto luogo alcun atto criminale. Come si vede, l’algoritmo rischia di vincere sempre.

Ma il ricercatore francese ha fatto di più: ha contattato la società PredPol, così come la polizia del Kent, per avere più dati, senza ricevere alcuna risposta. Ha deciso allora di creare un proprio algoritmo, utilizzando le informazioni disponibili, la poca letteratura scientifica sul tema e una serie di rapporti confidenziali anonimi e declassificati da parte di varie polizie.

In particolare, ha costruito il suo modello basandosi sui dati provenienti dalla polizia di Chicago, resi accessibili a tutti dal 2001 – gli stessi di cui si sono serviti gli sviluppatori di PredPol.

Ebbene, Benslimane ha creato tre diversi algoritmi, da uno semplice a uno più complesso, in cui viene ponderato il tasso di criminalità in base alle zone geografiche, scoprendo che questo suo ultimo algoritmo produce una percentuale di predizione vicinissima a quella di PredPol  e, se applicato in zone più estese, produce addirittura risultati migliori.

Insomma, a quanto pare l’algoritmo americano predice solo banalità. O meglio, riproduce il classico principio di Pareto: l’80 per cento delle azioni criminali hanno luogo nel 20 per cento del territorio.

Nulla che un buon poliziotto non sappia già: il famoso fiuto da sbirro.

I limiti sono chiaramente palesi e sono insiti nella stessa funzione anticipatoria di questi algoritmi.

Il filosofo Focault, già negli anni 70, avvertiva che questi criteri di incriminazione si fondano su parametri molto labili sforniti di qualsiasi fondamento giuridico.

Si arriva, così, ad un determinismo sociale e razziale: nasci povero e in un quartiere malfamato, allora sei un potenziale criminale.

In pratica, un modello in cui la disuguaglianza è strutturata, la famosa società civile, termine che tanti danni ha fatto e farà, ha già riservato al figlio del povero e del criminale, che per giunta vive in aree geografiche a rischio, un posto marginale nella comunità, ha già predeterminato, indipendentemente  da qualsiasi altra valutazione, una nuova classe di paria o dalit, senza possibilità di riscatto.

Ad oggi il sistema giudiziario italiano rifugge sia il cd. diritto penale d’autore che qualsiasi tipo di processo decisionale automatizzato.

L’art. 220, comma 2, del codice di procedura penale, prevede che non è ammessa perizia per stabilire l’abitualità o la professionalità nel reato, la tendenza a delinquere, il carattere e la personalità dell’imputato e in genere le qualità psichiche dell’imputato indipendenti da cause patologiche.

L’art.14 del codice privacy (trasfuso nell’art. 22 del nuovo Regolamento europeo in materia di protezione dei dati personali che entrerà in vigore in tutta l’UE il 25 maggio 2018), il quale stabilisce che nessun atto o provvedimento giudiziario o amministrativo che implichi una valutazione del comportamento umano può essere fondato unicamente su un trattamento automatizzato di dati personali volto a definire il profilo o la personalità dell’interessato.

Ma siamo così sicuri?

Anche in Italia si sta conducendo un esperimento: il progetto e.Security Trento è un sistema informativo georiferito, che incrocia dati per elaborare mappe di rischio nel capoluogo trentino. In particolare, il software funziona su variabili socio-demografiche ed economiche, oltre che urbano-ambientali,come l’illuminazione, le condizioni climatiche, ecc. e specifiche territoriali, la presenza di auto parcheggiate, parchi, banche e luoghi pubblici, ecc.

Vedremo nei prossimi anni quale sarà l’effettiva resilienza del nostro sistema giuridico agli algoritmi predittivi giudiziari.

 

Benjamin Franklin, Assemblea della Pensylvania, 11 novembre 1755: chi è pronto a dar via le proprie libertà fondamentali per comprarsi briciole di temporanea sicurezza, non merita né la libertà né la sicurezza.

CERCA