L’intelligenza artificiale ha da tempo fatto il suo ingresso nelle nostre vite. “Nelle aule giudiziarie ha i suo pro e i suoi contro”, afferma Gianluca Mauro autore di un libro proprio su questa disciplina. E di una cosa è sicuro: “Renderà la giustizia più accessibile e democratica”
Applicare la matematica per cercare di prevedere l’esito di un giudizio tramite l’ausilio di sistemi di calcolo e algoritmi. Il dibattito sul ricorso alla giustizia predittiva è più che mai aperto: se da un lato è credibile che il ricorso all’intelligenza artificiale possa portare nella gestione del sistema giudiziario a risparmi di tempo e di costi, non bisogna neanche ignorare che il suo uso solleva interrogativi e perplessità di natura etica e giuridica. Ne abbiamo parlato con Gianluca Mauro, autore del libro Zero to Ai e fondatore di Ai Academy, società specializzata in educazione e consulenza strategica sull’intelligenza artificiale.
Quanta intelligenza artificiale usiamo già in maniera consapevole e inconsapevole?
Penso che l’opinione pubblica sia consapevole di usare algoritmi di intelligenza artificiale al massimo il 20% delle volte. In realtà, l’intelligenza artificiale è dietro prodotti che adoperiamo decine di volte al giorno ma la maggior parte delle persone non se ne rende conto. Alcuni esempi di intelligenza artificiale “nascosta”, che usiamo tutti i giorni spesso senza accorgercene, sono Spotify che ci consiglia canzoni in linea con i nostri gusti, Netflix che prevede quali film siamo più propensi guardare, Facebook e Instagram che fanno lo stesso con i contenuti che siamo più propensi a guardare, Google Maps che calcola i percorsi ottimali, Gmail che filtra le mail di spam, Visa, Mastercard, AmEx che usano tutte l’AI per bloccare transazioni sospette. Le persone pensano che “AI” (Artificial Intelligence) sia sinonimo di robot o di chatbot, ma le vere applicazioni che portano profitto alle aziende sono molto diverse!
Che cosa vuol dire usare l’AI in maniera predittiva?
L’AI moderna è costruita per il 99% utilizzando il machine learning: una serie di strumenti e algoritmi che consentono ai computer di imparare partendo dai dati. Usare l’AI in maniera predittiva significa usare dati relativi a eventi passati per prevedere quelli futuri. Un esempio classico è la manutenzione preventiva: usare dati sulle rotture di un macchinario avvenute nel passato per prevedere quando si romperà nel futuro.
E usarla nel campo della giustizia cosa significa?
Ci sono varie possibili applicazioni. Già da tempo negli Usa vengono usati algoritmi predittivi per calcolare il “risk score” di un criminale: la probabilità che una persona, una volta rilasciata, possa delinquere di nuovo. In questo caso, ci sono stati seri problemi di discriminazione verso le minoranze razziali. Gli algoritmi avevano appreso da dati di sentenze passate che a volte – purtroppo – si sono rivelate ingiuste verso specifiche minoranze. L’AI ha imparato da troppe sentenze razziste e ha conservato la stessa “filosofia”. Esistono anche applicazioni meno a rischio. In Australia, esperti di AI hanno creato “the split-up system”, un sistema che unisce reti neurali a regole definite da avvocati per prevedere l’esito di cause relative a proprietà in casi di divorzio o di altre questioni familiari. Il sistema considera 94 fattori per aiutare i giudici a decidere come una proprietà vada divisa tra le due parti in caso di divorzio. Questi sistemi aiutano i giudici ad essere non solo più veloci ma anche più oggettivi.
Che impatto avrà invece sui cittadini?
Personalmente, il campo di applicazione che mi interessa di più è quello della giustizia: come renderla più accessibile e democratica. Ci sono miliardi di persone che non hanno la disponibilità economica di interpellare un avvocato quando hanno una disputa o un problema con la legge. La legge è uguale per tutti, tranne se non hai accesso a chi la può capire ed applicare. In tal caso, si rischia che la giustizia venga applicata correttamente solamente a chi ha portafogli abbastanza grandi da pagare avvocati costosi, mentre gli altri rischiano di perdere cause (o di non iniziarle quando dovrebbero) anche se sono nel giusto. L’AI può aiutare queste persone ad avere un “avvocato digitale” a 1/100 del costo di un avvocato vero.
Il passo successivo sarà il giudice robot?
Il mio auspicio è che l’AI diventi un supporto ai giudici, non che li sostituisca. Dobbiamo usare l’AI per i suoi punti di forza: velocità, scala e decisioni guidate dai dati. L’AI non può essere empatica ed è pessima nel gestire eccezioni: due capacità per le quali le persone sono invece eccezionali.
La Carta Etica Europea del 2018 consente l’uso dell’AI nei sistemi di giustizia penale. Che effetto ha avuto quest’applicazione?
La Carta Etica Europea del 2018 ha regolato alcuni aspetti cruciali dell’AI nella giustizia. Alcuni possono sembrare “scontati”, come lo standard di qualità delle decisioni, la non-discriminazione e il rispetto dei diritti umani. Altri hanno un impatto maggiore per chi progetta questi sistemi. Per esempio, la Carta Etica prescrive che un algoritmo di AI nella giustizia debba essere trasparente: deve essere possibile spiegare perché una determinata decisione sia stata presa. Questo punto è fondamentale per garantire ai cittadini il loro diritto a un giusto processo. Dal punto di vista pratico sembra un dettaglio, ma non lo è. La maggior parte dei sistemi di AI odierni sono delle black box: è difficile capire quali criteri seguono per prendere una determinata decisione. Per questo motivo sta crescendo una nuova branca chiamata “explainable AI”.
Come si concilia la giustizia predittiva con la questione della privacy?
Ho sempre avuto difficoltà a capire perché l’opinione pubblica sembra aver paura di perdere la propria privacy con la giustizia predittiva. Nel momento in cui decidiamo di vivere come parte della società, diamo al sistema legale del Paese in cui viviamo il potere di tutelarci nel rispetto di un set di regole chiamato “legge”. Da sempre condividiamo i nostri dati con il sistema legale per far sì che questo possa svolgere le proprie funzioni. L’unica differenza nell’era dell’AI è che la raccolta di dati diventa sistematica e digitale. Personalmente non penso che cambi il concetto di fondo ma soprattutto, se i nostri dati permettono al sistema legale di tutelarci meglio, qual è il problema?
Sull’Ai la Cina sta investendo molto. Come si configura l’applicazione della giustizia in questo Paese?
La Cina ha un approccio interessantissimo rispetto alla condivisione dei dati e allo sviluppo di applicazioni AI. Si basa sull’idea che “mantenere la fiducia è glorioso e rompere la fiducia è vergognoso” e che avere più dati porti a migliori decisioni e quindi a una società più giusta. Per implementare questo concetto, la Cina ha deciso di sopprimere ogni idea di privacy raccogliendo informazioni dai cittadini su ogni loro attività. Il risultato è la generazione di una quantità enorme di dati usati per creare sistemi di AI sempre più avanzati. Un’applicazione di questo concetto è il “social score”, un punteggio assegnato ad ogni cittadino che riflette la sua reputazione.
Quali sono i suoi campi di applicazione?
In alcune città sono state installate delle telecamere in corrispondenza degli attraversamenti pedonali per riconoscere le persone che attraversano con il rosso e togliere punti dal loro social score. L’iniziativa ha creato problemi a un famoso attore cinese il cui volto era stampato su tutti gli autobus per promuovere il suo nuovo film. I sistemi di riconoscimento facciale avevano confuso le pubblicità con la persona vera, “pensando” che quella persona stesse attraversando con il rosso ogni volta che passava un autobus con la sua faccia sopra. Il social score dell’attore è precipitato e il governo cinese ha dovuto correre ai ripari, correggendolo manualmente.
Una cosa impensabile per noi…
L’approccio del governo cinese, per quanto possa sembrarci estremo, non è particolarmente distante da quanto viene fatto negli Stati Uniti con il credit score o quanto fanno banche italiane quando decidiamo di chiedere un mutuo. Da decenni, sistemi matematici – che siano avanzati algoritmi di AI o semplici fogli excel – ci assegnano un fattore di rischio che impatta sulla nostra vita. La differenza dell’approccio cinese è che il loro social score si riferisce a ogni attività dei cittadini ed è gestito dal governo (e non da società private). Non è invece ancora chiaro in che misura sarà leggibile dal pubblico o riservato ad enti governativi. Il social score entrerà in vigore nella sua forma “completa” quest’anno e vedremo quali saranno le ripercussioni.