di AVV. TOMMASO ROSSI
Sommario: 1. Introduzione ai rapporti tra Intelligenza Artificiale e Diritto Penale – 2. La decisione giudiziaria fondata sull’A.I. – 3. Verso un Giudice-robot? – 4. L’A.I. al servizio dell’avvocato difensore nel processo penale. – 5. Le indagini difensive dell’Avvocato-robot. – 6. Profili di responsabilità civile e penale e problematiche di privacy del Robot-giurista – 7. Conclusioni e prospettive.
1. Introduzione ai rapporti tra Intelligenza Artificiale e Diritto Penale
Un tempo si diceva -e forse era anche un modo per autoconvincersi da parte della società degli umani sulla sua permanente supremazia su qualsiasi altra realtà- che i computer fanno solo quello che sono programmati a fare.
Oggi la frase pare una di quelle cartoline sbiadite che raccontano storie ormai lontane.
Gli enormi progressi fatti nel campo della robotica, in particolare del machine learning, di pari passo con gli sviluppi rapidissimi (e a costi sempre più accessibili) della tecnologia computazionale, ha permesso l’implementazione di sistemi di Artificial Intelligence (“A.I.” o “I.A. – Intelligenza Artificiale”) sempre più evoluti, in grado ormai di raggiungere e superare le capacità umane in molti settori1.
Mutuando le parole di Alan Turing (contenute, peraltro, nel rapporto dell’Aspen Institute Italia intitolato “Intelligenza artificiale come nuovo fattore di crescita”), l’Intelligenza artificiale può essere definita come «la scienza di far fare ai computers cose che richiedono intelligenza quando vengono fatte dagli esseri umani; o, più propriamente, come quel settore dell’informatica che si occupa di creare macchine intelligenti in grado di eseguire compiti e risolvere problemi nuovi, di adattarsi all’ambiente e comprenderlo, e di capire il linguaggio naturale»2.
La finalità primaria dell’A.I. è, di norma, quella di rafforzare i meccanismi di ragionamento automatizzati utilizzati per la risoluzione di problemi, in un rapporto relazionale uomo-macchina sempre più evoluto e ricco di interscambi. I settori sono molti e variegati: dal machine learning (“apprendimento automatico”), alle chat-bot di assistenza clienti, alle piattaforme di Deep learning, ai sistemi di Natural Language Processing e di Text analytics, agli algoritmi predittivi utilizzati dai siti di e-commerce per indirizzare gli acquisti degli utenti mediante l’analisi dei cookies, etc.
Quando parliamo di A.I. -è bene sgombrare da subito il campo da ambiguità e immagini stereotipate- non dobbiamo, dunque, pensare al robot umanoide, simile all’uomo, che affonda le radici nell’immaginario letterario e cinematografico di oltre due secoli. Dal Frankestein di Mary Shelley al robot di Karel Čapek (che coniò, appunto, per primo il termine dalla parola ceca robota, che significa “lavoro pesante”), dai racconti di Isaac Asimov ai replicanti Nexus 6, dotati di emozioni proprie, di Blade Runner.
Il robot umanoide, che oggi è ormai realtà e trova utilizzo in molti ambiti3, è soltanto una della possibili applicazioni dell’Intelligenza artificiale.
Quando parliamo di Intelligenza artificiale dobbiamo, invece, pensare ad una disciplina sostanzialmente ingegneristica, che poco ha a che vedere con l’intelligenza (oltre che con la conformazione del corpo) umana. Ne è una sorta di “copiatura” perfetta, una macchina con un “codice genetico” ingegnerizzato basato sulla razionalità, ovvero la capacità di scegliere sempre la migliore alternativa possibile secondo criteri algoritmici di ottimizzazione delle risorse a disposizione. E muta la forma a seconda dei molteplici ambiti in cui trova applicazione: dall’ambito medico (robot-chirurghi, ovverosia software che consentono al chirurgo umano di intervenire in ambito di microchirurgia non invasiva attraverso l’ausilio di un braccio meccanico) all’ambito militare (droni, i c.d. Unmanned aerial system), ai veicoli a guida autonoma, alle molteplici applicazioni nell’ambito dell’IoT (Internet of Things), ai sistemi robotizzati di ausilio (e in larga parte di sostituzione) del lavoro umano, negli ambiti più routinari e a basso valore aggiunto, che fanno iniziare a parlare di una “nuova rivoluzione industriale”4.
Tra i settori in cui si sta diffondendo l’utilizzo dell’A.I. vi è anche -e necessariamente- quello del diritto e, in particolare, per quel che vogliamo analizzare in questo articolo, il settore della giustizia penale.
L’enorme progresso delle potenzialità computazionali delle macchine, come si diceva, unito al grande aumento di circolazione dei Big Data, e in larga parte anche di dati scambiabili machine to machine (generati dall’interconnessione degli strumenti dell’IoT), sta creando ciò che solo nel secolo scorso sembrava ancora poco più che fantascienza: un software sempre più intelligente che apprende dall’ambiente esterno e modifica le proprie prestazioni adattandole ad esso, indipendentemente dall’imprinting iniziale del programmatore.
Ciò, ovviamente, crea di pari passo rilevanti implicazioni socio-culturali, etiche (rectius, bioetiche) e giuridiche.
Nei Considerando della Risoluzione del 16 febbraio 2017 del Parlamento Europeo in tema di robotica, si afferma tra le altre cose che:
«l’andamento attuale, che tende a sviluppare macchine autonome e intelligenti, in grado di apprendere e prendere decisioni in modo indipendenti, genera nel lungo periodo non solo vantaggi economici, ma anche una serie di preoccupazioni circa gli effetti diretti e indiretti sulla società nel suo complesso»;
«l’apprendimento automatico offre enormi vantaggi economici e innovativi per la società migliorando notevolmente le capacità di analisi dei dati, sebbene ponga nel contempo alcune sfide legate alla necessità di garantire la non discriminazione, il giusto processo, la trasparenza e la comprensibilità dei processi decisionali»5.
Nel dicembre 2018, la Commissione europea per l’efficienza della giustizia del Consiglio d’Europea (CEPEJ) ha adottato la prima Carta etica europea sull’uso dell’intelligenza artificiale nei sistemi giudiziari (European Ethical Charter on the use of Artificial intelligence in Judicial Systems and their environment)6, con lo scopo di contribuire a definire i limiti etici nell’utilizzo dell’A.I., e coniugarli con i principi posti alla base della Carta dei Diritti dell’Uomo del Consiglio d’Europa (nonché della Convenzione del Consiglio d’Europa sulla protezione dei dati personali).
In particolare sono stati individuati cinque principi fondamentali, mutuando le tutele poste dalla CEDU e applicandole al settore dell’A.I.
Il primo richiama il rispetto dei diritti fondamentali, sia nella fase di progettazione che in quella di applicazione degli strumenti di A.I., ed in particolare richiede che, laddove posti all’interno di un processo decisionale giudiziario, gli stessi non pregiudichino le garanzie proprie di un Giusto processo, nell’ambito di uno Stato di diritto e davanti ad un Giudice terzo ed imparziale.
Il secondo richiama il principio di non discriminazione, per prevenire le potenziali discriminazioni attuate dai sistemi di A.I., specie laddove il trattamento è direttamente o indirettamente basato su dati sensibili7.
Il terzo principio estende al campo dell’A.I. i concetti di qualità e sicurezza applicabili al trattamento dei dati relativi alle decisioni giudiziarie, in particolare sottolineando come è necessario che la macchina utilizzi fonti certificate e che tali dati siano trattati in modo multidisciplinare (i programmatori dovranno necessariamente collaborare con “tecnici del diritto”).
Il quarto principio è quello della trasparenza, imparzialità ed equità, unite al solo fine di privilegiare l’interesse della giustizia.
Il quinto e ultimo principio richiede che ogni dato sia “sotto il controllo dell’utente”, ovvero che lo stesso sia adeguatamente informato e possa orientare in maniera consapevole le proprie scelte. In particolare, il soggetto sottoposto alla decisione dovrebbe essere preliminarmente informato di qualsiasi trattamento di un caso mediante A.I. e dovrebbe avere il diritto di opporvisi; in ogni caso, gli operatori del settore giudiziario dovrebbero, in qualsiasi momento, poter riesaminare e modificare le decisioni giudiziarie assunte dalla macchina e i dati utilizzati per giungere a quella decisione.
Anche in Italia, è ampio il dibattito attorno a tutti i profili di “roboetica”, ovverosia tutte quelle variegate implicazioni scientifiche, sociali, economiche, filosofiche e giuridiche che l’A.I. fa scaturire in ambiti disciplinari tradizionalmente complessi e non omogenei tra loro8.
In particolare, il 26 luglio 2017 è stato pubblicato il parere Sviluppi della robotica e della roboetica, elaborato dal gruppo misto costituito dal Comitato Nazionale per la Bioetica (CNB) e dal Comitato Nazionale per la Biosicurezza, le Biotecnologie e la Scienza della Vita (CNBBSSV)9.
Il documento definisce le possibilità, potenzialità e limiti delle nuove emergenti
tecnologie, distinguendo i robot con un corpo da quelli senza corpo (meccanico), con e senza intelligenza, delineando gli scenari che si prefigurano alla luce delle recenti trasformazioni della robotica applicate in diversi ambiti. In particolare, in ambito giuridico, è sottolineata la necessità di un chiarimento del nuovo significato e dei limiti della responsabilità giuridica umana nei confronti dei robot, la tutela dei cittadini e la sicurezza, nell’auspicio di una normativa europea di settore.
Fatta questa debita premessa (al contempo, probabilmente, troppo estesa per gli avvezzi della materia e troppo poco per i meno avvezzi), ci concentreremo, nelle prossime pagine, non sulle implicazioni inerenti il settore penale nella sua interezza10, ma soltanto su quel che concerne la giustizia penale.
In particolare, sugli strumenti di A.I. a disposizione di chi amministra la Giustizia e, viceversa, di chi difende i diritti di imputati e vittime all’interno di un procedimento penale e di un processo.
Per comprendere, dapprima, se si sta andando verso uno scenario in cui si ribalta l’abituale rapporto tra uomo e macchina (non più quest’ultima al servizio del primo, ma viceversa)11. E, in secondo luogo, se l’espansione dei sistemi di machine learning all’interno della giustizia penale contribuirà o meno a superare i limiti valoriali ed epistemologici insiti in quest’ultima verso la ricerca della verità, contribuendo ad un processo penale davvero “giusto”.
2. La decisione giudiziaria fondata sull’A.I.
Il termine “giudicare” significa pronunciare il diritto (ius dicere), e per farlo è necessario conoscere in quali termini si è realmente svolto un fatto, per poi inquadrarlo all’interno di un paradigma giuridico.
La prima delle due operazioni è quella che ci fa più difetto: l’uomo non è in grado di conoscere con esattezza la verità storica.
Il sistema delle giustizia penale, che non può ancorare la punizione di fatti che ledono beni giuridicamente tutelati alla sola certezza della verità storica, ha dunque optato per una rappresentazione fondata su regole e garanzie, affidata ad un soggetto terzo e imparziale, all’esito della quale si perviene ad una conclusione che la collettività è (o dovrebbe essere) disposta ad accettare come vera12.
Ciò in quanto essa è percepita dalla collettività come lo strumento meno imperfetto per giungere alla verità, in un determinato contesto storico (connotato da condizioni culturali e scientifiche ad esso riconducibili).
Ecco, in ciò, l’applicazione dell’A.I. alla giustizia penale potrebbe rappresentare un cambio di strumenti a disposizione, più che di vero e proprio paradigma gnoseologico, considerando che consentirebbe di sostituire le ontologicamente limitate garanzie controfattuali del diritto con le garanzie fattuali della tecnologia, potenzialmente assolute e perfette, evitando al contempo ogni condizionamento culturale, personale o cognitivo che può inquinare la decisione umana.
L’A.I. sarebbe, dunque, il coronamento degli obiettivi del diritto penale, primo fra tutti una miglior tutela dei beni giuridici?
Certo, si potrebbe obiettare, ma a quale prezzo?
L’Intelligenza artificiale potrebbe portare alla morte degli ideali del diritto penale, o forse addirittura del diritto penale stesso, quantomeno di quello tipico di una società liberale, fondato sulla presunzione di innocenza. E, oltretutto, rischierebbe di sostituire i limiti cognitivi e valoriali dell’uomo (per sua stessa natura fallibile, e dunque anche più facilmente rivalutabile da altro uomo nelle proprie decisioni) alla ricerca della verità processuale, con una una decisione frutto di limiti altrettanto grandi (si pensi a tutta la questione del c.d. “bias in, bias out”), ma meno evidenti. Una decisione più subdolamente ammantata di certezza assoluta per il solo fatto di provenire da una macchina13, ma in verità ancora più imperfetta.
I c.d. Automated decision systems, ovverosia algoritmi basati sull’A.I., sono già da qualche anno utilizzati per finalità decisionali in vari ambiti, sia pubblici (ad esempio nel settore degli appalti pubblici o dell’assistenza sanitaria)14 che privati, si pensi, ad esempio, al settore assicurativo, dove i sistemi di A.I. vengono utilizzati per la valutazione del rischio assicurabile del cliente e a quello finanziario, dove si va diffondendo sempre più la figura del c.d. robo advisor, che acquisisce i dati direttamente dal cliente ed elabora giudizi di investimento in modo autonomo, senza alcun intervento umano15.
In ambito giudiziario gli algoritmi decisionali sono perlopiù utilizzati nel campo civilistico (tra cui risarcimento danni, pratiche assicurative, danni da prodotto, etc.) e in particolare nella negoziazione volta a prevenire o comporre controversie. Non è un caso che, in Paesi quali gli Stati Uniti dove lo strumento della negotiation è particolarmente utilizzato, l’utilizzo dell’A.I. è già ad un livello di diffusione piuttosto capillare.
In sostanza, si tratta di sistemi di A.I. che attingono e processano una straordinaria mole di dati contenuti in banche dati relativi a precedenti giudiziari e accordi stragiudiziali, identificando analogie e differenze al caso concreto, e giungendo ad un risultato tendenzialmente oggettivo ovvero privo di pregiudizi valutativi.
Anche in altri Paesi, come l’Estonia, il giudice-robot è già da tempo realtà.
Dal 1997, lo stato nordico ha avviato il progetto “e-Estonia”, diventando così a livello mondiale un modello di evoluzione tecnologica.
Attraverso la piattaforma digitale “X-road” si possono comporre controversie giudiziarie del valore massimo di settemila euro. Le parti di un contenzioso inseriscono tutti i dati, gli atti e i documenti rilevanti, affidando ad un algoritmo, appositamente elaborato da un team di esperti di nomina governativa, la soluzione del caso.
Modalità similari di utilizzo sarebbero potenzialmente applicabili, con necessari adattamenti, anche alla giustizia penale.
Siamo però ancora nel campo dell’intelligenza artificiale al servizio dell’uomo. Sul punto, la già citata Carta etica europea per l’uso dell’intelligenza artificiale nei sistemi giudiziari16, ha appunto rimarcato l’importanza del principio di garanzia del controllo umano, per evitare l’automatismo e la standardizzazione delle decisioni assunte.
Così, nel descritto sistema “e-Estonia”, al fine di garantire il controllo umano sulla decisione automatizzata, è sempre riconosciuto il diritto delle parti ad impugnare la sentenza del giudice-robot avanti ad un giudice umano.
Altro punto fondamentale, è la garanzia del controllo del soggetto nei cui confronti la decisione va ad incidere sui processi algoritmici utilizzati dalla macchina.
Ma non è questo richiesto anche all’amministrazione della giustizia affidata ai giudici umani? Il procedimento giurisdizionale di per se stesso richiede che il popolo, in nome del quale è amministrata la giustizia, possa conoscere come operi l’organo terzo e imparziale cui la stessa è affidata. E se la collettività è insoddisfatta di come l’amministrazione della giustizia opera, attraverso il potere legislativo cambia le regole che il giudice applica17.
Provando a traslare tutto il ragionamento a sistemi di I.A. ci accorgiamo che le differenze non sono (e non sarebbero) poi così tante.
Tali tematiche sono salite alla ribalta in riferimento al noto “caso Loomis”18, dal nome dell’imputato- la cui pena era stata commisurata sulla base dell’algoritmo COMPAS, acronimo di Correctional Offender Management Profiling for Alternative Sanctions– che aveva fatto ricorso alla Corte Suprema del Wisconsin per violazione del suo diritto ad un giusto processo (right to due process). In particolare lo stesso lamentava di non poter controllare i processi algoritmici poiché protetti da segreto industriale, nonché di essere stato giudicato sulla base del solo algoritmo predittivo COMPAS, contestato in quanto effettuava valutazioni non individualizzate, ma su base collettiva/di gruppo e sovrastimando il rischio commissione di reati a carico di alcune minoranze etniche19. La Corte respingeva il ricorso sulla base dell’argomentazione che non esiste un diritto dell’individuo “alla spiegazione” rispetto ad una previsione algoritmica del rischio (in quel caso relativo alla recidivanza).
Al di là della motivazione della sentenza, ossia la spiegazione dell’iter logico-giuridico seguito da un giudice per giungere ad una pronuncia assolutoria o di condanna, possiamo forse dire che esiste un diritto dell’individuo a conoscere i percorsi neurali del cervello del giudice umano, la sua formazione personale/ familiare/ sociale/ culturale, i suoi condizionamenti, le sue passioni, i suoi gusti, le sue idee che lo hanno portato a decidere in quel modo?
Ovviamente, la risposta è no.
E, anche in questo caso, ci accorgiamo che le opinioni critiche verso l’utilizzo dell’A.I. che fanno leva su questo ordine di ragioni, sono confutate da quanto già avviene nella giustizia amministrata da giudici uomini.
3. Verso un Giudice-robot?
Il “caso Loomis” è emblematico di quanto alcuni Paesi (anzitutto gli Stati Uniti, ma anche la Germania) stiano già utilizzando sistemi di Predictive o Big Data Policing, ovverosia algoritmi intelligenti che forniscono agli organi statali potenti strumenti di contrasto alla criminalità sfruttando i dati già immessi nelle banche dati delle Forze di Polizia.
L’idea di fondo è affidare ad algoritmi predittivi le decisioni sull’imposizione della carcerazione preventiva per il fondato rischio di reiterazione di altri reati, sulla liberazione anticipata e su misure alternative grazie ad una prognosi positiva di risocializzazione, sulla commisurazione della pena (nei Paesi in cui ciò avviene in uno step logico-giuridico diverso e successivo alla pronuncia della sentenza di colpevolezza)20.
Questi sistemi di A.I. altro non fanno prendere una decisione sulla base di una valutazione algoritmica dei rischi (algorithmic risk assessment).
In un sistema penale come quello tedesco (dove come detto il sistema già è utilizzato) ciò potrebbe sembrare assurdo, in quanto contrastante con il principio costituzionale dell’indipendenza della Magistratura.
Ma se considerassimo lo stesso sistema di A.I. parte organica (non importa se come “oggetto/strumento” o come “soggetto”) della Magistratura, ci accorgiamo dell’infondatezza anche di tale argomentazione.
Certo, i critici potrebbero ribattere che il problema è che i software giudiziari utilizzati (come ad esempio COMPAS, di cui abbiamo accennato in precedenza), sono prodotti da società private, che potrebbero per propri interessi vari prevedere volutamente delle distorsioni valutative21.
Basterebbe, dunque, affidare l’elaborazione dei software a società sotto il controllo della Magistratura stessa, una sorta di “software-house in house”, per non comprometterne l’indipendenza.
Per quanto attiene alle prospettive di utilizzo di sistemi di A.I. “giudicanti” nell’ambito del processo penale, la perplessità di fondo è che così facendo si rischierebbe di sostituire categorie deterministiche ad un processo penale il cui paradigma è, invece, quello, in caso di accertata colpevolezza, di giungere ad una pena individualizzata e che possa tendere in concreto alla rieducazione del reo.
Vi sono, poi, problematiche applicative di tipo più “tecnico”, che possono essere riassunte in tre aree22:
– anzitutto, la valutazione da parte di un giudice-robot della testimonianza, mezzo di prova principe del processo penale, incontrerebbe la difficoltà nel comprendere quelle sfumature emotive e prettamente “umane” che consentono al giudice-uomo di capire se un teste stia dicendo la verità o mentendo.
A questa preoccupazione, si potrebbe obiettare che in alcuni ordinamenti giudiziari, ad esempio negli Stati Uniti, esistono già da tantissimo tempo strumenti, non fondati sull’A.I., in grado viceversa di aiutare l’uomo a capire se una persona dica la verità o meno23;
– in secondo luogo, evidente sarebbe la difficoltà del giudice algoritmo per stabilire se determinati indizi possano essere considerati “gravi, precisi e concordanti”, tanto da giustificare una pronuncia di condanna. Ciò in quanto i criteri di valutazione della prova non sono predeterminati ma affidati alla prudenza del Giudice.
Analoghe problematiche potrebbero estendersi ad altre fasi procedimentali e processuali: si pensi ad esempio, al momento della decisione del Giudice, sull’ammissibilità delle prove richieste dalle parti all’apertura del dibattimento; alla fase-stralcio per la individuazione delle intercettazioni telefoniche rilevanti di cui si effettuerà la trascrizione; alla scelta di utilizzare le previste modalità di assunzione della testimonianza “protetta” in presenza di determinati reati ex art. 498 u.c. c.p.p. ovvero di procedere ad incidente probatorio ex art. 398 co. 5-bis c.p.p. per l’assunzione di determinate testimonianze. E si pensi anche allo strumento di garanzia della ricusazione;
– da ultimo, il giudice-robot avrebbe più di un problema ad “interiorizzare” nelle sue capacità computazionali il criterio garantistico di giudizio dell’oltre ogni ragionevole dubbio, che impone al giudice di assolvere ogniqualvolta manchi, sia insufficiente o contraddittoria la prova che il fatto sussiste, che l’imputato lo ha commesso o che esso costituisca reato o che il reato è stato commesso da persona imputabile. Pensandoci bene, anche questa “obiezione ontologica” ben potrebbe essere superata, considerando che la regola dell’oltre ogni ragionevole dubbio non si traduce nell’escludere la prospettabilità di una (o più) ipotesi alternativa, bensì nel rilevare che ogni altra ricostruzione alternativa, in base alle emergenze processuali, è risultata altamente improbabile24. Anche il giudice-robot potrebbe valutare ogni ricostruzione alternativa e, creando una sintesi tra la sua logica binaria e quella probabilistica, scegliere oltre ogni ragionevole dubbio la ricostruzione dei fatti, tra quelle potenziali alternative, che risulta meno improbabile. E forse sarebbe in grado di farlo ancor meglio del giudice umano, spesso “attratto” più o meno consapevolmente da una ricostruzione dei fatti piuttosto che da un’altra, secondo limiti cognitivi nascenti da condizionamenti interni (pregiudizi, da cui anche il sistema di A.I. potrebbe non risultare esente) e condizionamenti esterni (da cui, invece, la macchina certamente non sarebbe “contaminata”).
Si pensi, per esempio, al problema delle Corti “miste” (magistrati togati e giudici popolari estratti a sorte tra i cittadini), cui viene affidata la giurisdizione dei reati di maggior allarme sociale. Un giudice popolare garantisce davvero, chi è sottoposto al giudizio in ordine alla sua colpevolezza, più di una macchina fondata su avanzatissimi sistemi di machine learning?
Possiamo, dunque, iniziare a rovesciare il paradigma e immaginare un giudice-umano al servizio del giudice-robot, che possa coadiuvarlo in alcuni “passaggi” processuali, che possa guidarlo in alcune scelte che richiedono più di altre la “sensibilità” umana, che possa scrivere per la macchina le motivazioni della decisione da quest’ultima assunta25 e che, in determinate circostanze, possa trasformarsi in un giudice di ultima istanza e ribaltare l’esito processuale, non diversamente da quanto già accade nel giudizio di revisione, di fronte a un giudicato “ingiusto”.
E se, poi, questo si traducesse in una minor durata del processo, e conseguentemente in una condanna che svolgerebbe assai meglio la propria finalità rieducativa (su un soggetto temporalmente e personologicamente assai più “simile” a quello che ha commesso il reato), non potrebbe considerarsi il meno fallibile, il meno incompleto, e al contempo il più garantista dei sistemi processualpenalistici?
4. L’A.I. al servizio dell’avvocato difensore nel processo penale
Un algoritmo non si può convincere. Questa, forse, è la principale paura dell’avvocato difensore all’introduzione di un giudice-robot.
Ma, francamente, pensare che l’esito di un processo sia affidato ad una macchina è forse, in taluni casi, più “tranquillizzante” che pensare che sia affidato all’uomo.
E, rovesciando il concetto, un algoritmo non può convincere.
Non è dunque possibile pensare ad un avvocato-robot nel processo penale?
Certo, la persuasività della difesa nel processo penale passa anche sull’emotività suscitata dalle argomentazioni, e dalla loro esposizione26.
Ma sono assai lontani i tempi del Carnelluti, che enfatizzava la dimensione dialogica della giustizia, in cui l’oralità processuale fa affiorare l’importanza dell’eloquenza, che combina musica e poesia attraverso l’uso sapiente delle pause27.
Ormai nelle aule di Tribunale i processi si fondano su dati, documenti, strumenti e metodi ultra-tecnici.
Un buon avvocato difensore, sin dalla fase iniziale del procedimento penale (e, a volte, ancor prima della sua instaurazione), compie attività di indagine difensiva, si avvale di consulenti tecnici, analizza le prove raccolte dal Pubblico Ministero secondo metodologie proprie della scienza.
All’oratoria è rimessa una parte, pur importante, ma residuale dell’attività difensiva. La parte finale, l’impiattamento di una ricetta gourmet basata su ottimi ingredienti selezionati con cura, assemblati in maniera perfetta e cucinati con attenzione.
Questa parte, quella fondata sull’estetica dell’argomentazione giuridica, sulla teatralità dell’esposizione emozionale dei fatti, sul saper “fare vibrare le corde del cuore” certo, non potrebbe mai essere affidata ad un avvocato-robot.
Ma siamo davvero sicuri che, in tutto il resto, un avvocato-macchina non possa superare l’avvocato-umano nel convincere un giudice-robot? E che tutto questo non si traduca in un processo davvero più “giusto”?
I critici sostengono con forza che tutto ciò comporterebbe la violazione del diritto costituzionale di difesa: che senso avrebbero le argomentazioni di un avvocato di fronte ad un giudice che pronuncia le sentenze sulla base del suo algoritmo28?
Un avvocato cerca di indirizzare la decisione del giudice nel senso più favorevole possibile agli interessi del cliente.
Ebbene, un avvocato-robot non potrebbe fare altrettanto, anzi più e meglio di un avvocato umano? Per esempio, selezionando elementi di prova a discarico, precedenti giurisprudenziali favorevoli, minando sotto il profilo tecnico e logico le prove dell’accusa, individuando testimoni potenzialmente utili, evidenziando testimoni falsi delle controparti.
E, sopratutto, potrebbe fare ciò, in ausilio o in (parziale) sostituzione del difensore-umano, utilizzando gli stessi percorsi algoritmici utilizzati in sede decisionale dal giudice.
Siamo ancora lontani da un simile futuro: non dal punto di vista tecnologico, dove le tecnologie di machine learningpotrebbero già consentire scenari di questo genere, ma dal punto di vista culturale.
Il presente è che, negli Stati Uniti per esempio, gli avvocati-robot sono già realtà in determinati settori (come abbiamo accennato in precedenza, in primis nell’ambito della negoziazione), e sembrano conversare in linguaggio naturale con gli esseri umani. La tecnologia legale sta progettando sempre più nuovi e avanzati servizi legali per avvocati, e in un prossimo futuro l’elemento qualitativo dell’essere umano diventerà quello del controllo sul lavoro che la macchina farà in modo veloce ed efficace29.
Sempre negli Stati Uniti si vanno diffondendo sistemi di predictive coding, in grado di aiutare gli avvocati nella c.d. e-discovery, ovvero la selezione in base alla rilevanza di documentazione all’interno di un processo (mediante meccanismi di filtrazione simili a quelli utilizzati dagli antispam)30.
Il punto non è dove la tecnologia potrà arrivare nel campo della difesa penale, il punto è quanto l’uomo accetterà di lasciar spazio all’A.I. in un ambito normalmente di suo appannaggio.
Ma, ad avviso di chi scrive, per superare la gran parte delle riluttanze della dottrina processualpenalistica all’avvento del giudice-robot, l’unica strada è pensare ad una sostanziale “parità delle armi” anche in questo settore, con la possibilità di pensare a team difensivi formati (anche) da avvocati-robot.
5. Le indagini difensive dell’Avvocato-robot
Abbiamo accennato nel precedente paragrafo all’utilizzo di sistemi di intelligenza artificiale basati sul predictive coding, quale ausilio dell’avvocato americano nella selezione della documentazione rilevante all’interno di un processo (c.d. e-discovery).
Vogliamo, invece, ipotizzare in questo paragrafo un tema di riflessione diverso: l’utilizzo dei sistemi di intelligenza artificiale per il compimento automatizzato di indagini difensive nel sistema processuale italiano.
Si è assistito, negli ultimi anni, a fronte dell’enorme crescita del settore dell’IoT (Internet of Things), ad una esponenziale moltiplicazione delle fonti di prova digitali.
Gli strumenti di domotica di una abitazione moderna, i device di quotidiano utilizzo lavorativo, i sistemi a guida autonoma, i dispositivi medicali collegati via bluethooth o wireless sono fonti inesauribili di indirizzi IP, dati di log, posizioni, orari, immagini, video, celle telefoniche, etc.
Ipotizzando scenari in cui l’I.A. entri nel processo penale, il cambio di prospettiva sul ruolo del difensore nel processo penale, iniziato a partire dalla l. 397/2000 -che ha introdotto nel codice di procedura penale italiano la possibilità per il difensore di effettuare indagini difensive per ricercare e individuare elementi di prova a favore del proprio assistito- deve subire necessariamente un ulteriore accelerazione. Una strategia difensiva che lasci alla sola accusa il compito di raccogliere le prove, rimandando il proprio intervento alla fase processuale vera e propria (magari facendo leva su quella “oratoria” di cui si parlava in precedenza), risulta ancora più anacronistica se applicata all’acquisizione di prove digitali, dove la loro connaturata volatilità e modificabilità rende ancor più fondamentale il tempismo dell’intervento31.
Si può, a questo punto, ipotizzare l’applicazione a fini difensivi di software di I.A. che possa (autonomamente o sotto il controllo del difensore-umano) assicurare fonti di prova digitale rispettando gli standard nel trattamento delle stesse, ovverosia verificabilità (chain of custody), ripetibilità, riproducibilità e giustificabilità32.
Ma pensiamo ad un altro campo dove l’avvocato-robot potrebbe autonomamente svolgere indagini difensive, ovverosia quello della Open Source Intelligence (OSINT)33, la ricerca di prove su fonti aperte (analogiche e informatiche, così come pure quelle presenti nel c.d. deep web), ormai utilizzata abitualmente dagli investigatori, ma ancora troppo poco dai difensori “analogici”.
Attraverso l’OSINT, il difensore-robot potrebbe facilmente ad esempio facilmente scoprire un testimone che ha interessi personali verso un determinato esito del processo, o un testimone che ha rapporti personali non dichiarati con una delle parti, o perfino un giudice che abbia queste potenziali “vulnerabilità”.
Attraverso l’OSINT, il difensore-robot potrebbe anche acquisire informazioni utili nei portali delle P.A., che il difensore umano, attraverso il canale previsto dall’art.391-quater c.p.p., avrebbe ben più difficoltà a reperire.
Ad oggi ci sono già moltissimi strumenti che di fatto possono rappresentare un valido supporto all’investigatore: da Maltego (utilissimo software per individuare le relazioni tra soggetti ed eventi) a Waybackmachine- Internet Archive(archivio digitale ove reperire vecchie pagine web o altri dati di siti ormai deindicizzati), dai dati ExiF che contengono tutti i metadati di una fotografia a tutti quegli strumenti utili a creare una “timeline digitale” che potrebbe risultare decisiva a fini difensivi. Ipotizzare algoritmi che facciano tutto ciò in gran parte autonomamente, sotto la supervisione dell’umano, non è fantascienza.
Ovviamente, permarrebbero problematiche in tema di privacy (non dissimili, però, da quelle che incontra l’avvocato difensore quando effettua indagini difensive “tradizionali”)34, che ben potrebbero essere “spiegate” al sistema di A.I.
Stesso dicasi per le Regole deontologiche relative al trattamento di dati personali effettuati per svolgere investigazioni difensive pubblicate dal Garante per la Protezione dei Dati Personali35, che definiscono anche le modalità di trattamento di dati acquisiti da fonti aperte, imponendo tra l’altro apposite modalità di conservazione di tali dati e disciplinando la cancellazione di tali dati una volta terminato il giudizio36.
Insomma, il futuro è adesso. O quantomeno potrebbe esserlo.
Ma siamo certi che il mondo forense sia preparato a divenirne attore?
6. Profili di responsabilità civile e penale e problematiche di privacy del Robot-giurista
Si discute molto circa la responsabilità, sia civile che penale, del sistema di machine learning, in grado di apprendere dalle esperienze proprie e di altri sistemi connessi in cloud, e di prendere decisioni indipendenti orientate sulla base delle passate esperienze.
Non approfondiremo in questa sede la tematica, assai ampiamente dibattuta, della titolarità della responsabilità riguardo il danno o il reato commesso da un sistema di A.I.37, ma ci soffermeremo unicamente (e brevemente) sui profili di responsabilità (civile, penale e professionale) del giudice-robot e dell’avvocato-robot, e analizzeremo poi le connesse responsabilità in materia di trattamento dei dati personali da parte dell’algoritmo giudiziario alla luce del GDPR.
Chi è, dunque, responsabile dell’errore giudiziario commesso, del danno provocato, della carcerazione ingiustamente inflitta, della prova alterata, di ogni illecito disciplinare commesso, di un errato o illecito trattamento dei dati personali dei soggetti sottoposti alla decisione o alla “difesa tecnica” della macchina?
Per rispondere a tale ordine di quesiti, occorre anzitutto partire dal tema della soggettività giuridica del robot, ovvero comprendere se lo stesso sia dotato di una propria soggettività giuridica separata da quella dell’umano produttore, programmatore o utilizzatore, o al contrario la responsabilità ricada necessariamente in capo all’uomo.
Ammettendo che i robot siano dotati di una propria soggettività, ipotizzando un loro status giuridico di persona, si potrebbe ipotizzare anche nel campo della giustizia che gli unici responsabili di eventuali violazioni commesse o danni causati siano loro, dovendosi circoscrivere la responsabilità del produttore e del programmatore solo in caso di errore di progettazione o malfunzionamento vero e proprio38.
Ancor più delicato il tema della responsabilità penale del robot (può una macchina commettere un reato?) dal momento che il diritto penale, quantomeno nei sistemi di civil law, prevede un modello imputativo chiaramente disegnato “a misura d’uomo”39, che mal si attaglierebbe ai sistemi di A.I, se non considerando al più la macchina come uno strumento nelle mani dell’uomo – il programmatore, il costruttore o l’utilizzatore finale umano- secondo un modello di responsabilità vicaria dell’uomo40.
Alcuni autori suggeriscono di ipotizzare una “soggettività attribuita o ascritticia”, distinguendola dalla soggettività giuridica ontologica, intendendo una particolare species di soggettività conferita attraverso atti formali da una autorità secondo criteri pratico-funzionali41. In sostanza si ammette che il diritto possa attribuire, attraverso una fictio iuris, lo status di soggetto ad una entità non umana sulla base di un’esigenza funzionale, e al contempo si respinge l’idea di una intrinseca soggettività del robot, al pari di quanto avviene con le persone giuridiche nel modello imputativo previsto dal d.lgs. 231/2001.
Problema, peraltro, intimamente connesso a questo, che potrebbe emergere in maniera forte riguardo al giudice e all’avvocato robot, è quello della c.d. “deresponsabilizzazione” dell’agente umano, sia dal punto di vista morale che da quello più squisitamente egoistico delle conseguenze professionali/giuridiche conseguenti ad atti illeciti o, in ogni caso, forieri di conseguenze risarcitorie42.
Vi sono, da ultimo, da analizzare brevemente una serie di profili problematici legati alla tutela della Privacy alla luce del GDPR, che potrebbero venire in rilievo nelle applicazioni giudiziarie dei moderni sistemi di I.A.
Molto banalmente potremmo sintetizzare che, per essere così intelligente, ed essere sempre più intelligente, la macchina ha bisogno di un numero sempre maggiore di dati personali e, nel caso di macchine giudiziarie, anche di dati giudiziari.
Il “patto perverso” dell’utente con le macchine, finora, è stato quello di cedere i propri dati personali in cambio di sistemi di commodities sempre più appetibili e sempre meno costosi. Ma saremmo ugualmente disposti a cedere i nostri dati sapendo che, in cambio, la macchina non ci indicherà la nostra meta di viaggio preferita ad un prezzo eccezionale, ma utilizzerà quei dati per fondare una sentenza contro di noi43?
Il legislatore europeo del GDPR ha certamente trascurato molti aspetti legati all’utilizzo “a cascata” dei big data44, come abbiamo visto fondamento centrale del machine learning “auto-evolutivo”, strutturando al contrario un sistema di trattamento dati tendenzialmente statico, che ruota attorno ad un titolare che progetta i trattamenti, ne valuta i rischi e adotta tutte le misure necessarie a tutela dei diritti dei terzi interessati45.
La questione ruota non tanto attorno a quelle macchine la cui automatizzazione riguarda essenzialmente la fase applicativa (in tal caso come si comprende le scelte riguardanti modalità e finalità del trattamento sono assunte in precedenza dal programmatore “umano”), ma i processi decisionali automatizzati veri e propri- quali potrebbero essere quelli ipotizzati nei paragrafi precedenti nel campo giudiziario- laddove il robot si potrebbe configurare come autonomo titolare del trattamento.
Con tutti i problemi che a ciò conseguirebbero in ordine alla controllabilità delle scelte procedimentali, nonché all’accessibilità e verificabilità di tali scelte da parte degli interessati i cui diritti vengono incisi46.
Il GDPR, come è noto, disciplina i trattamenti dei dati effettuati in via automatizzata all’art. 2247, che prevede il diritto del cittadino europeo di non essere sottoposto ad una decisione basata unicamente sul trattamento automatizzato che produca effetti giuridici che incidano sulla sua persona, salvo che la decisione sia necessaria per la conclusione o l’esecuzione di un contratto ovvero che tali processi automatizzati sono stati autorizzati dal diritto UE o nazionale, o qualora la decisione si fondi sul consenso esplicito dell’interessato.
Si comprende come gli scenari di “Intelligenza artificiale giudiziaria” ipotizzati nei paragrafi precedenti solleverebbero due ordini di problemi assai gravi.
Il primo, relativo appunto alla necessità che il soggetto sottoposto ad un procedimento civile o penale rimesso alla decisione di un giudice-robot (meno problemi darebbe il caso in cui si affidi alla difesa di un avvocato-robot) dovrebbe sempre farlo sulla base di una libera scelta, e in ogni caso secondo i limiti di cui di cui all’art. 9. Oppure dovrebbe intervenire una legislazione eurocomunitaria o nazionale che imponga tale situazione in determinati casi, ma creando un evidente contrasto con l’intero impianto del GDPR.
Il secondo ordine di problemi torna a convergere, questa volta per quanto attiene la titolarità del trattamento, sul discorso iniziale, ovverosia sulla volontà/necessità di riconoscere una autonoma soggettività giuridica ai sistemi avanzati di Intelligenza Artificiale, slegata e ulteriore rispetto a quella del programmatore o dell’utilizzatore umano.
Se è vero come è vero, però, che il ruolo di titolare del trattamento può essere assunto non solo da persone fisiche, ma anche da persone giuridiche, si potrebbe ipotizzare che tale ruolo e le connesse responsabilità ricadano su un sistema di A.I.48.
Ad oggi potremmo dire che un cambiamento autonomo delle finalità del trattamento (autoapprendimento) del sistema di machine learning, non sarebbe supportato da alcuna base giuridica, non preventivamente predeterminato e quindi illecito ai sensi dell’art. 6 del GDPR.
Ma vale quanto già detto in precedenza: si tratta di capire in che direzione andrà la coscienza socio-giuridica e la volontà politica. Servirebbe un ulteriore “salto in avanti” in ordine al principio di privacy by design (protezione dei dati sin dal momento della progettazione del processo tecnologico), introdotto dall’art. 25 del GDPR, e punto focale della interazione persona/macchina. Esso andrebbe, cioè, “spinto” fino al punto di richiedere che l’algoritmo della macchina giudiziaria sia esso stesso, nel corso della sua “vita in evoluzione”, in grado di auto-modellarsi e correggersi in conformità ai principi del GDPR.
7. Conclusioni e prospettive
«Il modo più affidabile di predire il futuro è crearlo». (Abraham Lincoln)
Considerati i risultati pratici -soprattutto in termini di risparmio di tempo e costi- conseguiti all’impiego dei modelli matematico-statistici nell’ambito della giustizia penale, neppure le cautele e alcuni warning delle Corti, oltre allo scetticismo di molti addetti ai lavori, soprattutto in ordine al rispetto delle garanzie del due process nella raccolta di informazioni utili per la valutazione del rischio nel mondo reale e a eventuali bias discriminatori, sono riusciti a frenare l’impetuosa avanzata dei sistemi di I.A. di tipo predittivo nella giustizia penale americana.
Ci si interroga se non sia questo l’inizio di un radicale mutamento di paradigma della struttura e della funzione della giurisdizione, che possa via via rappresentare la “breccia” dalla quale far passare “tutto il resto”.
A fronte della complessità tecnica, dei tempi e dei costi delle faticose operazioni giudiziali ricostruttive del fatto, la postmodernità metterà in crisi l’equità, l’efficacia e le garanzie del modello proprio del razionalismo critico, oppure resterà ben salda e vitale l’arte del giudicare “reasonig under uncertainty”, seppure “by probabilities”49?
Siamo forse al punto in cui inizia a vacillare il confine tra persona e machina, quantomeno a livello di responsabilità.
Abbiamo analizzato solo alcune delle problematiche sottese all’utilizzo dell’A.I. nel campo della giustizia penale, potendo però riscontrare una importante costante: la gran parte delle obiezioni riguardanti l’impiego di sistemi di intelligenza artificiale in luogo della parte processuale “umana”, in realtà, scontano gli stessi limiti (e, forse, anche in minor misura) dell’attuale sistema antropocentrico che tende in maniera imperfetta verso la ricerca della verità.
Il punto di partenza dovrà essere risolvere e superare, una volta per tutte, l’approccio penalistico tradizionale rispetto alle res mechanicae, che si basa sul dogma sussumibile nel brocardo machina delinquere non potest e fa da esso derivare quale corollario inseparabile l’applicabilità, quale unico possibile modello di imputazione di responsabilità, quello vicario.
Secondo questo approccio non c’è un “agire della macchina”, ma sempre e comunque un “agire dell’uomo mediante la macchina”50.
Senza il superamento di questo approccio, senza un balzo in avanti che attribuisca alla macchina una autonoma responsabilità (civile e penale, e anche disciplinare), non potrà mai realizzarsi uno scenario di giustizia penale affidata, seppur parzialmente, ad un giudice o ad un avvocato robot. Si rischierebbe, altrimenti, di privare il sistema, e da ultimo il cittadino “utente del sistema penale”, degli strumenti a tutela di fatti integranti responsabilità penale o civile o disciplinare da parte del Giudice o dell’avvocato.
Le nuove e sempre più promettenti tecnologie nel campo del machine learning -superato ormai abbondantemente il paradigma iniziale secondo cui ogni comportamento della macchina è scritto nel suo “DNA artificiale” dall’uomo- addirittura consentono all’A.I. di apprendere non solo dall’esperienza propria, ma anche da quella di altre macchine mediante il c.d. cloud computing51, creando macchine dal comportamento in parte imprevedibile ex ante52 e lasciando pensare che siamo davvero all’inizio di una potenziale “rivoluzione culturale”.
Ad essa dovrà far seguito necessariamente una “rivoluzione normativa”, ovverosia l’emanazione di regole di principio (anche costituzionali) e precettive adeguate alla nuova realtà, per consentire l’applicazione dell’A.I. nel campo della giustizia penale, in modo non “vicario” ma “paritario” rispetto all’uomo, e al contempo in maniera tale da non ridurre, ma anzi incrementare, la garanzia più preziosa.
Quella ad un Giusto processo.
Il momento è già arrivato. Ma siamo sicuri di volerlo?
1J. Kaplan, Intelligenza artificiale. Guida al futuro prossimo, Luiss University Press, Roma, 2018, p. 32 s., sostiene che «i computer già oggi superano le capacità umane in molti compiti, inclusi alcuni che credevamo avessero bisogno di intelligenza umana per essere svolti. Guidare automobili, giocare a Jeopardy!, prevedere i conflitti e compilare la rassegna stampa non sono che pochi esempi».
2A. Turing, Computing Machinery and Intelligence, in Mind, New Series, 1950, v. 59, n. 236, p.433 ss.; concetti ripresi e fatti propri dal Rapporto dell’Aspen Institute Italia, Intelligenza artificiale come nuovo fattore di crescita, luglio 2017, 1).
3Pensiamo, per esempio, ai robot per l’assistenza agli anziani, ai disabili o ai bambini, che debbono necessariamente avere sembianze umane, ma non troppo: “umanoidi” appunto, per creare empatia con l’assistito mantenendo però un solco di distanza rispetto ai rapporti interumani.
4AA.VV., Artificial Intelligence and Robotics and their impact on the workplace, International Bar Association Global Employment Institute (IBA GEI), 2017.
5Risoluzione del Parlamento Europeo del 16 febbraio 2017 recante raccomandazioni alle Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL)), consultabile all’indirizzo https://eur-lex.europa.eu/legal-content/IT/ALL/?uri=CELEX:52017IP0051.
6Il documento è consultabile all’indirizzo: https://rm.coe.int/carta-etica-europea-sull-utilizzo-dell-intelligenza-artificiale-nei-si/1680993348.
7In particolare, si deve evitare il rischio che i bias cognitivi tipici dell’uomo si traducano in bias esperienziali acquisiti autonomamente dai sistemi di machine learning o “scritti” in fase di programmazione dall’uomo stesso, anche prevedendo meccanismi correttivi in grado di limitare e neutralizzare tale evenienza.
8Secondo, M. Talacchini, Politiche della scienza contemponaea: le origini, in S. Rodotà, M. Tallacchini (a cura di), Ambito e fonti del biodiritto, Giuffré, Milano, 2010, pp. 53 ss., «la volontà costante di integrare scienza e valori rappresenta il tratto più caratteristico dell’identità epistemica europea, la peculiare cifra della politica e del diritto della scienza in Europa».
9Il documento è consultabile all’indirizzo: http://bioetica.governo.it/italiano/documenti/pareri-gruppo-misto-cnbcnbbsv/sviluppi-della-robotica-e-della-roboetica/
10Esse sono sussumibili, in genere, nei seguenti ambiti: a) “Polizia Predittiva” o attività di law enforcement; b) Algoritmi decisionali (c.d. Automated decision systems); c) Algoritmi predittivi ai fini della valutazione della pericolosità sociale e criminale; d) I.A. come centro di imputazione di responsabilità penale. Per una dettagliata analisi sul tema, cfr. F. Basile, “Intelligenza artificiale e diritto penale: quattro possibili percorsi di indagine”, in Diritto Penale e Uomo, 29 settembre 2019.
11Senza, ovviamente, pensare a scenari “catastrofistici” in cui la macchina, ormai pensante e senziente, si ribella all’uomo, sul modello di HAL 9000 di 2001: Odissea nello spazio, che per paura di essere disattivato si rifiuta di aprire la porta esterna della capsula all’astronauta.
12Cfr. G. Giostra, Prima lezione sulla giustizia penale, Editori Laterza, Bari, 2020, p.4 ss., secondo cui «il processo è, dunque, un ponte tibetano che consente di transitare dalla res iudicanda, cioè la “cosa” da giudicare, alla res iudicata, cioè la decisione, che deve essere tenuta dalla collettività pro veritate (res iudicata pro veritate habetur)».
13Per un approfondimento su questi interrogativi, si veda C. Burchard, “L’Intelligenza artificiale come fine del diritto penale? Sulla trasformazione algoritmica della società” in Rivista italiana di diritto e procedura penale,Vol. 62, n. 4, 2019 pag. 1909-1942.
14Sull’utilizzo degli automated decision systems nella P.A. in Italia e in Argentina, si veda D.U. Galetta, J.G. Corvalàn, Intelligenza Artificiale per una Pubblica Amministrazione 4.0? Potenzialità, rischi e sfide della rivoluzione tecnologica in atto, in federalismi.it, Rivista di diritto pubblico italiano, comparato, europeo, n. 3, 6 febbraio 2019, secondo i quali il punto fondamentale è quello di poter sempre mantenere un controllo umano che consenta di stabilire in che modo l’algoritmo di Machine Learning sia arrivato ad una determinata decisione, ovverosia identificare in maniera chiara quali fattori abbiano condotto la macchina ad un certo risultato, evitando il fenomeno della c.d. “scatola nera”. Tale prospettiva porta gli autori a ritenere problematica l’idea che la Pubblica Amministrazione, nel porre in essere le attività ad essa attribuite dall’ordinamento in ossequio al principio di legalità, possa fare ricorso ad algoritmi di machine learning per adottare decisioni che incidono sulle posizioni giuridiche soggettive dei destinatari dell’azione amministrativa.
15Su tale ultimo aspetto, si veda E. Corapi, Robo advice, in G. Alpa (a cura di), Diritto e intelligenza artificiale, Pacini Giuridica, Pisa, 2020, p. 549 ss.
19Sul punto, si vedano C. Burchard, op. cit., p. 1925; E. Istriani, Algorithmic Due Process: Mistaken Accountability and Attribution in State v. Loomis, in Harvard JOLT Digest, 31 agosto 2017; S. Carrer, Se l’amicus curiae è un algoritmo: il chiacchierato caso Loomis alla Corte Suprema del Wisconsin, in Giur. Pen. Web, 24 aprile 2019, consultabile online all’indirizzo https://www.giurisprudenzapenale.com/2019/04/24/lamicus-curiae-un-algoritmo-chiacchierato-caso-loomis-alla-corte-suprema-del-wisconsin/
20Sul punto, si veda l’approfondimento di G. Zara, Tra il probabile e il certo. La valutazione dei rischi di violenza e di recidiva criminale, in Diritto penale contemporaneo, 20 maggio 2016, consultabile online all’indirizzo https://archiviodpc.dirittopenaleuomo.org/d/4707-tra-il-probabile-e-il-certo, secondo cui una valutazione del rischio individuale di commissione di nuovi reati “evidence-based”sta via via superando quella dei giudici, fondata sull’intuizione personale e sulla valutazione prognostica esperienziale. Una valutazione di questo tipo, fondata su una serie di fattori di rischio (o “predittori”) direttamente coinvolti nel comportamento criminoso (es. erà, sesso, etnia, religione, posizione sociale, precedenti penali, frequentazioni, scolarizzazione, famiglia, consumo di sostanze, psicopatie, luogo di residenza, etc.), consente un approccio di tipo attuariale (o statistico) alla valutazione della pericolosità criminale.
21Riassume queste argomentazioni scettiche, G. Canzio, Il dubbio e la legge, in Diritto Penale Contemporaneo, 20 luglio 2018, consultabile online all’indirizzo: https://archiviodpc.dirittopenaleuomo.org/upload/4371-canzio2018c.pdf, secondo cui «il dubbio del giudicante in ordine allapropensione dell’imputato a ripetere il delitto non trova più la soluzione in un criterio metodologico di accertamento del fatto e neppure in una puntuale prescrizione della legge, ma viene affidato a un algoritmo di valutazione del rischio, elaborato da un software giudiziario prodotto da una società privata ».
22Sul punto si vedano, F. Basile, op. cit., p. 15 s.; A. Traversi, Intelligenza artificiale applicata alla giustizia: ci sarà un giudice robot?, in Questione Giustizia online, in internet all’indirizzo https://www.questionegiustizia.it/articolo/intelligenza-artificiale-applicata-alla-giustizia-ci-sara-un-giudice-robot-_10-04-2019.php , 10 aprile 2019.
23Si fa, ovviamente, riferimento alla c.d. “macchina della verità” o poligrafo, uno strumento che misura e registra diverse caratteristiche fisiologiche di un individuo e parametri vitali (quali pressione del sangue e respirazione) mentre il soggetto è chiamato a rispondere a una serie di domande, per valutarne le modificazioni dovuti all’emotività durante l’interrogatorio.
25In un saggio del 1951, Matematica e Diritto, Carnelluti scriveva che credere che il giudizio dimostri qualcosa significa commettere «l’errore di confondere la sentenza con la sua motivazione», mentre al contrario bisogna sempre ricordare che «la motivazione giustifica, non scopre la disposizione». Ciò significa che il giudizio prima si forma, poi ne vengono esplicitate le ragioni.
26Nel De Oratore, Cicerone affermava che l’arte del dire si fonda su tre forme di persuasione: «dimostrare la veridicità della propria tesi, conciliarsi la simpatia degli ascoltatori e suscitare nei loro animi quei sentimenti che sono richiesti dalla causa»
28Di questo avviso, M. Luciani, La decisione giudiziaria robotica, in A. Carleo (a cura di), Decisione robotica, Il Mulino, Bologna, 2020, secondo cui «non si comprende come sull’algoritmo, da assumere come un a priori, potrebbero incidere le tecniche dell’avvocato».
29Di questo avviso, C. Forte, Etica ed Intelligenza Artificiale: un primo commento al documento del CEPEJ su European Ethical Charter on the Use of Artificial Intelligence in Judicial Systems and their environment, in Bollettino sui servizi legali nella UE, a cura della Reppresentanza del CNF a Bruxelles, 01/2019, febbraio 2019.
31Peraltro, si deve ritenere che tanto il difensore quanto il consulente o l’investigatore privato debbano operare seguendo le best practice, ovvero quelle «misure tecniche dirette ad assicurare la conservazione dei dati originale e ad impedirne l’alterazione» cui fa riferimento la L. 48/2008 di recepimento della Convenzione di Budapest.
33Dal sito della CIA- Central Intelligence Agency, leggiamo: «OSINT in drawn from publicly avalaible material, including: the internet; traditional mass media (television, radio, newspapers, magazines); specialized journals; photos; geospatial information (maps and commercial imagery products)».
34L’art. 9 par. 2 lett. f) del GDPR prevede, tra le condizioni legittimanti per il trattamento di categoria particolari di dati, che «il trattamento è necessario per accertare, esercitare o difendere un diritto in sede giudiziaria o ogniqualvolta le autorità giurisdizionali esercitino le loro funzioni giurisdizionali». L’art. 10 del GDPR prevede che «il trattamento dei dati personali relativi alle condanne penali e ai reati o a connesse misure di sicurezza sulla base dell’articolo 6, paragrafo 1, deve avvenire soltanto sotto il controllo dell’autorità pubblica o se il trattamento è autorizzato dal diritto dell’Unione o degli Stati membri che preveda garanzie appropriate per i diritti e le libertà degli interessati. Un eventuale registro completo delle condanne penali deve essere tenuto soltanto sotto il controllo dell’autorità pubblica. »
35“Regole deontologiche relative al trattamento di dati personali effettuati per svolgere investigazioni difensive o per fare valere o difendere un diritto in sede giudiziaria pubblicate ai sensi dell’art. 20, comma 4, del d.lgs. 10 agosto 2018, n. 101 – 19 dicembre 2018 [9069653]”, pubblicate sul sito del Garante per la Protezione dei Dati Personali e consultabili al indirizzo web https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/9069653.
36Si fa riferimento, in particolare, all’art. 4 delle citate Regole Deontologiche, che stabilisce che «fermo restando quanto previsto dall’art. 5, par. 1, lett. e), del Regolamento (UE) 2016/679, la definizione di un grado di giudizio o la cessazione dello svolgimento di un incarico non comportano un’automatica dismissione dei dati. Una volta estinto il procedimento o il relativo rapporto di mandato, atti e documenti attinenti all’oggetto della difesa o delle investigazioni difensive possono essere conservati, in originale o in copia e anche in formato elettronico, qualora risulti necessario in relazione a ipotizzabili altre esigenze difensive della parte assistita o del titolare del trattamento, ferma restando la loro utilizzazione in forma anonima per finalità scientifiche. ».
37Per un approfondimento sul punto, si vedano A. Cappellini, Machina delinquere non potest? Brevi appunti su intelligenza artificiale e responsabilità penale, in Criminalia 2018, in internet su disCrimen all’indirizzo https://discrimen.it/machina-delinquere-non-potest-brevi-appunti-su-intelligenza-artificiale-e-responsabilita-penale/, online dal 27 marzo 2019; G. Taddei Elmi- F. Romano, Il robot tra ius condendum eius conditum, in Informatica e diritto, vol. XXV, 2016, n. 1;
38Sul punto, si veda A. Berti Suman, Intelligenza artificiale e soggettività giuridica: quali diritto (e doveri) dei robot?, in G. Alpa (a cura di), Diritto e intelligenza artificiale, Pacini Giuridica, Pisa, 2020, p. 260 ss., che spiega come tale spinta verso il riconoscimento della soggettività giuridica dei robot sia indotta prevalentemente dalle grandi lobby industriali della tecnologia, preoccupate dalle conseguenze dei possibili danni causati dai robot.
39Per un approfondimento sulla tematica dei rapporti tra I.A. e imputazione penale, si vedano U. Pagallo, Saggio sui robot e il diritto penale, inVinciguerra-Dassano (a cura di), Scritti in memoria di Giuliano Marini, Napoli, 2010, 595 ss.; S. Riondato, Robot: talune implicazioni di diritto penale, in Moro-Sarra (a cura di), Tecnodiritto. Temi e problemi di informatica e robotica giuridica, Milano, 2017, 85 ss.
40Cfr., A. Cappellini, Machina delinquere non potest? Brevi appunti su intelligenza artificiale e responsabilità penale, in Criminalia 2018, in internet su disCrimen all’indirizzo https://discrimen.it/machina-delinquere-non-potest-brevi-appunti-su-intelligenza-artificiale-e-responsabilita-penale/, online dal 27 marzo 2019, che evidenzia come nel campo del diritto penale tale dicotomia dei modelli di attribuzione della responsabilità, in realtà, esiste solo “sulla carta”, dal momento che l’imputabilità diretta della macchina non ha mai trovato sostegno in alcun ordinamento.
41Di tale avviso, G. Taddei Elmi- F. Romano, Robotica: tra etica e diritto. Un seminario promosso dal Dipartimento Identità Culturale e dall’ITTIG del CNR, in Informatica e diritto, XIX, 2010, n. 1-2, 146; B. Troncarelli, Soggettivitià umana e diritto al lavoro nella trasformazione digitale, in JusOnline, n. 2/2018, 80-115, spec.109.
42Su tale tematica, si veda C. Bagnoli, Teoria della responsabilità, Il Mulino, Bologna, 2019, pp.74 ss.
43Non riflettiamo mai abbastanza su quanto ciò già avvenga, o possa avvenire. Saremmo disposti a fare una recensione di un albergo o di un ristorante dove siamo appena stati o ad attivare tutti i servizi di geolocalizzazione, sapendo che sulla base di quei dati gli investigatori (o il difensore robot ipotizzato al paragrafo precedente) potranno trovare le prove per accusarci (certo, anche per scagionarci) di un reato?
44In questo scenario si assiste al passaggio di dati personali da un titolare all’altro, ciascuno dei quali tratta autonomamente i dati relativamente a una parte della “catena”, senza concorrere con i titolari delle fasi successive alle loro scelte di trattamento, sia per quanto attiene alle modalità che per quanto riguarda le finalità.
45Di questo avviso, tra gli altri F. Pizzetti, La protezione dei dati personali e la sfide dell’Intelligenza Artificiale, in Id., Intelligenza artificiale, protezione dei dati personali e regolazione, Giappichelli, Torino, 2018; G. Simeone, Machine Learning e tutela della privacy alla luce del GDPR, in G. Alpa (a cura di), Diritto e intelligenza artificiale, Pacini Giuridica, Pisa, 2020, p. 275 ss., che fa discendere questa problematica al ritardo del nuovo Regolamento Europeo Privacy, la cui genesi è iniziata nel 2009 dopo l’entrata in vigore del Trattato di Lisbona, rispetto ai ritmi frenetici dell’innovazione tecnologica nel campo dell’A.I.
46Si interroga su tali problematiche, F. Pizzetti, Intelligenza artificiale e salute: il sogno dell’immortalità alla prova del GDPR, 15 settembre 2017, in internet all’indirizzo https://www.agendadigitale.eu/sicurezza/intelligenza-artificiale-e-salute-il-sogno-dellimmortalita-alla-prova-del-gdpr/.
47Ad oggi, possiamo sommariamente affermare che nessuna tecnologia di A.I. sarebbe conforme al GDPR senza che vi sia a monte e a valle un umano che ne risponda. A chi utilizza sistemi di IA per acquisire ed elaborare dati personali è richiesto di: definire le finalità del trattamento; informare sull’utilizzo che si fa della tecnologia I.A.; raccogliere il consenso al trattamento automatizzato e alla profilazione; determinare la base giuridica del trattamento; valutare l’impatto che l’uso dell’I.A. esercita sui terzi (DPIA); dare un completo quadro del funzionamento della tecnologia, per individuarne i criteri di sviluppo del ragionamento; intervenire nel caso in cui si presentino dei data breach.
48Sul punto si veda, F. Pizzetti, La protezione dei dati personali e la sfide dell’Intelligenza Artificiale, cit., p.44 ss.
49G. Canzio, La motivazione della sentenza e la prova scientifica: “reasoning by probabilities”, in Canzio- Luparia (a cura di), Prova scientifica e processo penale, Cedam, Padova, 2018, pp. 3-21.
50Per un approfondimento sul punto, si veda A. Cappellini, Machina delinquere non potest? Brevi appunti su intelligenza artificiale e responsabilità penale, op. cit., p. 501 ss.
51Cfr. A. Cappellini, op.cit., p. 504, secondo cui «collegare tra loro più soggetti artificali e renderli capaci di scambiarsi informazioni in cloud, permette infatti di “sommare” le “esperienze di vita” di una moltitudine di macchine intelligenti, sottoposte agli scenari più diversi. Cosi, queste tecnologie sono spesso utilizzate per incrementale esponenzialmente la rapidità di apprendimento di tali soggetti robotici:diminuendo in parallelo, tuttavia, il grado di controllo che l’uomo è in grado di esercitare nei loro confronti».
52Si fa riferimento alla tematica dei c.d. black box algorithms, cioè a quel “vuoto di comprensione” per l’osservatore umano tra i dati di input della macchina e i comportamenti da essa tenuti come output, che si traduce in un inevitabile quanto preoccupante margine di imponderabilità. Per un approfondimento sul tema, cfr. S. Beck, Google Cars, Software Agents, Autonomous Weapons Systems- New Challenges for Criminale Law, in Robotics, Autonomics and the Law, Hilgendorf-Seidel, Baden-Baden, 2017 .