Il dubbio del robot di fronte alla legge

24 Giugno 2020

intelligenza artificiale

Introduzione

Il presente lavoro si pone l’obiettivo di analizzare il tema della prevedibilità delle decisioni giuridiche nel caso in cui queste fossero prese da un giudice robot. La questione è infatti di grande interesse e importanza nella società odierna, in cui l’informatizzazione e l’automatizzazione sono componenti sempre più essenziali del vivere.

In particolare, nella prima parte dello scritto ci si soffermerà sulla cosiddetta prevedibilità delle decisioni giuridiche (ovvero di “diritto calcolabile”), mettendo in evidenza come, in realtà, si tratti di una questione affatto nuova.

Successivamente verranno analizzate le modalità cognitive proprie del ragionamento robotico, ciascuna con le proprie peculiarità. Si vedrà inoltre se tali schemi cognitivi siano o meno applicabili al mondo giuridico, con attenzione particolare al processo interpretativo.

Infine, si valuterà la possibilità che un giudice robot possa, oggi, sostituirsi all’attività umana, al punto da poter dubitare della stessa legge che è chiamato ad applicare, sino alla sollevazione della questione di legittimità alla Corte Costituzionale.

La nozione di diritto prevedibile

L’uomo è naturalmente portato a voler conoscere ciò che sarà. Tutti desidererebbero scrutare nel domani per prendere le decisioni di oggi. La natura profondamente umana di anticipare il futuro coinvolge quindi tutti gli aspetti dell’esistenza, con particolare riferimento alle relazioni sociali ed economiche. E il diritto, in quanto caratterizzato da forti componenti sociali ed economiche, non si sottrae alla volontà umana di conoscere quel che sarà.

La natura stessa del fenomeno giuridico si predispone a un’anticipazione degli eventi futuri a causa del principio della certezza del diritto. Se il diritto non fosse infatti connotato da un elevato grado di certezza – la violazione di una norma giuridica deve avere delle conseguenze – esso non sarebbe in grado di fungere da regolatore della società. Non è un caso che una delle esigenze primarie dei legislatori di ogni tempo sia stata quella di creare dei meccanismi volti a prevedere, al verificarsi di una certa fattispecie, una conseguenza certa e determinata. Tale esigenza riecheggia oggi nel principio della certezza del diritto, con particolare riferimento al ruolo svolto dai giudici.

Le basi del diritto “calcolabile”.

Il risvolto della certezza del diritto che qui preme maggiormente analizzare parrebbe essere, in realtà, una sua naturale conseguenza. Se infatti il diritto è certo, o dovrebbe essere tale, allora dovrebbe essere possibile sapere l’esito di un’eventuale controversia con sicurezza e in anticipo, senza doversi rivolgere al giudice. Tale fenomeno è certamente un valore da perseguire ma non è, al momento, completamente attuabile. A tal fine, si prendano ad esempio i due principali metodi elaborati dagli ordinamenti giuridici per supportare la certezza del diritto: il sistema del precedente vincolante e la norma generale e astratta. Con riferimento al primo sistema, è innegabile (e umano) che i giudici abbiano sempre cercato di adottare delle decisioni uniformi relative a casi simili. Questo perché, se un certo orientamento giurisprudenziale riesce ad affermarsi, allora sarà possibile sapere in anticipo che una controversia simile a quelle già decise in passato avrà un’alta probabilità di essere decisa in modo conforme. Il riferirsi al precedente è senz’altro valido per fornire garanzie di uniformità di decisioni, tuttavia esso presenta alcuni limiti:

– l’affermarsi di un orientamento giurisprudenziale dipende in modo stretto dalla quantità di sentenze consultabili;

– le fattispecie che vengono sottoposte alle corti non sono mai del tutto identiche, pertanto non si fa, in realtà, riferimento alle peculiarità del caso di specie, quanto piuttosto alla motivazione e al ragionamento giuridico espressi dal precedente giudice (e, quindi, alla sua capacità persuasiva);

– e di fronte a casi del tutto nuovi – come quelli portati dall’innovazione tecnologica – la certezza del diritto non è garantita fino a che non vi sia l’affermazione di un chiaro indirizzo giurisprudenziale.

Al contrario del sistema del precedente vincolante, tipico dei sistemi di common law, nel diritto continentale si è preferito affidare la tutela della certezza del diritto alla chiarezza della norma giuridica. Nel civil law, infatti, il punto di riferimento per la decisione non è la sentenza precedentemente assunta, bensì la disposizione normativa che, in quanto generale e astratta, si può applicare a un numero indefinito di casi. Il precedente non è peraltro sconosciuto nel civil law, ma esso si attesta solo nella sua veste persuasiva. Ogni giudice può invero discostarsi dalle decisioni pregresse assunte dagli organi a esso superiori in virtù dell’art. 107 comma terzo Cost, salvo il rigoroso obbligo di motivare la propria diversa opinione. Tuttavia, anche la predisposizione di un insieme coerente di norme generali e astratte non è in grado di garantire in via assoluta il perseguimento della certezza del diritto. Di fronte alla norma astratta è infatti impossibile prescindere dal procedimento interpretativo, che presenta – inevitabilmente – dei margini di incertezza dovuti dalla diversa sensibilità del giudicante.

La giustizia predittiva.

Si è detto sopra che la diversità dei giudici, intesi quali persone fisiche, incide inevitabilmente sulla possibilità di avere una giustizia predittiva. Infatti la fisiologica diversità di esperienze, formazioni, capacità e percorsi logici propri di ciascun giudice non può che portare a diverse visioni del fenomeno giuridico, con differenti ricadute sulle relative pronunce giurisdizionali. Quello che possiamo oggi porre in essere sono delle previsioni sull’esito della sentenza, da formulare sulla base di vari fattori: caratteristiche del caso di specie, orientamenti giurisprudenziali dominanti, precedenti decisioni del giudice chiamato a decidere. Appare però chiaro come prevedere l’esito di una causa non sia lo stesso che predire l’esito dello stesso processo. Infatti, mentre la previsione, basata su congetture formulate con raziocinio, può comunque essere errata, la predizione invece non può mai sbagliare, in quanto essa è l’effettiva anticipazione dell’evento futuro. In questo senso pare potersi cogliere il pensiero di Max Weber che, nell’individuare il profilo di agire razionale dell’imprenditore nei confronti del diritto, parlava della necessità di una giustizia predittiva e non di una giustizia prevedibile.

Ad oggi, dunque, non pare ancora possibile realizzare la previsione formulata da Leibnitz secondo cui “un giorno le parti, di fronte a una controversia, potranno sedersi a un tavolo ed effettuare un calcolo per risolvere il loro problema[1]. Infatti la certezza del diritto, per quanto sia un valore imprescindibile degli ordinamenti odierni, non può ancora spingersi a garantire l’assoluta uniformità di decisioni da parte dei vari organi giudicanti. Però, forse, si sta assistendo a un cambio radicale di paradigma. I progressi nel campo della robotica e dell’intelligenza artificiale hanno portato gli studiosi e gli scienziati a interrogarsi sulla possibilità effettiva di un giudice robot. In questo senso il dibattito è molto accesso sulla effettiva implementazione di giudici robot nelle aule giudiziarie (al pari della permanenza di molte altre figure legate al mondo del diritto, come gli avvocati).[2] A prescindere da come verrà gestita l’innovazione tecnologica in ambito giuridico, pare innegabile che le intelligenze artificiali avranno un ruolo (più o meno incisivo) nell’amministrazione della giustizia.

Il funzionamento del ragionamento robotico.

Affrontate nel paragrafo precedente le nozioni di giustizia predittiva e di prevedibilità del diritto (concetti che, come visto, non sono affatto nuovi), occorre ora trasporre tali concetti in ambito robotico.

Occorre preliminarmente indagare le modalità con cui il robot pone in essere i propri ragionamenti. Infatti, in quanto intelligenze artificiali, i robot effettuano dei veri e propri ragionamenti, solo con percorsi diversi da quelli della mente umana. Tali ragionamenti, pur nelle loro differenti modalità, presentano sempre due costanti:

– si svolgono mediante algoritmi, ovverosia una serie di operazioni predeterminate che pongono una successione “di regole talmente chiare, inequivoche, complete, precise da poter essere applicate in maniera immediata” e che consentono, al termine della loro esecuzione, di raggiungere un certo risultato;

– e hanno la possibilità di raccogliere, impiegare ed elaborare (contemporaneamente) una quantità di dati e informazioni che non è possibile per la mente umana. Si parla quindi dell’impiego di big data nell’intelligenza artificiale.

In particolare, il ragionamento robotico (rectius, dell’intelligenza artificiale) può oggi operare tramite:

1) machine learning;

2) rete neurale;

3) e deep learning.

Ciascuno di tali procedimenti robotici opera secondo alcune specificità.

1) Attraverso il machine learning, che rappresenta forse il procedimento più semplice, viene inserita nel robot una grande quantità di dati (i cosiddetti Big Data) e il programmatore pone delle regole di definizione e classificazione di tali informazioni. In questo modo, semplificando, l’I.A. procede, tramite un algoritmo, a classificare quanto in proprio possesso, fino a raggiungere una situazione in cui ogni dato viene inserito in una categoria precisa e uniforme. Tale operazione viene rappresentata tramite una struttura ad “albero”, in cui i vari passaggi della categorizzazione dei dati ne costituiscono i rami, mentre i risultati finali le foglie (chiamati anche, appunto, “nodi foglia”). Il machine learning presenta però un problema non irrilevante: il cosiddetto “overfitting”, ovverosia la presenza di un numero elevato di criteri di classificazione. Infatti è stato dimostrato che, all’aumentare dei criteri di definizione dei dati, non corrisponde altresì un aumentare della precisione dell’I.A. nella suddivisione delle informazioni in suo possesso. Anzi, si è visto che l’accuratezza raggiunta dalla macchina decresce oltre un certo numero di criteri di definizione. Tale fenomeno controintuitivo è quindi una caratteristica di cui tenere conto nell’applicazione del machine learning[3].

2) Mentre il machine learning è strutturato per operare tramite una sola macchina, la rete neurale prevede invece la cooperazione simultanea di diverse I.A.. Tale sistema è strutturato come una sequenza di diversi livelli, detti “neuroni artificiali”, ciascuno costituito da una diversa I.A. e ognuno con un compito diverso. In particolare, i neuroni artificiali si possono classificare secondo le loro funzioni in “neuroni input”, “neuroni di elaborazione” e “neuroni output”. Il funzionamento dell’intero sistema si basa proprio sulla differenziazione dei compiti di questi neuroni artificiali. Infatti, per arrivare all’elaborazione del risultato finale, i neuroni input ricevono le informazioni che sono loro trasmesse e le veicolano ai neuroni di elaborazione. Tali neuroni di elaborazione (il cui numero è variabile, ma comunque superiore a due) assegnano poi dei valori ai dati ricevuti, raggruppandoli in categorie sempre più precise ad ogni passaggio, in modo non troppo dissimile dal machine learning. Infine, al termine della catena dei neuroni di elaborazione, il risultato finale viene consegnato al neurone di output, che provvede a comunicarlo all’esterno. Il passaggio dei dati attraverso più neuroni di elaborazione consente quindi di limitare il fenomeno di overfitting e di ottenere un risultato più accurato.

3) Infine, il deep learning (o rete neurale profonda) altro non è che l’applicazione della tecnologia della rete neurale tramite un numero elevatissimo di dati da elaborare e di passaggi da svolgere. Infatti, mentre la rete neurale si basa su di un numero di neuroni artificiali tutto sommato contenuto (nell’ordine di qualche decina) il deep learning comporta l’impiego di milioni di neuroni di connessione, con anche miliardi di relazioni tra loro. Questa estrema capillarità dei collegamenti tra i neuroni conferisce la possibilità di analizzare una grande quantità di dati, con un livello di accuratezza molto elevato.

Applicazione del ragionamento robotico al diritto.

Come visto, il ragionamento robotico opera tramite algoritmi e Big Data. Dunque, affinché il robot possa operare con il diritto, è necessario che esso possa comprendere il fenomeno giuridico. È fondamentale che il diritto sia traducibile in un linguaggio comprensibile alla macchina la quale, come visto, elabora Big Data tramite algoritmi. Sul punto, non paiono sorgere problemi circa l’individuazione di Big Data in ambito giuridico: basti pensare a quante nuove normative vengono costantemente emanate o, ancora, all’elevato numero di pronunce giurisdizionali a cui è possibile accedere. Se quindi i Big Data sono presenti nel diritto, occorre allora soffermarsi circa la configurabilità dei procedimenti giuridici come algoritmi.

La presenza di algoritmi nell’ordinamento giuridico non è esclusa dalla dottrina. Ricordando la definizione di algoritmo sopra data, essa non pare, nella sua struttura logica, discostarsi dall’interpretazione di un fatto storico, la quale richiede una serie di passaggi ben precisi. Infatti, di fronte a una fattispecie da inquadrare giuridicamente, occorre innanzitutto ricostruire il fatto storico, individuare poi la disposizione di riferimento (o, se questa manca, adoperare i canoni interpretativi a nostra disposizione) e, una volta ricavata la norma, applicare la regola alla fattispecie. Un esempio forse ancora più lampante è costituito dal processo di fronte all’autorità giudiziaria. Dopotutto ogni processo – a prescindere dalla giurisdizione – è costituito da una serie di passaggi predefiniti e posti in una sequenza obbligatoria, al cui termine viene emessa una sentenza, che rappresenta il risultato di tutte le operazioni del processo. La struttura processuale è quindi un algoritmo e, come tale, comprensibile per un robot.

Alcuni studiosi si sono poi spinti sino a scrivere il procedimento interpretativo come una formula matematica (la quale rappresenta l’algoritmo per eccellenza). In particolare, è stata proposta una vera e propria equazione per ricavare la norma da applicare al caso di specie[4]. Brevemente, tale interessante equazione traduce in linguaggio matematico i dettami interpretavi posti dal Legislatore con l’art. 12 Preleggi: di fronte a un caso occorre individuare la disposizione che lo regola, e, in primo luogo fare riferimento al significato letterale delle parole e, in subordine, orientare l’interpretazione alla ratio con cui la disposizione è stata scritta. Solo se non presente una disposizione che regoli il caso o se essa, seppur presente, non sia univocamente interpretabile, sarà allora possibile adoperare (prima) l’analogia legis e (dopo) l’analogia iuris. Benché non sia questa la sede per approfondire questa nuova tipologia di indagine giuridica, pare innegabile che tale concezione matematica sia fondamentale per la possibilità di un robot interprete e, perfino, giudice del diritto. Infatti la formula matematica è quanto di più comprensibile ci sia per l’I.A., la quale potrebbe quindi adoperare la formula matematica per rivolvere le questioni giuridiche che le vengono sottoposte.

Se è possibile la traduzione del fenomeno giuridico in un linguaggio comprensibile per un robot, allora è altrettanto possibile l’applicazione dell’I.A. nell’amministrazione della giustizia. Anzi, i recenti sviluppi fanno pensare che sia solo una questione di tempo prima che l’I.A. applicata al diritto faccia il proprio ingresso nei tribunali. Nonostante i veloci progressi compiuti dalla tecnologia, ad oggi non si è in grado di stabilire se, effettivamente, in futuro le nostre corti saranno presiedute da giudici robot. Quello che oggi sembra lo scenario più verosimile è quello dell’I.A. come assistente del giudice umano, in grado di fornirgli un accesso chiaro e ordinato alle (sempre più sterminate) fonti del diritto. In ogni caso, visto che l’evoluzione tecnologica è solita sovvertire le previsioni che le vengono rivolte, pare utile porsi sin da ora il problema delle decisioni di un eventuale prossimo giudice robot.

In questo senso, sulla base delle nostre conoscenze sulla robotica, possiamo considerare da due fattori che potrebbero essere costanti:

1) che il robot difficilmente potrà replicare il giudice umano;

2) e che le decisioni del robot, in quanto frutto di processi algoritmici, sarebbero maggiormente legate alla modifica della sua programmazione rispetto alla molteplicità di casi da risolvere.

Le conseguenze legate a questo aspetto della robotica sono molteplici e non possono essere analizzate compiutamente in questa sede. Pare però necessario evidenziare che questa differenza tra essere umano e robot è legata essenzialmente a un fattore: la presenza di una pregressa programmazione in senso tecnico. Infatti, benché in un certo senso anche l’essere umano subisca una “programmazione”, quest’ultima non è vincolante per una persona, consentendole di parametrare il proprio agire sulla base delle particolarità di ogni situazione. Al contrario, un robot non può prescindere dalla propria programmazione: non può contraddirla ma solo agire secondo essa. Naturalmente è possibile raffinare sempre di più gli input e gli algoritmi adibiti ad elaborarli, ma difficilmente si potrà avere una potenza di calcolo tale da prevedere ogni possibile fattispecie da decidere. In altre parole, mentre un essere umano, posto di fronte a una situazione nuova, potrà affrontarla adattandosi all’ambiente, il robot potrà invece risolverla solo se la sua programmazione prevede quella specifica situazione, altrimenti esso non potrà agire[5]. Ne consegue che il robot non sarebbe in grado di affrontare casi nuovi e, quindi, si avrebbe come ulteriore conseguenza il venire meno di quella spinta innovativa che negli anni ha portato, grazie alla giurisprudenza, alla nascita di nuovi diritti. A questa ricostruzione pare peraltro possibile un’obiezione: se l’algoritmo del robot non prevede come risolvere la nuova situazione, sarebbe allora sufficiente riprogrammare l’I.A. aggiornando l’algoritmo stesso. Tuttavia tale soluzione non risolve il problema, anzi lo complica. Occorre infatti ricordare che ogni aggiornamento dell’algoritmo deliberativo presuppone un intervento esterno al robot. Tale intervento sarebbe eseguito necessariamente da un essere umano, in quanto è dalla nostra opera che discende l’I.A. stessa. Questa dinamica comporterebbe però, di fatto, l’esternalizzazione della decisione giudiziaria, ponendola in capo allo stesso programmatore dell’algoritmo. Una simile allocazione della decisione non sarebbe rispettosa dei principi costituzionali che regolano il nostro sistema giudiziario e che impongono al giudice, non a soggetti esterni, di decidere la controversia. Pertanto, non sembra possibile la sostituzione integrale dell’essere umano nel ruolo del giudice.

Come visto, la natura dell’algoritmo presuppone una ripetitività di operazioni sempre identiche, le quali a loro volta porteranno sempre a uno stesso risultato. Mentre quanto appena visto al punto 1) ha una connotazione tendenzialmente negativa, invece l’uniformità delle decisioni robotiche potrebbe rappresentare un vantaggio. Se infatti il robot non potesse occuparsi di casi nuovi o di quelli che coinvolgono principi etici, la risoluzione di controversie di modesto valore e di limitata complessità potrebbe trovare un vantaggio nell’essere affidata a un’I.A.. Ad esempio, sarebbe forse possibile affidare l’emanazione dei provvedimenti monitori (che rappresentano un importante carico di lavoro per i tribunali) a un robot, il quale potrebbe decidere se emettere il decreto ingiuntivo in completa autonomia. Tuttavia l’emissione del decreto ingiuntivo non sarebbe l’unico ambito di operatività del giudice robot: esso potrebbe anche trovare spazio in tutti quei procedimenti caratterizzati da una bassa “discrezionalità” del giudice, ovverosia quando il magistrato deve sostanzialmente verificare la conformità di una situazione rispetto a un chiaro quadro normativo (si pensi alle opposizioni alle sanzioni amministrative relative alle violazioni del Codice della Strada).

In conclusione, benché non paia possibile l’integrale robotizzazione della magistratura, non è da escludere un ruolo sempre più importante dell’I.A. all’interno dell’amministrazione della giustizia. Proprio a causa di questa prevedibile diffusione sembra opportuno analizzare nel prossimo paragrafo un “caso limite” che potrebbe essere interessante: la possibile proposizione di una questione di legittimità costituzionale da parte di un giudice robot.

Il giudice robot di fronte alla questione di legittimità costituzionale della legge.

  1. a) La struttura logico-giuridica della remissione alla Corte Costituzionale

Com’è noto, nel nostro ordinamento il controllo sulla legittimità delle leggi non è affidato al sindacato diffuso di tutti i componenti della magistratura (come avviene invece nei sistemi giuridici di Common Law). Infatti la Costituzione Italiana ha disposto che l’unico ente in grado di pronunciarsi sulla costituzionalità di un atto normativo sia la Corte Costituzionale. Tuttavia, se formalmente il controllo sulla legittimità è accentrato in un unico organo, la nostra carta fondamentale ha in realtà previsto una sorta di controllo “decentrato”. Ogni magistrato può infatti sollevare alla Corte Costituzionale la questione di legittimità costituzionale di una norma che deve applicare per risolvere il caso che è chiamato a decidere. In questo modo si è cercato di valorizzare la funzione di “vigilanza” del potere giudiziario sulla correttezza delle disposizioni emanate sia dal potere legislativo sia dal potere esecutivo.

In ogni caso, pur con la funzione di salvaguardare i principi della nostra Costituzione, il magistrato non è libero di sollevare la questione di legittimità costituzionale ad nutum. Egli è infatti soggetto a particolari requisiti, che trovano la propria fonte sia nella Costituzione sia nell’elaborazione giurisprudenziale della Corte Costituzionale. In particolare, per brevità, il magistrato può sollevare la questione alla Corte Costituzionale se egli:

– dubita della legittimità di una norma di legge alla luce dei principi costituzionali;

– deve pronunciare sentenza nel corso di un procedimento in cui sia coinvolta la norma la cui legittimità è in dubbio (non è quindi possibile, per il magistrato rimettente, sollevare questioni in via indipendente dalla decisione di un processo);

– e non ravvisi la possibilità di un’interpretazione costituzionalmente orientata della norma sospettata di illegittimità.

Tra questi requisiti quello che suscita il maggiore interesse in ambito robotico è il necessario dubbio di legittimità, che non è affatto scontato sia replicabile (o quantomeno simulabile) in un’I.A..

  1. b) In particolare, la natura del “dubbio” interpretativo

Cosa significa dubitare di una disposizione di legge? La domanda, prima che giuridica, è filosofica. La parola “dubbio” è intrinsecamente legata alla presenza di (almeno) due possibilità. Infatti, etimologicamente, la parola “dubbio” ha come radice “du”, derivante dal greco “duos”, ovverosia il numero due in greco[6]. Inoltre il dubbio è tale proprio perché le alternative che esso coinvolge sono sostanzialmente equiparabili. Come si potrebbe parlare di dubbio quando una delle opzioni possibili sia manifestamente preferibile all’altra? Infine, la soluzione del dubbio (o inteso anche come dilemma) è raramente rinvenibile dal solo soggetto che pone il dubbio. Anzi, solitamente la risoluzione del problema è demandata a un soggetto terzo che, per le proprie qualità, è in grado di prendere una decisione.

Tanto chiarito in via generale, in ambito giuridico è possibile parlare di dubbio “interpretativo”. Esso sorge quando, dall’applicazione dei canoni ermeneutici alla disposizione, non emerge una soluzione chiara e univoca. Si pensi ad esempio al caso in cui una stessa disposizione (magari a causa di una leggerezza del legislatore) è scritta in modo tale da ricavare più significati possibili dall’insieme delle sue parole ai sensi dell’art. 12 Preleggi. In questa circostanza, in considerazione dell’obbligo di pronunciarsi a cui è soggetto il giudice, è comunque necessario pervenire a una decisione scegliendo, tra quelle possibili, la più coerente con i principi dell’ordinamento. Da ciò il detto “decidere è scegliere”[7].

In particolare, se il dubbio interpretativo può nascere dalla lettura di una sola disposizione, nel caso della remissione alla Corte costituzionale è ovviamente necessario procedere in modo più articolato. Infatti non è solo necessario interpretare la singola disposizione (fugando nel mentre eventuali dubbi), ma anche compararla con la norma costituzionale che si intende violata. Da ciò discende che occorrerà:

– in primo luogo individuare la norma di rango costituzionale;

– in secondo luogo interpretare la disposizione da applicare;

– in terzo luogo, se i due risultati non sono coordinati (ferma la prevalenza della norma costituzionale), verificare la possibile interpretazione costituzionalmente orientata della disposizione “sospetta”;

– e infine, se non emerge una soluzione ammissibile per l’ordinamento, sollevare la questione di legittimità alla Corte Costituzionale.

  1. c) Può il giudice robot dubitare della legge?

Le considerazioni che precedono conducono quindi alla domanda principale di questo lavoro: ammettendo la configurabilità di un giudice robotico, questo potrebbe dubitare della legge che è chiamato ad applicare, tanto da sollevare la questione di legittimità costituzionale?

Per rispondere, è opportuno ricordare brevemente il funzionamento della mente robotica. In particolare:

1) che il ragionamento robotico è lineare e pensato per giungere a una soluzione univoca;

2) e che il robot non è in grado di operare da solo, ma necessita sempre di un insieme di dati e di regole per elaborarli.

In merito al primo punto, pare che una I.A. non possa realmente esprimere un dubbio di fronte al problema che deve risolvere. Se, come visto, il dubbio è la contemporanea presenza di due o più alternative possibili e sostanzialmente equivalenti, il robot ha bisogno di una regola che gli fornisca un criterio di preferenza tra le scelte. Non si crea quindi un vero e proprio dubbio, quanto piuttosto una risoluzione immediata del problema tramite l’applicazione di un criterio preferenziale etero-imposto. Tuttavia questa operazione può funzionare solo se le regole del robot sono in grado di coprire tutti i casi che esso è chiamato a risolvere. Se, invece, la macchina si trova di fronte a una situazione in cui essa ha di fronte a sé più alternative equivalenti senza un criterio preferenziale, allora essa andrà in crisi e non potrà scegliere da sola la soluzione da adottare. Sul punto, si potrebbe però obiettare che nel diritto esistono dei criteri interpretativi certi a cui fare riferimento, fissati dall’art. 12 Preleggi. Infatti è sulla base di tale articolo che è stata elaborata la formula matematica di cui sopra sull’interpretazione della legge. Pertanto, in ipotesi, sarebbe possibile che l’operatore si limitasse a riprodurre i criteri legali d’interpretazione nel programmare il robot, eliminando così il rischio di un “blocco”. Non pare tuttavia che una simile impostazione sia in grado di superare il problema. È noto infatti che gli operatori giuridici adoperano, oltre ai criteri legali, anche altri criteri interpretativi non espressamente scritti nella legge: si pensi al criterio storico o a quello “per assurdo”. Inoltre, mettendo in disparte le disposizioni scritte, si pone il problema dell’interpretazione dei principi e dei valori giuridici. In questo caso non è applicabile tout-court il disposto dell’art. 12 Preleggi (manca un testo scritto da cui partire), bisogna invece fare riferimento a criteri di sistema, a volte anche extra-giuridici[8]. Il robot però non può comprendere i principi e i valori dell’ordinamento, in quanto non sono “scritti” in un linguaggio comprensibile alla macchina. Sarà quindi necessario che qualcuno “traduca” i principi e i valori giuridici per l’I.A..

Questo consente di analizzare il secondo punto sopra evidenziato: qualunque sia la modalità di ragionamento adottata dal robot, essa presuppone sempre, a monte, un intervento di programmazione. Allo stato, questo significa che il robot non può operare autonomamente senza dati forniti dall’esterno e senza gli algoritmi disposti dal programmatore. Questa circostanza, che in ambito tecnico può sembrare una semplice conseguenza operativa, ha invece degli importantissimi risvolti in ambito giuridico.

Infatti, da quanto appena detto discende che il robot non potrà mai giungere da solo a una interpretazione del testo legislativo, ma muoverà sempre:

– dai dati che gli vengono messi a disposizione;

– e dall’algoritmo con cui il robot viene programmato, ovverosia dalle regole di preferenza che gli vengono impartite.

Sul punto, le perplessità che emergono sono numerose. In primo luogo, in futuro potrebbe diventare possibile condizionare la scelta del robot fornendogli, come dati da elaborare, soltanto informazioni giuridiche parziali. In secondo luogo, se tale condizione si avverasse, si avrebbe l’indesiderabile effetto di “spostare” l’effettiva decisone del caso dal robot (magistrato) al suo programmatore: sarebbe infatti quest’ultimo che, scrivendo l’algoritmo, deciderebbe in anticipo come la propria macchina risolverà un certo problema. Tali questioni esporrebbero il fianco a incisive censure di costituzionalità nella parte in cui consentirebbero che la decisione giurisdizionale sia presa da soggetti (quali i programmatori) non titolati per adottarla. Per esemplificare il quadro che ci si potrebbe trovare ad affrontare, si pensi al frequente caso di contrasto di orientamenti giurisprudenziali sull’interpretazione di una disposizione. Affidando la composizione del contrasto al robot, la si affiderebbe in realtà al programmatore. E ciò perché:

– sarebbe il programmatore a decidere quali sentenze “caricare” nell’I.A., con il rischio di inserire un maggior numero di casi di un orientamento rispetto a un altro, ledendo quindi l’imparzialità del giudicante;

–  e sarebbe sempre il programmatore a scrivere l’algoritmo che risolverebbe il contrasto, per cui egli ben potrebbe scrivere il codice favorendo un preciso orientamento piuttosto che un altro.

Le criticità appena evidenziate non sono in realtà nuove in ambito robotico. Molti studiosi si sono infatti già interrogati sulla riferibilità dell’azione robotica e sulle sue conseguenze. Si tratta del cosiddetto fenomeno del “picciotto robotto”: se si programma un robot per uccidere, il programmatore è (in teoria) responsabile degli omicidi come se, al posto del robot, avesse usato un fucile[9].

Le considerazioni appena svolte consentono già di per sé di escludere che il robot possa genuinamente dubitare della legge e, di conseguenza, sollevare la questione di legittimità costituzionale. Occorre peraltro segnalare un’altra circostanza ostativa alla questione di legittimità “robotica”, specifica per questa remissione. La nostra Costituzione ha il compito di tutelare i diritti fondamentali della persona, la cui protezione investe spesso anche questioni morali, non soltanto giuridiche. Nel decidere su tali questioni, il giudice non è un mero operatore del diritto chiamato a effettuare un calcolo, ma deve invece farsi interprete del diritto anche alla luce dell’evoluzione del sentire sociale. In tal senso sono emblematici i casi relativi alla questione del fine vita prima che entrasse in vigore l’attuale legge sul bio-testamento. Casi simili non si risolvono con una semplice operazione matematica sulla base della norma da applicare, ma richiedono un attentissimo bilanciamento tra i valori del nostro ordinamento, i quali non possono mai essere elisi del tutto. Inoltre tali operazioni di bilanciamento non potrebbero essere condotte dal robot perché esso, come detto, non sarebbe in grado di capire i principi e i valori generali non scritti, ma gli dovrebbero essere “suggeriti” dal suo programmatore.

In conclusione, l’eventuale giudice robot non potrebbe quindi sollevare la questione di legittimità alla Corte costituzionale. E questo perché:

– non è in grado di dubitare della legge che deve applicare;

– e non può, da solo, comprendere i principi e i valori dell’ordinamento, inderogabili parametri di riferimento per la costituzionalità delle disposizioni.

Conclusioni

Le osservazioni appena svolte, pur nella loro brevità, hanno mostrato come l’eventuale giudice robot non possa spingersi sino a sollevare una questione di legittimità alla Corte Costituzionale. In sede conclusiva sembra tuttavia esserci spazio per alcune considerazioni “de jure condendo”.

In primo luogo, si rammenta che il presente lavoro è tarato sulla tecnologia oggi esistente e, pertanto, le relative conclusioni sono limitate allo stato attuale delle ricerche sull’intelligenza artificiale. Tale considerazione, che parrebbe pleonastica in altri ambiti, non lo è invece per la scienza robotica. Infatti questo ramo del sapere, seppur nato da poco, ha visto uno sviluppo eccezionale in un arco di tempo molto ristretto. Gli approdi delle ricerche sull’intelligenza artificiale sono continui e quasi ogni giorno vi sono importanti avanzamenti. Tale velocità del progresso robotico non esclude pertanto che, un domani – forse neanche troppo lontano – si riuscirà a sviluppare una vera Intelligenza Artificiale, in grado di replicare esattamente il cervello e il pensiero umano. Una simile tecnologia porterebbe con sé delle implicazioni enormi (una su tutte: diverrebbe possibile, alla morte, trasferire la nostra mente in un robot per ottenere l’immortalità?), che non possono essere affrontate oggi. Tuttavia, in tale scenario “fantascientifico” diverrebbe allora possibile, per quanto qui rileva, che il robot sostituisca integralmente il giudice umano nelle sue funzioni. E questo perché, ottenendo l’autonomia di ragionamento tipica del pensiero umano, il robot verrebbe svincolato dalle attuali regole. Infatti:

– il robot non sarebbe più limitato dalle informazioni fornite dal programmatore (potendosene procurare di nuove);

– e il robot potrebbe arrivare a superare la propria programmazione originaria (evolvendosi e e “adattando” da solo i propri algoritmi).

In tale futuribile scenario l’interpretazione del diritto da parte del robot sarebbe, forse, questione talmente ovvia da non richiedere particolari attenzioni.

In secondo luogo, immaginando invece un orizzonte degli eventi più verosimilmente vicino a noi, l’adozione di intelligenze artificiali a supporto dell’autorità giudiziaria è senz’altro un tema da porsi. È pacifico infatti che la nostra società si stia informatizzando sempre più e che tenda a realizzare una tecnologia volta ad assistere – non a sostituire – l’essere umano, per sgravarlo dai compiti più tediosi e faticosi, ovvero per migliorare le sue prestazioni in alcuni ambiti. In questo senso non è difficile immaginare che, nei prossimi anni, ci saranno intelligenze artificiali a supporto dei magistrati, col compito di facilitare il compito di ricerca giuridica, di analisi dei documenti e di stesura della sentenza. Del resto, come detto sopra, simili tecnologie sono già oggi adoperate da alcuni studi legali. Inoltre, in alcuni fori la sperimentazione di alcune forme di intelligenza artificiale è già realtà.

In conclusione, il progresso tecnologico a cui stiamo assistendo, senza precedenti nella storia umana, ci pone davanti a orizzonti estremamente stimolanti e, al contempo, forieri di quesiti etici, morali e giuridici mai visti prima. Sarà quindi compito nostro decidere come dirigere il futuro sviluppo della robotica in ambito giuridico, magari proprio come avrebbe voluto Leibniz, sedendoci a un tavolo e operando un calcolo.

 

Fonti:
[1] Leibniz, “Dissertatio de Ars Combinatoria, in Qua, Ex Arithmeticae Fundamentis”, 1666, attualmente Parigi, Hachette, 2012, pag. 163 e ss..
[2] Si veda M. Mocchegiani, “Algoritmi e diritto: i nuovi orizzonti (più o meno rassicuranti) della decisione robotica”, relazione al Convegno “Decisione Robotica” tenutosi all’Accademia dei Lincei a Roma il 5 luglio 2018.
[3] Per una introduzione semplice e intuitiva del machine learning si veda http://www.r2d3.us/una-introduzione-visuale-al-machine-learning-1/, nonché http://www.r2d3.us/visual-intro-to-machine-learning-part-2/.
[4] L. Viola, “Interpretazione della legge con modelli matematici – Processo, A.D.R., giustizia predittiva”, Milano, Centro Studi Diritto Avanzato Edizioni, 2018, pag. 206 e ss..
[5] Si pensi all’esperimento tenutosi nel 2014 presso i Bristol Robotics Laboratory dall’equipe del prof. Alan Winfield, in cui un robot, dovendo scegliere chi salvare tra due automi (che simulavano due esseri umani) in pericolo non riusciva, quasi nel 50% dei casi, a decidere chi salvare per primo, cagionando così la “morte” dei robot in pericolo. Si veda https://www.bristolroboticslab.com/.
[6] N. Irti, “Un diritto incalcolabile”, Torino, Giappichelli, 2016, pag. 117 e ss..
[7] G. Alpa, “Note sulla calcolabilità nel diritto nordamericano”, in A. Carleo (a cura di), “Calcolabilità giuridica”, Bologna, Il Mulino, 2017, pag 83 – 99.
[8] G. Zagrebelsky, “Il diritto mite”, Torino, Einaudi, 1992, pag. 180 – 181.
[9] U. Pagallo, “The Laws of Robots – Crimes, contracts and torts”, Londra, Springer, 2013, pag. 65 – 72.

 

enrico autero Autore Avv. Enrico Autero



Articoli correlati

La ripartenza delle Pmi dopo la pandemia: la scommessa di start-up innovative e B-Corp

I dati incoraggianti che si stanno registrando in questi ultimi giorni sulla diffusione del Covid-19 […]

Leggi l'articolo

Minority Justice

Il nuovo evento in diretta Facebook tratterà il mondo dell’intelligenza artificiale. Parleremo infatti di come […]

Leggi l'articolo

TRE NUOVI INGRESSI PER LEXCHANCE

Lexchance annuncia l’ingresso di Nicolò Bussolati in qualità di Senior Associate, Francesca Aru in qualità di Of Counsel […]

Leggi l'articolo

Viaggiare e soggiornare, cosa sta cambiando?

Un viaggio insieme a chi fa viaggiare per professione. Il nuovo evento in diretta Facebook […]

Leggi l'articolo

DAL 1° LUGLIO ARRIVA IL SUPERBONUS

Decreto rilancio Casa, il bonus 110% È l’agevolazione più importante contenuta nel Decreto Rilancio, pubblicato […]

Leggi l'articolo

Informazione e comunicazione dopo il Covid

Come orientarsi, informarsi e comunicare. Tutte le opportunità per le aziende.   Il nuovo evento […]

Leggi l'articolo
Powered by: Fweb Group