PHOTO
Intelligenza articiale applicata al diritto
Esistono due tipi di epistemologia. La prima è una epistemologia descrittiva, costruita sull’essere, ossia su come nella realtà agisce l’intelligenza umana nei suoi processi conoscitivi. La seconda è una epistemologia prescrittiva o normativa, costruita sul dover essere, nella quale si dettano, si impongono i criteri di scientificità del sapere.
Nell’ambito di quest’ultima si sta progressivamente affermando l’intelligenza artificiale che si accinge a entrare nel processo penale a certe condizioni, tra le quali l’osservanza delle regole del giusto processo, la conoscibilità dei meccanismi decisionali, il principio della non discriminazione algoritmica. Temo che queste rassicuranti condizioni rappresentino una sorta di libro dei sogni, essendo in gran parte irrealizzabili: nel confronto tra l’intelligenza umana e quella artificiale sarà soprattutto la seconda a imporre le sue pretese.
Non alludo solo alle temibili conseguenze indirette, come il prevedibile effetto di assopire il nostro cervello, di esonerarci gradualmente dal ragionare, più o meno come il computer ci ha disabituato all’uso della penna. Oggi non si è più in grado di scrivere a mano e, quel che è peggio, anziché leggere i libri, ci si limita per lo più a scorrere – “scorrere” è l’espressione giusta - le pagine del web. Non è questione di misoneismo, si tratta solo di riconoscere che non tutti i prodotti della scienza sono destinati per ciò stesso ad apportare, sempre e ovunque, un reale beneficio.
Possiamo servirci dell’intelligenza artificiale in determinati ambiti, ad esempio nella scienza medica a fini prognostici e di cura, perché qui la lotta è contro la malattia e nell’interesse del paziente. Ma, dove si tratta di punire, di privare l’individuo della libertà personale, dove lo Stato interviene come mediatore dei conflitti più brutali, come quello tra il delitto e la punizione del colpevole, lì non credo che possa avere spazio l’intelligenza artificiale; per lo meno sino a quando sarà diritto dell’imputato di esaminare, comprendere e criticare le prove e gli argomenti sulla cui base viene condannato. È sconvolgente che anche in questa sede l’intelligenza artificiale si sviluppi nell’indifferenza e con la coscienza tranquilla di molti, come se alla durezza del fine punitivo dovesse corrispondere la disumanità del metodo: sarebbe quanto meno saggio vietarne l’uso a fini di giustizia, specie se penale.
L’intelligenza artificiale si esprime attraverso i computer e non credo che un processo veicolato dai computer possa dirsi più giusto e democratico, né per quanto riguarda la formazione della prova né per quanto attiene alla decisione. In entrambi i casi l’effetto sarebbe di un irreversibile svuotamento della fase dibattimentale, di un arretramento dell’asse del processo verso la fase delle indagini preliminari, secondo la logica già inaugurata dalla riforma Cartabia. Questa riforma ha di fatto privato della pubblicità e dell’oralità i giudizi sulle impugnazioni, riducendoli allo scambio di memorie in camera di consiglio; con l’intelligenza artificiale vi sono buone probabilità che analoghe scelte si estendano anche al primo grado di giudizio. Il solo settore in cui potrebbe forse operare senza danno l’intelligenza artificiale è a fini puramente euristici, nell’indirizzare le indagini: ma, una volta ammessa, finirebbe presto per dilagare altrove con nefasti effetti sul contraddittorio orale.
Quanto alla formazione delle prove, si ha un bel dire che la loro ammissione dovrà sottostare a severe condizioni di ammissibilità. A prescindere dalle difficoltà di realizzare il controllo su ciò che impropriamente è chiamata la “capacità dimostrativa” della prova, la prima conseguenza del giudizio positivo sarebbe di “sacralizzare”, di rendere di fatto inconfutabile la prova stessa sin dal momento del suo ingresso nel processo.
Quanto all’uso dell’intelligenza artificiale a fini decisori, è altrettanto evidente la difficoltà di sottoporre a critica un meccanismo costruito sull’autoapprendimento e sullo sviluppo dei dati immessi dall’operatore. Meccanismo che, nondimeno, è ben lungi dall’essere infallibile: può incappare in madornali errori, essendo oggetto del processo un “passato”, ormai scomparso e, come tale, insuscettibile di apprensione diretta.
Neanche l’intelligenza artificiale può riportare in vita il tempo del passato, risuscitare ciò che “è stato”; né può un senso a quella bella formula di bilanciamento costituita dalla regola dell’oltre ogni “ragionevole” dubbio. Solo la mente umana può interpretare l’aggettivo “ragionevole”, che, nella sua preziosa ambiguità, tempera e modera le nostre pretese di verità.
Per rendere i nostri computer idonei a decidere, si dovrebbe individuare la percentuale di probabilità idonea a ritenere “provato” un fatto; ma la formula del ragionevole dubbio nasce proprio dal disaccordo sui margini di errore compatibili con l’esito positivo della prova. Meglio allora affidarsi al motivato convincimento del giudice che almeno lascia oscura, non individuabile a priori, la cifra delle possibili condanne ingiuste; e non ci costringe a ipotizzarle come inevitabili, ancora prima che siano pronunciate.
Purtroppo, l’informatica si sta convertendo in una super- scienza, nella nuova epistemologia, che autoritativamente detta le condizioni di sopravvivenza alle singole discipline, destinate a restarle subordinate; tra le quali vi è purtroppo anche la procedura penale che, attraverso l’intelligenza artificiale, si avvierebbe a diventare una sotto-disciplina, un semplice capitolo della pervasiva informatica.
In questo desolante quadro, l’illustre antropologo Tim Ingold ha mirabilmente espresso una nota di speranza: «In futuro, le persone dimenticheranno come cantare, allo stesso modo in cui hanno dimenticato come scrivere a mano. Vi è, tuttavia, speranza perché la rivoluzione digitale ha di certo i giorni contati. Quasi sicuramente si autodistruggerà, probabilmente già entro questo secolo. In un mondo che fronteggia l’emergenza climatica, è manifestamente insostenibile. Non solo perché dai supercomputer dipende il consumo di colossali quantitativi di energia, ma anche perché l’estrazione di metalli pesanti tossici da utilizzare nei dispositivi digitali sta fomentando conflitti genocidi in tutto il mondo e verosimilmente renderà molti ecosistemi inabitabili per sempre. Una piccola invenzione potrebbe salvarci la vita, e forse anche il pianeta. Consisterebbe in niente più che un tubicino da tenere in mano, montato su un’asta e riempito di un liquido nero o colorato, estratto da materia vegetale» . Il prezioso oggetto su cui riposano le nostre speranze ha un nome illustre, oggi fuori moda: la Penna.