Il 13 Marzo 2024 il Parlamento europeo ha avanzato una proposta di atti normativi in merito all’intelligenza artificiale dal titolo Artificial intelligence Act al fine di proteggere i diritti fondamentali, promuovendo l’innovazione, la competitività e lo sviluppo con particolare attenzione alle piccole e medie imprese comprese le start- up e assicurando al contempo all’Europa un ruolo guida sull’adozione di una IA affidabile ed etica.

Tale regolamento al momento non è vigente ed è in discussione al Consiglio dell’Unione Europea al quale partecipa anche il governo italiano tramite i propri delegati. Una volta approvato la scelta normativa del Regolamento sarà determinata la sua diretta applicabilità in tutti gli Stati membri. Una disposizione che direi ovvia, considerato che l’adozione di normative nazionali divergenti in materia potrebbero comportare la frammentazione del mercato interno e diminuire la certezza del diritto per gli operatori professionali.

In concomitanza con questo Regolamento del Parlamento Ue nei settori demandati dallo stesso all’autonomia normativa degli Stati membri, il Consiglio dei ministri in data 23 Aprile 2024 ha deliberato il disegno di legge n. 78: Evoluzione del quadro normativo unionale sull’IA.

Tuttavia, possiamo dire che scarno, forse quasi inesistente, è l’interesse del ddl per la responsabilità civile e il diritto dipendente dall’uso di sistemi di intelligenza artificiale. Il disegno di legge, all’art. 14– 15, si limita a precisare che l’uso della IA per il giudiziario è confinato esclusivamente per “l’organizzazione e la semplificazione del lavoro, oppure per la ricerca giurisprudenziale dottrinale”, affermando poi che “è sempre riservata al magistrato la decisione sull’interpretazione della legge, sulla valutazione dei fatti e delle prove e sull’adozione di ogni provvedimento, incluso la sentenza”.

Questo principio, ripetuto in diverse occasioni da chi si interessa di IA e diritto, è fondato in nome dell’esigenza di rispetto della dignità umana e il conseguente diritto di colui che partecipa ad un conflitto giudiziario ad essere giudicato da un suo simile. Tuttavia l’applicazione della IA nel campo giuridico offre nuove opportunità che sarebbe stato opportuno, anche in via generale, prendere in considerazione da parte della proposta di legge governativa. Tanto più che questa raccolta di dati eterogenei, di modelli statistici sono i precedenti giurisprudenziali che portano ancora oggi il giudice alle sentenze.

I modelli machine learning, nutriti dai dati raccolti, anticipano i risultati possibili sulla base di situazioni analoghe e valutano la probabilità di successo della questione legale. Pertanto, sebbene sia opportuno ribadire che il contributo umano del giudice è ancora imprescindibile, è necessario considerare e regolamentare i vantaggi e i rischi della machina decidens.

Si tratta di un ausilio indispensabile e cito quanto ebbe a scrivere Antonio Punzi nel saggio Judge in the Machine. E se fossero le macchine a restituirci l’umanità del giudicare?, dove si ricorda che siamo molto vicini alla realtà di “macchine predittive” o “progetti di decisione” volti a determinare le basi di sentenze, ordinanze, ecc., per la trattazione e soluzioni dei conflitti giudiziari. Non mancano esempi in tal senso. Sono sempre più frequenti gli Stati che si avvalgono di machine learning per prevedere il comportamento delle corti di giustizia.

Negli Stati Uniti e, poi, a Londra abbiamo il primo robot avvocato, Donotpay. Inoltre, l’evoluzione dell’IA ha fatto sì che ne faccia uso l’avvocato nei tribunali inglesi: attraverso uno smartphone ascolterà il procedimento in aula prima di istruire l’imputato su cosa dire tramite un auricolare. Ancora, abbiamo diversi sistemi di revisione dei contratti, come COIN (contract intelligence) in grado di identificare le clausole più rischiose e delicate di un contratto. E per venire alla legislazione italiana possiamo ricordare Toga: il primo database dinamico dei reati previsti dalla legislazione penale.

Una regolamentazione dell’intelligenza artificiale nell’ambito dei giudiziario non può allora prescindere dall’utilizzo dei big data e dalla loro qualità. Non mancano in questo settore discussioni in merito alla responsabilità degli operatori e degli ingegneri che forniscono agli utenti l’IA. È possibile ad esempio domandarsi se questa riesca a non essere discriminatoria. Gli algoritmi vengono nutriti con informazioni acquisite, fornite, scelte dall’uomo. Quindi una decisione, un’indicazione, possono essere basate su dati ideologici, utilizzati dal programmatore, dall’ingegnere che ha raccolto i dati e formato i software. In tal modo l’impatto può essere asimmetrico sul piano sociale. Inoltre in alcuni settori gli algoritmi possono perpetuare anche involontariamente modelli discriminatori, incidendo in modo più severo e penalizzante nei confronti di gruppi minoritari e marginalizzati. Analogamente, criticità oggettivamente razziste sono emerse nel penale dal funzionamento di sistemi di facial recognition.

Si può concludere condividendo quanto richiesto dal Regolamento Ue: che gli Stati membri provvedano affinché le loro autorità competenti istituiscono almeno uno “spazio di sperimentazione normativa” per l’IA a livello nazionale. Tale spazio garantisce un ambiente controllato che promuove l’innovazione e facilita lo sviluppo, l’addestramento e la convalida di sistemi di IA innovativi prima della loro messa in servizio di modo che non si creino situazioni di “rischi inaccettabili” per la sicurezza dei diritti delle persone.