PHOTO
Il Consiglio nazionale forense ha presentato nei mesi proposte emendative al disegno di legge n. 1146, che detta disposizioni e delega al Governo in materia di intelligenza artificiale. La professoressa Lucilla Gatt ( ordinario di Diritto privato e Diritto delle nuove tecnologie nell’Università degli Studi “Suor Orsola Benincasa” e direttore ReCEPL- Research Centre of European Private Law) ha fatto parte del gruppo di lavoro di via Del Governo Vecchio. «A seguito del G7 dell’avvocatura – spiega la professoressa Gatt -, organizzato dal Consiglio nazionale forense nell’aprile scorso, il presidente Francesco Greco ha promosso la costituzione del “Gruppo di lavoro del Cnf in materia di Intelligenza artificiale”, composto da esperti del dominio law& tech, in rappresentanza dell’avvocatura stessa, Luigi Viola, Vittorio Minervini, Federica Santinon, Carolina Rita Scarano, Nicola Cirillo, dell’accademia, io e Giovanni Comandè, e dell’Istituto di Informatica giuridica e sistemi giudiziari-Igsg con Francesco Contini.
Il gruppo si è riunito più volte per elaborare una proposta di emendamenti al ddl 1146. Tale proposta è stata sottoposta durante l’audizione svolta dal presidente Greco presso gli organi competenti in sede legiferante».
Professoressa Gatt, quali sono stati i principi che hanno ispirato la proposta di emendamento dell’avvocatura?
La proposta si fonda su diversi principi. Tra questi segnalo lo sviluppo di un’IA volta al potenziamento e non alla sostituzione delle capacità umane in tutti i campi e in quello legale in particolare, compliance della normativa italiana rispetto a quella europea con conseguente necessità di sottoporre le tecnologie dotate di IA ad una valutazione complessiva che ne misuri l’impatto sui diritti fondamentali dell’essere umano prima dell’immissione sul mercato. E ancora. Sviluppo di strumenti di IA in area legale ad opera di organismi istituzionali che interagiscano tra loro creando un sistema algoritmico di proprietà pubblica, validato e con caratteristiche di interoperabilità, vale a dire fruibile da diversi operatori del diritto, giudici, avvocati, notai, pubblici funzionari, in maniera sicura e consapevole; creazione di organismi che svolgano ruolo di verifica e validazione dei sistemi di IA. La proposta si articola in una serie di osservazioni, alcune di carattere generale e altre più specifiche su alcuni articoli del ddl 1146 con riguardo agli articoli 12 e 14. Inoltre, è emersa una esigenza ben precisa.
Quale?
Quella di favorire l’uso, anche ad ampio raggio, degli strumenti di IA da parte dei professionisti legali nella propria attività, ma sempre in una prospettiva di responsabilità e trasparenza nei confronti degli utenti, prevedendo obblighi informativi e privilegiando prodotti di Intelligenza artificiale validati e sicuri. Sul fronte dell’attività giudiziaria, si è proposto di realizzare strumenti di IA dedicati e di fonte istituzionale per evitare dipendenze e interferenze, ferma restando, anche qui, la possibilità di impiegare tali strumenti per una vasta gamma di attività purché si tratti di strumenti prodotti da una sinergia tra organismi istituzionali. In questo senso va l’emendamento della proposta del Gruppo di lavoro Cnf secondo cui il ministero della Giustizia, di concerto con la Corte di Cassazione e il Cnf, promuove la realizzazione di sistemi di IA compatibili con l’esercizio dell’attività giurisdizionale e giudiziaria.
Il ruolo del professionista continua ad essere centrale. I profili di deontologia, connessi all’utilizzo dell’IA, risultano adeguati?
L’uso di uno strumento di IA nell’attività professionale rientra nella discrezionalità del singolo professionista ed è a lui imputabile in caso di danno al proprio cliente. L’emendamento proposto all’articolo 12 non stravolge, ma conferma questa impostazione che vale per ogni tipo di ausilio utilizzato dal professionista nell’esercizio della sua attività. È stato confermato, con alcune specificazioni, anche l’obbligo informativo, che, tuttavia, non era strettamente necessario, rappresentando piuttosto un ossequio al principio di correttezza e trasparenza nei rapporti con il cliente, con rilevanza solo sul piano deontologico. Il profilo deontologico appare, dunque, nel complesso rafforzato dalla proposta emendativa, Ciò che più conta però è la precisazione, presente nell’articolo 12 del ddl, dedicato alle professioni intellettuali, secondo cui il sistema di IA può essere utilizzato esclusivamente per esercitare attività strumentali e di supporto all’attività professionale e con prevalenza del lavoro intellettuale oggetto della prestazione d’opera.
L’Osservatorio permanente per l’uso dell’intelligenza artificiale nell’attività giurisdizionale è, nell’ambito dell’applicazione della normativa sull’IA, una della novità più importanti?
Questo organismo, da poco insediatosi, rappresenta un’iniziativa particolarmente importante e meritoria del ministro della Giustizia, Carlo Nordio, in accordo con le rappresentanze istituzionali più significative del mondo giuridico. L’auspicio è che si traduca in un tavolo di lavoro su cui porre obiettivi concreti e realizzabili in tempi ragionevoli. Penso alla creazione di un sistema di IA proprietario, specializzato sul diritto italiano, che appare di particolare importanza e urgenza per rendere sicuro e responsabile l’uso della tecnologia in questione nell’attività giudiziaria. Si andrebbe in questa direzione favorendo la cooperazione tra le rappresentanze istituzionali, da una parte, e le strutture tecnologiche dall’altra. Le strutture presenti e attive sul territorio allo stato operano separatamente, senza condividere uno scopo comune.
Del pari urgente sarebbe l’individuazione del processo di validazione dei sistemi di IA utilizzabili in ambito legale, con attribuzione di ruoli e di strumenti ad organismi competenti e di pubblica rilevanza. A questo scenario di IA affidabile (trustworthy) fa riferimento la proposta di emendamento dell’articolo 14, formulata dal Gruppo di lavoro del Cnf secondo cui l’utilizzo nell’attività giurisdizionale dei sistemi di IA, dotati di valutazione di conformità ai sensi del Regolamento europeo, dovrebbe soggetto al parere vincolante dell’Agenzia per l’Italia digitale, Agenzia per la Cybersicurezza nazionale e Consiglio nazionale forense.