PHOTO
Scade l’11 novembre il termine per la presentazione al Senato degli emendamenti al disegno di legge n. 1146, che detta disposizioni e delega al Governo in materia di intelligenza artificiale. Il Consiglio Nazionale Forense, presieduto dall’avvocato Francesco Greco, nello scorso mese di luglio ha ritenuto di esporre le proprie osservazioni al testo, inviando ai Gruppi Parlamentari una ipotesi emendativa in tema di giustizia.
Tra le proposte vi sono quelle concernenti le disposizioni in materia di professioni intellettuali, le modalità dell’uso della IA nell’attività giudiziaria e la creazione di Autorità nazionali per la valutazione dei sistemi di Intelligenza artificiale immessi sul mercato o adottati dalle amministrazioni pubbliche.
Il ddl sull’Intelligenza artificiale contiene una disciplina di immediata applicazione, nonché deleghe al Governo per l’attuazione delle disposizioni non immediatamente applicabili indicate dal Regolamento UE 1689/2024 del Parlamento europeo e del Consiglio sull’Intelligenza artificiale, il cosiddetto “IA Act”. Le disposizioni della legge immediatamente applicabili sono alla base della “disciplina ponte”, che nell’immediato servirà a regolare l’utilizzo dei sistemi di Intelligenza artificiale nei settori più delicati dell’attività pubblica e privata in attesa dell’attuazione delle disposizioni del Regolamento europeo sull’IA per le quali sono previsti adeguamenti di sistema di non immediata attuabilità.
Spetterà pertanto al Governo, nell’esercizio della delega, dover seguire l’impianto complessivo e gli obiettivi principali dell’IA Act. In tale contesto si inserisce il contributo del Cnf. Via Del Governo Vecchio ha da sempre sottolineato, in linea con la disciplina europea, l’esigenza di conservare la centralità dell’avvocato in merito all’impiego degli strumenti di Intelligenza artificiale. Ciò al fine di arginare uno sviluppo incontrollato che possa «condurre a derive imprevedibili e dannose, nonché al fine di definire un processo di chiara e oggettiva identificazione degli algoritmi di IA affidabili».
Le principali proposte di modifica del Consiglio nazionale forense hanno come obiettivo il miglioramento complessivo del testo del ddl, con particolare riferimento all’utilizzo dei sistemi di IA da parte dei professionisti intellettuali (articolo 12) e nell’attività giudiziaria (articolo 14), senza tralasciare il ruolo fondamentale che ricopriranno le Autorità nazionali per l’Intelligenza artificiale (articolo 18). Il tutto con un filo conduttore ben preciso: la visione antropocentrica e il principio di autoresponsabilità dell’impiego di sistemi e modelli di Intelligenza artificiale.
Nel dettaglio l’articolo 12 emendato dal Cnf prevede la sostituzione del secondo comma e l’aggiunta dei commi 3 e 4. Il comma 2 si sofferma sui profili deontologici: «Il professionista informa il cliente dell’impiego di sistemi di Intelligenza artificiale nella realizzazione della prestazione intellettuale. L’omessa informazione è valutata ai fini deontologici». «In ogni caso – si legge nel terzo comma -, l’utilizzo del materiale prodotto da sistemi di Intelligenza artificiale è imputabile al professionista intellettuale, indipendentemente dal livello di automazione raggiunto dal sistema».
Infine il comma 4 prevede il divieto di «qualsiasi utilizzo di sistemi di Intelligenza artificiale non validati ai sensi del Regolamento UE 1689/24».
Per quanto riguarda l’uso dell’intelligenza artificiale nell’attività giudiziaria, le proposte di modifica dell’articolo 14 prevedono l’inserimento di quattro commi. È utile ricordare il contenuto dei commi 1 e 2 (rimangono invariati) i quali rilevano quanto segue.
«I sistemi di intelligenza artificiale sono utilizzati esclusivamente per l’organizzazione e la semplificazione del lavoro giudiziario, nonché per la ricerca giurisprudenziale e dottrinale. Il ministero della Giustizia disciplina l’impiego dei sistemi di Intelligenza artificiale da parte degli uffici giudiziari ordinari». Il comma 2: «È sempre riservata al magistrato la decisione sulla interpretazione della legge, sulla valutazione dei fatti e delle prove e sulla adozione di ogni provvedimento». Il comma 3, inserito dal Cnf, stabilisce che «l’uso di sistemi e modelli di intelligenza artificiale in violazione delle disposizioni precedenti costituisce ipotesi di responsabilità del magistrato ai sensi dell’art. 2 della legge 13 aprile 1988 n. 117».
Grande importanza viene assegnata all’Osservatorio permanente per l’uso dell’intelligenza artificiale nell’attività giurisdizionale (comma 5), istituito presso il Ministero della Giustizia. Questo organismo ha «il compito di definire una strategia sull’utilizzo dell’intelligenza artificiale in ambito giudiziario, monitorarne l’impatto» e «collabora con le Autorità competenti alla realizzazione di sistemi e modelli compatibili con le garanzie costituzionali e con i principi del giusto processo». L’Osservatorio è presieduto dal ministro della Giustizia o da un suo rappresentante e tra i membri di diritto figura anche il presidente del Consiglio nazionale forense.
Lucilla Gatt (avvocata, ordinario di Diritto privato e Diritto delle nuove tecnologie nell’Università degli Studi Suor Orsola Benincasa e Direttore ReCEPL-Research Centre of European Private Law) si sofferma sui principi che hanno ispirato l’intervento del Cnf. «La proposta – dice Gatt - si fonda sullo sviluppo di un’IA volta al potenziamento e non alla sostituzione delle capacità umane in tutti i campi e in quello legale in particolare e sulla compliance della normativa italiana rispetto a quella europea con conseguente necessità di sottoporre le tecnologie dotate di IA ad una valutazione complessiva che ne misuri l’impatto sui diritti fondamentali dell’essere umano prima dell’immissione sul mercato».
Inoltre, si è posta l’attenzione sullo «sviluppo di strumenti di IA in area legale ad opera di organismi istituzionali che interagiscano tra loro, creando un sistema algoritmico di proprietà pubblica, validato e con caratteristiche di interoperabilità fruibile da diversi operatori del diritto, giudici, avvocati, notai, pubblici funzionari, in maniera sicura e consapevole». «L’uso di uno strumento di Intelligenza artificiale nell’attività professionale – aggiunge Gatt - rientra nella discrezionalità del singolo professionista ed è a lui imputabile in caso di danno al proprio cliente. L’emendamento proposto dal Gruppo di lavoro del Cnf, all’articolo 12, non stravolge, ma conferma questa impostazione che vale per ogni tipo di ausilio utilizzato dal professionista nell’esercizio della sua attività. È stato previsto anche un obbligo informativo che, tuttavia, non era strettamente necessario, rappresentando piuttosto un ossequio al principio di correttezza e trasparenza nei rapporti con il cliente, con rilevanza solo sul piano deontologico».