A me non è ancora capitato. Almeno credo; non è detto che lo venga a sapere. Di sicuro è capitato a un amico e collega. Il cliente ha fatto valutare un suo atto giudiziario a un programma di intelligenza artificiale. Il risultato: quell’atto è nel complesso sufficiente, ma in alcuni punti migliorabile. Gli poteva andare peggio, insomma. Ma l’episodio si presta ad alcune considerazioni, molto “basic” ma piuttosto concrete.

Una situazione nuova

Non conta il settore. Come avvocati, ci stiamo un po’ tutti interrogando sull’uso dell’intelligenza artificiale all’interno dei nostri studi. Ma c’è da pensare anche all’uso che ne fa il cliente. Che può servirsene per controllare l’attività del suo legale, o anche per sostituirlo del tutto.

È una situazione nuova. Se un mio cliente sottopone i miei atti al giudizio di un altro avvocato, a parte la rinuncia al mandato per il venir meno del rapporto di fiducia posso chiedermi se il collega stia violando i doveri di correttezza e colleganza. Ma se è un programma a sindacare il mio operato, non ha responsabilità deontologiche di sorta. Né le ha il mio cliente, che non è un avvocato. Resta la possibilità di rinunciare al mandato, ma non altro.

Posso convenire al momento dell’incarico che i miei atti non siano valutati da alcuna forma di intelligenza artificiale? Ma poi, come saprei se lo sono stati? O forse è meglio accettare consapevolmente di seguire le indicazioni dell’intelligenza artificiale voluta dal cliente? Se perdo, non sarà per mia colpa…

L’avvocato, il cliente, l’intelligenza artificiale: un rapporto a tre?

È uno strano rapporto, quando c’è di mezzo l’intelligenza artificiale. In fondo, non è che una macchina. Eppure è un po’ come se il rapporto diventasse a tre: non più tra il cliente e l’avvocato ma tra il cliente, la macchina e l’avvocato. Con la macchina a fare da terzo incomodo nel legame fiduciario tra gli altri due.

Può darsi che l’avvocato sappia dell’esistenza del terzo. Il cliente può candidamente trasmettergli il giudizio della macchina sul suo atto; e allora valuterà la permanenza del rapporto di fiducia. Ma l’avvocato può anche non saperlo mai, che la macchina sta valutando il suo operato: avrà forse l’impressione di un cliente molto preparato.

D’altro canto un cliente che si ritenga molto preparato - perché usa un qualche programma di intelligenza artificiale - può essere portato a imporre all’avvocato le argomentazioni da scrivere. Anzi, può anche voler fare a meno dell’avvocato. Certo, ne ha bisogno per la firma dell’atto da produrre in giudizio. Ma potrebbe cercare un avvocato che riduca al minimo sia la propria presenza sia la parcella, anche limitandosi a firmare atti predisposti dal cliente (o meglio, dal suo programma di intelligenza artificiale).

Chiaro che, così facendo, l’avvocato commetterebbe un illecito deontologico, violando il dovere di indipendenza rispetto al cliente. Ma come, in concreto, verificare un simile illecito? L’avvocato deve far proprio l’atto che firma. Ma ciò presuppone un’adesione al testo sottoscritto che costituisce un fatto interiore; e non è facile dimostrare la mancanza di un fatto interiore.

Quando la macchina scrive come un avvocato

Gli atti giudiziari devono essere sottoscritti da un avvocato, ma non gli altri: pareri, istanze, note difensive, osservazioni procedimentali. Qui ci si può affidare interamente all’intelligenza artificiale. Il rischio è che si vada verso una produzione scritta sovrabbondante e non aderente all’effettiva sostanza delle questioni. Ma è nell’ordine delle cose che finisca così. L’intelligenza artificiale generativa produce testi. E se quei testi non sono più distinguibili da quelli prodotti da un avvocato, viene la tentazione di fare a meno di quest’ultimo.

E poi tutte le attività comunque legate alla produzione giuridica potranno valersi dell’intelligenza artificiale, scontandone i rischi. Ad esempio: la massimazione delle sentenze è sempre stata una fatica. Devi leggerle per intero se vuoi estrapolarne il senso. Ma ora puoi massimare sentenze a migliaia, ciascuna nel giro di pochi secondi. Più in generale: ogni lavoro giuridico, per quanto compilativo, richiedeva almeno che qualcuno lo scrivesse, magari con il più smaccato “taglia-incolla”. Ora si scrive da sé.

Inutile pensare di bloccare uno sviluppo tecnologico che offre simili vantaggi. Possiamo anche vietare l’uso dell’intelligenza artificiale per scrivere dei testi: ma sono regole applicabili?

Gli effetti sull’assetto della professione

All’interno degli studi gli effetti dell’intelligenza artificiale sono dirompenti. Dovrebbe essere un po’ come un fenomeno naturale: il giovane laureato in legge, entrato in uno studio, si occupa dapprima di ricerche in giurisprudenza e dottrina per poi avvicinarsi alla redazione di propri testi. Ma ora può trovare il suo ruolo occupato da una macchina. Forse ciò gli offre nuove opportunità: può essere meglio in grado lui di usarla. Ma si trova esposto a un brutale confronto economico con un programma che, mentre lavora, impara continuamente e velocemente. Se c’è una gerarchia nello studio basata solo sulle quantità prodotte, l’intelligenza artificiale ha ampie possibilità di salirla (da starci anzi attenti che non arrivi a scalzare i vertici …).

Cambia naturalmente anche il rapporto con il cliente, che deve sapere che il suo avvocato sta usando programmi di intelligenza artificiale; e c’è il tema - connesso - della privacy e dei rischi che essa corre. Problemi fondamentali, anche se non è facile neppure qui verificare eventuali illeciti (non solo deontologici ma anche penali).

Questo solo possiamo dare: consapevolezza e responsabilità

Inutile nasconderlo. La realtà procede in modo caotico. Ed è un’illusione quella di poterne governare gli sviluppi. Però è fondamentale la consapevolezza. Conoscere cioè gli obbiettivi dei sistemi, i loro rischi, l’incidenza sulla professione: tutto ciò coinvolge la nostra responsabilità.

Per questo anche un’iniziativa che non produce effetti diretti può essere di grande rilievo. Come quella dell’Ordine degli avvocati di Milano, che ha ora elaborato una “carta dei principi” per l’uso dell’intelligenza artificiale negli studi legali. Sappiamo bene che il futuro diventa presente senza curarsi delle disposizioni meglio scritte. Ma non è uno sforzo inutile. È un segnale di attenzione: l’attenzione che deve essere posta agli effetti dell’innovazione sulla funzione istituzionale della giustizia, cui l’intera avvocatura concorre.