PHOTO
È già da un po’ di giorni che il Tribunale di Firenze ha “messo in guardia dalle allucinazioni giurisprudenziali”, per così dire: il problema dell’affidamento cieco all’intelligenza artificiale nei processi non è nuovo, l’ultimo caso lo ha reso ancora più evidente. Il recente pronunciamento della sezione Imprese del Tribunale toscano ha censurato l’uso dell’IA e i rischi legati alla sua affidabilità, ribadendo la necessità di un controllo umano rigoroso sulle informazioni generate con l’algoritmo.
L’episodio in questione riguarda un procedimento sulla tutela dei marchi e del diritto d’autore, in cui una delle parti aveva citato, all’interno della propria memoria difensiva, precedenti “inventati”, generati da ChatGPT. Questi richiami errati, secondo i giudici, non sono arrivati a poter inficiare l’andamento della causa, e non è stata dunque accolta la richiesta di condanna per lite temeraria, avanzata dalla controparte. Il Tribunale ha stabilito che l’errore non configurava un abuso del processo, dal momento che l’uso di quei riferimenti era avvenuto non per dolo, ma come semplice rafforzamento di una linea difensiva già consolidata.
Nello stesso tempo, i giudici hanno sottolineato come il fenomeno delle “allucinazioni giurisprudenziali” rappresenti un serio problema: l’Ia può generare dati inesistenti e creare l’illusione della veridicità. Nel caso specifico, ChatGPT aveva inventato numeri di sentenze della Cassazione relative alla vendita di merce contraffatta, senza che vi fosse alcuna corrispondenza con la realtà.
Sull’uso dell’intelligenza artificiale in ambito legale, il presidente dell’Ordine degli avvocati di Firenze Sergio Paparo, interpellato dal Dubbio, esprime forti perplessità: «È evidente che qualcuno ci ha provato, e poi ha scaricato la responsabilità sulla collaboratrice. Chi utilizza l’Ia come strumento professionale rischia di accettare per buone informazioni che devono sempre essere verificate. Ho provato personalmente a fare delle ricerche e ho riscontrato che il 90% delle informazioni vanno controllate, poiché molte provengono da fonti come Wikipedia, che a loro volta necessitano di verifica. Questo tipo di condotta, al di là delle conseguenze processuali, che non sono state particolarmente severe, avrebbe meritato anche una valutazione sotto il profilo deontologico. Ritengo che il Tribunale sia stato eccessivamente indulgente, quando invece sarebbe stato opportuno un coinvolgimento dell’Ordine per un esame disciplinare».
Paparo considera necessario un intervento sul codice deontologico: «Riguardo all’uso dell’intelligenza artificiale, dovremmo costruire una regolamentazione chiara per avvocati e clienti: la competenza professionale deve basarsi non su strumenti come ChatGPT, ma su anni di studio ed esperienza. Il cliente ha diritto a sapere a chi si affida, e questo incide anche su un tema di concorrenza: in questo caso si può parlare di concorrenza sleale». Il presidente del Coa riflette anche su possibili ripercussioni occupazionali: «L’uso indiscriminato dell’Ia potrebbe portare a un taglio delle collaborazioni, soprattutto nei grandi studi, dove alcune attività ripetitive verrebbero completamente sostituite. La prima attività di un praticante è la ricerca, ma se questa viene affidata a ChatGPT, basta un semplice abbonamento».
La sentenza del Tribunale di Firenze ha evidenziato la necessità di una maggiore attenzione nell’utilizzo di strumenti basati sull’intelligenza artificiale. L’errore in questione è stato attribuito, dall’avvocato in questione, a una collaboratrice, che avrebbe effettuato la ricerca con ChatGPT senza che il titolare dello studio ne fosse a conoscenza. Quest’ultimo, riconoscendo l’omesso controllo, aveva richiesto lo stralcio dei riferimenti errati, ribadendo che la propria difesa era già solida senza il supporto di quelle citazioni “inventate”.