Si era presentato in aula convinto di poter vincere, forte di un alleato solido e ben informato: l'intelligenza artificiale di ChatGpt. L'avvocato Steve Schwartz, che rappresentava un cliente in una causa contro una compagnia aerea, ha finito con il rimediare, però, una brutta figura: sei dei precedenti portati in aula dal legale, che lavora per un studio accreditato a New York da ben tre decadi, si sono rivelati, secondo la sentenza del giudice Kevin Castel, «decisioni giudiziarie false e con citazioni altrettanto fasulle».

Il caso riguardava un uomo di nome Roberto Mata, che aveva citato in giudizio la compagnia aerea Avianca, sostenendo di essere rimasto ferito dopo esser stato colpito al ginocchio da un carrello di servizio in metallo durante un volo dell'agosto 2019, da El Salvador a New York. Avianca aveva chiesto al giudice Castel di archiviare la causa perché decorsi i termini di prescrizione.

Gli avvocati del signor Mata hanno risposto con una memoria di 10 pagine citando più di una mezza dozzina di decisioni giudiziarie, con nomi come Martinez v. Delta Air Lines, Zicherman v. Korea Air Lines e Varghese v. China Southern Airlines, per sostenere la possibilità di far andare avanti la causa. Tutti casi che, però, gli avvocati di Avianca non sono riusciti a individuare. Da qui la richiesta agli avvocati di Mata, da parte del giudice Castel, di fornire copia degli incartamenti e l’imbarazzante scoperta: quei casi, semplicemente, non sono mai esistiti. «La corte si trova davanti a una circostanza senza precedenti», ha scritto Castel in un'ordinanza del 4 maggio.

L’avvocato Schwartz ha dunque dovuto ammettere di essersi servito dell'intelligenza artificiale per consolidare la posizione del cliente. In una dichiarazione giurata, ha affermato di non aver mai utilizzato ChatGpt come fonte di ricerca legale prima di questo caso e, pertanto, «non era a conoscenza della possibilità che il suo contenuto potesse essere falso », assumendosi la responsabilità di non aver confermato le fonti del chatbot.

Ma ciò non gli ha evitato un'udienza del tribunale, in cui sono state valutate sanzioni nei suoi confronti. «Ho sentito parlare di questo nuovo sito, che erroneamente pensavo fosse un super motore di ricerca», ha provato a giustificarsi Schwartz, al quale Castel ha inflitto una multa da 5mila dollari e l’ordine di notificare la sanzione a ciascun giudice falsamente identificato come autore delle false sentenze.

L'avvocato ha tentato di uscire dall’assurda situazione mostrando in un affidavit la schermata del “dialogo” con ChatGpt, in cui chiede se «il caso Varghese è reale». «Sì - ha risposto l'intelligenza artificiale è reale». Una conferma che è arrivata anche per gli altri casi trattati. «Nella ricerca e nella stesura delle istanze giudiziarie, i buoni avvocati ottengono adeguatamente assistenza da giovani avvocati, studenti di giurisprudenza, avvocati a contratto, enciclopedie giuridiche e banche dati come Westlaw e LexisNexis», ha scritto Castel nella sua ordinanza. «I progressi tecnologici sono all’ordine del giorno e non c’è nulla di intrinsecamente improprio nell’utilizzare uno strumento affidabile di intelligenza artificiale per l’assistenza - ha aggiunto il giudice -. Ma le regole esistenti impongono agli avvocati un ruolo di controllo per garantire l’accuratezza dei loro documenti».