Il dibattito sull’intelligenza artificiale e sui rischi del suo utilizzo appassiona e interessa molto da vicino il mondo giuridico e delle professioni. Il dibattito su AI e diritto sarà sempre più acceso e sarà fondamentale trovare un equilibrio tra innovazione e tutela dei principi fondamentali della giustizia. Senza regole chiare, rischiamo di trovarci di fronte a un’AI che, anziché aiutare, potrebbe minare la fiducia nel sistema giudiziario stesso.
Da più parti si paventa un uso distorto della AI, soprattutto in campo legale, e la notizia che arriva dal Kazakistan lo conferma. Ad Almaty, un cittadino ha utilizzato ChatGPT come assistente legale per contestare una multa stradale e ottenere la sua revoca. Il caso, riportato dall'agenzia di stampa “Trend” e ripreso dai media locali, ha sollevato interrogativi cruciali sull’affidabilità, l’etica e la regolamentazione dell’uso dell’intelligenza artificiale nel sistema giudiziario.
Lo scorso dicembre l’uomo si è visto recapitare una multa di 5.800 tenge (la moneta kazaka) per aver sorpassato un camion in sosta davanti alla sua auto in prossimità di un incrocio, un’infrazione secondo il codice della strada locale. Convinto che la sanzione fosse ingiusta, ha dapprima presentato reclamo presso il dipartimento di polizia competente, ma il suo ricorso è stato respinto. A quel punto, ha deciso di rivolgersi a un tribunale, ma invece di affidarsi a un avvocato, ha scelto di utilizzare ChatGPT per preparare il suo ricorso.
Il chatbot non si è limitato a fornire indicazioni generali, ma lo ha aiutato a organizzare la documentazione e a rispondere in tempo reale alle domande del giudice durante l’udienza, durata appena dieci minuti. Alla fine, il tribunale ha annullato la multa, stabilendo un pericoloso precedente che potrebbe influenzare il futuro dell’AI nei procedimenti giudiziari.
Questa vicenda, infatti, ha messo in luce le potenzialità dell’intelligenza artificiale nel rendere la giustizia più accessibile e veloce. Tuttavia, ha anche aperto un dibattito su rischi e implicazioni di un suo utilizzo indiscriminato.
Uno dei problemi principali riguarda l’affidabilità delle informazioni generate dall’AI. I chatbot non sono infallibili e possono produrre risposte errate o fuorvianti, che in ambito legale potrebbero avere conseguenze molto serie. Inoltre, la mancanza di una regolamentazione chiara lascia spazio a molti interrogativi: chi è responsabile in caso di errore? Può una decisione basata su suggerimenti di un’intelligenza artificiale essere considerata pienamente valida dal punto di vista legale?
Se l’AI diventerà sempre più avanzata, il rischio è che si riduca la necessità di avvocati, con conseguenze importanti sia dal punto di vista occupazionale che etico. Senza sottovalutare che l’AI, apprendendo dai dati che possiede, potrebbe generare soluzioni non corrette e il sistema potrebbe perpetuare errori giuridici.
Infine, resta il nodo della privacy. I procedimenti legali spesso riguardano dati sensibili e affidarsi a un’intelligenza artificiale per elaborarli potrebbe esporre gli utenti a rischi di violazioni della sicurezza delle informazioni.