PHOTO
Un fatto dalla portata storica. Pochi giorni fa il Parlamento europeo ha dato il via libera al primo regolamento al mondo dedicato all'intelligenza artificiale. Con 499 voti a favore ( 28 contrari e 98 astenuti) il nuovo testo - l’AI Act, come è stato ribattezzato – individua una serie di norme che disciplinano l'attività degli operatori dei sistemi di intelligenza artificiale. «Confortanti passi in avanti che provengono dall’Europa», commenta l’avvocato Salvatore Sica, ordinario di Diritto privato nell’Università di Salerno e consigliere giuridico del ministro della Cultura.
Professor Sica, l’AI Act è una novità assoluta. Interviene su una materia che condiziona e che condizionerà sempre di più le nostre esistenze?
È fondamentale sottolineare che il provvedimento approvato è il primo al mondo che proviene dall’Europa. È il segno che l’Europa è il luogo dei diritti e delle tutele, soprattutto della tutela della persona umana e delle sue prerogative. Il regolamento verrà applicato su tutto il territorio europeo anche se l’azienda che viene presa in considerazione non è europea. Fissa alcuni punti, che reputo di fondamentale importanza.
Quali?
Innanzitutto, ci si sofferma sulle pratiche vietate. Introduce il divieto dell’uso dei database che contengono il riconoscimento facciale e che prevedono la categorizzazione biometrica, vale a dire la classificazione dei soggetti in funzione dei dati biometrici acquisiti tramite l’utilizzo dell’intelligenza artificiale. Divieto assoluto anche all’uso di tecniche subliminali. Viene poi introdotto un fondamentale divieto di software di riconoscimento delle emozioni. I principi e i divieti vengono resi effettivi attraverso una maggiore trasparenza delle informative. Mi piace sottolineare un duplice aspetto del regolamento approvato di recente. Non troviamo nulla di nuovo e c’è molto di nuovo. Mi spiego meglio. Non c’è nulla di nuovo, perché siamo nel solco dei principi generali in materia di protezione dei dati. Ci sono, invece, tante novità, perché per la prima volta si trasferiscono in maniera massiccia e in termini di disciplina compiuta determinati principi rispetto al fenomeno nuovo dell’intelligenza artificiale. Sotto questo profilo l’Europa fa da traino nel mondo intero. In un certo senso il regolamento è molto vicino nel tempo all’importante provvedimento, per ora l’unico da parte di un Garante, quello italiano, che, come è noto, ha sospeso temporaneamente il servizio di Chat Gpt.
Il regolamento europeo interviene pure sui particolari programmi di “riconoscimento delle emozioni”. Si apre una frontiera in materia di indagini giudiziarie con ripercussioni sul diritto di difesa?
Il regolamento è molto chiaro. È previsto un divieto dei software di riconoscimento delle emozioni per i luoghi di lavoro, nella gestione dei confini, nella polizia e nelle scuole. In questo modo si vuole evitare che l’intelligenza artificiale diventi l’arbitro, per esempio del rapporto di lavoro. Si vuole evitare, altresì, che l’IA diventi strumento di discriminazione e che si trasformi in uno strumento di valutazione degli studenti a scuola. Inoltre, si vuole evitare che l’Intelligenza artificiale diventi uno strumento di indagine di polizia. Sono tutti temi per i quali è importante tenere alta la guardia. Forse pochi ignorano che molte scelte di impresa già oggi vengono compiute sulla base della valutazione delle variazioni psicologiche del soggetto e degli stati emozionali. Non è affermato il divieto da parte di una azienda di ricorrere a colloqui psicoattitudinali. I colloqui però non possono essere effettuati da un soggetto non umano, non possono essere delegati a un algoritmo. La selezione, per esempio, del personale o la valutazione della prestazione di un dipendente non può avvenire in maniera automatizzata.
Privacy e trasparenza sono al centro dell’AI Act. Le nostre vite subiranno quindi meno “attacchi”?
Io dico che le nostre vite subiscono già l’invadenza di certi strumenti. Molte delle contrattazioni di massa più importanti avvengono tramite l’algoritmo. Il telemarketing ormai prevalente, quello da cui non ci si riesce a difendere, il più insidioso, è fatto tramite operatore automatizzato algoritmico. L’algoritmo decide sempre più spesso provvedimenti amministrativi e oggi presenta enormi problemi con il diritto d’autore.
A cosa riferisce?
Più che uno scenario legato al futuro, è importante soffermarsi sulle stringenti problematiche connesse alla realtà alle quali, fino ad oggi, soltanto l’Europa ha risposto “presente”. È noto che sempre più spesso gli studenti, compiendo un atto, che, è bene sottolineare, è illecito, si avvalgono della IA per elaborare testi, tesi di laurea o per superare esami. Noi professori universitari siamo spesso costretti a svolgere delle operazioni di decrittazione o di verifica della autenticità del testo. Non sempre i software di verifica sono adeguati alla novità della intelligenza artificiale. In ogni caso già si pone il problema di chi sia il proprietario della creazione intellettuale, realizzata tramite l’IA. Il diritto d’autore è legato alla natura umana dell’autore. Va escluso certamente che un meccanismo di intelligenza artificiale possa essere ritenuto autore ai sensi della disciplina vigente. È anche vero che si porrà sempre più spesso la questione di verificare quanto l’autore si sia avvalso dell’intelligenza artificiale, ribadendo la propria capacità creativa, o quanto invece sia stato prevalente l’apporto dell’algoritmo. In quest’ultimo caso va negata tutela non solo alla macchina, ma anche all’autore perché non è tale.
Le chatbot potranno minare il lavoro degli avvocati e degli operatori del diritto?
La professione forense e la funzione del giudice non potranno mai essere limitate. Se dovessi pensare ad uno scenario diverso, vuol dire che il processo di prevalenza dell’intelligenza artificiale sarebbe stato portato alle sue estreme conseguenze e io spero di non vederlo in questa generazione. Per l’avvocato che voglia avvalersi della IA per redigere uno scritto difensivo si pone il problema della serietà e della autenticità delle citazioni che vengono fatte. L’intelligenza artificiale altro non è che un immenso contenitore che elabora e conserva un testo. Non è dotata di mente autonoma pensate e selettiva. Se è stata inserita immondizia o se sono stati inseriti dati fallaci, il prodotto finale riporterà stralci di immondizia o errori.