PHOTO
Costa
Il tema dei rapporti tra diritto e sistemi di intelligenza artificiale esce dalle valutazioni di principio per approdare all’esame dell’adeguatezza della disciplina europea di prossima emanazione e all’analisi delle pronunce giurisprudenziali nel frattempo intervenute sia in sede civile sia in sede amministrativa. La proposta di regolamento UE elaborata dalla Commissione Europea del 21 aprile 2021 è fondata sul sistema della gestione del rischio, alla stregua del Gdpr sulla tutela della privacy, ma è rimesso a un successivo atto regolamentare lo statuto della responsabilità civile per i sistemi ad alto rischio e per i casi di responsabilità aggravata. Nel frattempo, la recentissima proposta di direttiva sui riders (“on improving working conditions in platform working”) formulata dal Parlamento europeo e dal Consiglio del 9 dicembre scorso propone un modello avanzato di gestione dei rapporti di lavoro mediante i sistemi di Intelligenza Artificiale, che potrebbe assumere anche il carattere di un paradigma di carattere generale. All’articolo 6, dedicato alla gestione mediante algoritmi, si prevede l’obbligo di trasparenza dei sistemi decisionali impiegati per stabilire le condizioni di lavoro, il conferimento degli incarichi lavorativi, lo stipendio, la sicurezza, l’orario di lavoro, le promozioni e lo status occupazionale. Inoltre, all’articolo 8, si prevede la revisione umana di decisioni significative, enunciando l’obbligo di garantire per i lavoratori il contatto con una persona designata per discutere e chiarire fatti e ragioni che hanno determinato la decisione assunta nei loro confronti. A ciò può seguire la fase della richiesta di vera e propria revisione della decisione, rispetto alla quale deve intervenire una risposta motivata senza ritardo e se si riscontra una violazione dei diritti dei lavoratori, occorre rettificare la decisione o, se non è possibile, offrire un adeguato risarcimento. Il problema basilare su cui il legislatore eurounitario dovrà definitivamente prendere posizione, rimane, tuttavia, quello della trasparenza dell’algoritmo su cui è strutturato il sistema di intelligenza artificiale impiegato. La Corte di cassazione, I Sezione civile, lo ha evidenziato in modo inequivocabile con l’ordinanza n.14381 del 25 maggio 2021, secondo cui quando ci si avvale di un algoritmo, per la valutazione oggettiva di dati personali, devono essere necessariamente resi conoscibili lo schema esecutivo in cui l'algoritmo si esprime e gli elementi considerati al tal fine. Un problema ulteriore è affrontato dal Consiglio di Stato, con la sentenza della Terza Sezione n.7891 del 25 novembre 2021, chiamato a definire l’esatta perimetrazione della nozione di “algoritmo di trattamento” nell’ambito di una procedura di gara per la fornitura di materiale sanitario. In tale pronuncia, si ribadisce come la nozione comune di algoritmo riporti alla mente “semplicemente una sequenza finita di istruzioni, ben definite e non ambigue, così da poter essere eseguite meccanicamente e tali da produrre un determinato risultato”. Tuttavia, l’algoritmo tradizionale viene utilizzato in un sistema di machine learning che si limita solo ad applicare le regole software e i parametri preimpostati, ai fini della decisione. Mentre cosa diversa sono i sistemi veri e propri di intelligenza artificiale, in cui l’algoritmo elabora costantemente nuovi criteri di inferenza tra dati, che determinano l’assunzione di decisioni sulla base di tali elaborazioni, secondo un processo di apprendimento automatico. Non c’è dubbio che il problema della trasparenza acquisirà sempre maggiore rilevanza proprio con riferimento ai sistemi di intelligenza artificiale, descritti in modo differenziale rispetto all’uso tradizionale dell’algoritmo nella suddetta pronuncia, giacché la fase del machine learning può dirsi in via di superamento, trovandoci ormai in quella della deep learning rispetto alla quale è sempre più essenziale far valere il principio di trasparenza algoritmica, per non demandare la decisione alla macchina in modo insindacabile, secondo il fenomeno del blackbox. L’obiettivo, pertanto, è quello di rintracciare sempre la catena logica sequenziale degli strumenti di automazione, giacché le decisioni algoritmiche producono atti o fatti giuridicamente rilevanti e occorre verificare che non siano il frutto di pericolosi bias cognitivi. Abriani e Schneider nel loro libro su Diritto delle imprese e intelligenza artificiale prospettano un possibile scenario tanto verosimile quanto inquietante nel quale le persone dovranno lavorare solo per inventare modelli di business e progettare algoritmi e istituzioni per regolamentarli. Soprattutto quando arriveremo ai roboboards ovvero ai consigli di amministrazione interamente strutturati secondo processi decisionali di intelligenza artificiale. Occorrerà, tuttavia, sempre tener presente, per parafrasare un altro libro pubblicato di recente da Kate Crawford, che i sistemi che si definiscono tali, in realtà, non sono né intelligenti né artificiali e che il controllo umano non potrà mai essere abbandonato. Certamente, si può aggiungere, il controllo umano è essenziale in ambito giuridico, giacché il diritto non può essere ridotto a mera computabilità.