Telecamere con algoritmi che rivelano elementi sospetti nei reclusi, ascolto chiamate con elaborazione delle parole chiave per evidenziare fatti illeciti, guardiani robotici nei padiglioni, previsione delle recidive e disporre misure preventive come il film “Minority Report”. Negli ultimi anni, l'intelligenza artificiale ( IA) è diventata sempre più pervasiva, con un aumento delle applicazioni in settori come la salute, l'agricoltura, l'energia e l'ambiente. L'IA può fare una grande differenza nella nostra vita, sia in positivo che in negativo. Nel corso di giugno 2023, il Parlamento europeo ha stabilito la propria posizione normativa, presentando il primo insieme di regole al mondo sull'intelligenza artificiale. Ma già nel 2021, a livello europeo, è emerso un dibattito sull'impiego dell'IA all'interno delle carceri e nei sistemi di libertà vigilata.

Parliamo del Consiglio per la cooperazione penologica ( PC- CP), che ha presentato una proposta di raccomandazione a Strasburgo fornendo linee guida sull'utilizzo dei meccanismi di intelligenza artificiale in tali contesti. Secondo la definizione della Commissione europea, l'intelligenza artificiale si riferisce a sistemi che mostrano un comportamento intelligente analizzando l'ambiente circostante e intraprendendo azioni per raggiungere obiettivi specifici con un certo grado di autonomia. Di conseguenza, l'utilizzo di tali sistemi nelle carceri e nella probation offre nuove modalità di raccolta ed elaborazione dei dati sui condannati e potenzia le tecniche di controllo per migliorare il regime di sorveglianza. Nel contesto della probation, l'utilizzo della tecnologia è stato introdotto già negli anni Ottanta e Novanta, con il monitoraggio elettronico e le valutazioni computerizzate del rischio di recidiva. Oggi, questi sistemi possono essere gestiti tramite l'intelligenza artificiale. Tuttavia, il documento del PC- CP ha sollevato preoccupazioni riguardo all'uso della cosiddetta polizia predittiva, che si basa su algoritmi e dati per prevedere la recidiva e prendere misure preventive. Il Consiglio ha messo in guardia sull'affidamento di tali decisioni riguardanti la recidiva, sottolineando il rischio di fallimento di queste tecniche.

Allo stesso tempo, il Consiglio ha suggerito che lo sviluppo tecnologico più utile nei sistemi di probation potrebbe essere una forma di monitoraggio elettronico basata sugli smartphone, utilizzati per la localizzazione e come base per applicazioni che consentono la sorveglianza in tempo reale delle azioni dei reclusi. L'intelligenza artificiale potrebbe rilevare comportamenti potenzialmente rischiosi e intraprendere azioni adeguate, come segnalare agli ufficiali di sorveglianza o avviare una conversazione attraverso un chatbot che mira a ridurre la tensione. Questo strumento potrebbe essere particolarmente efficace nel trattamento di problematiche come la tossicodipendenza e la salute mentale. Offrendo un monitoraggio costante e una risposta tempestiva, l'IA può contribuire a individuare segnali di allarme e fornire supporto appropriato ai detenuti che affrontano tali sfide. Per quanto riguarda le carceri, l'uso dell'intelligenza artificiale è principalmente legato alla sicurezza. Le nuove tecnologie di sorveglianza remota consentono un monitoraggio costante e dettagliato dei detenuti, superando il modello del panopticon di Bentham. Si possono citare alcuni esempi, come il monitoraggio della frequenza cardiaca dei detenuti tramite braccialetti e il controllo delle telefonate mediante l'utilizzo di riconoscimento vocale e analisi semantica. Dal documento elaborato dal Consiglio per la cooperazione penologica emerge che alcuni Paesi, come Cina e Corea del Sud, hanno introdotto addirittura ' guardiani robotici', macchine mobili che pattugliano gli ambienti carcerari al fine di alleggerire il carico di lavoro del personale penitenziario. Ad esempio, in una prigione di Hong Kong, ai detenuti viene richiesto di indossare un braccialetto che monitora il loro battito cardiaco, da cui è possibile dedurre alcuni aspetti del loro comportamento. In una prigione cinese, telecamere nascoste e sensori nelle

celle generano rapporti quotidiani su ciascun detenuto. In una prigione nel Regno Unito, telecamere dotate di IA monitorano le persone che vi entrano per rilevare oggetti illeciti, droghe e armi, confrontando i loro movimenti e comportamenti con un concetto di ' sospettosità' incorporato negli algoritmi. Negli Stati Uniti, diversi stati utilizzano l'IA per monitorare le chiamate telefoniche dei detenuti, utilizzando il riconoscimento vocale, l'analisi semantica e il software di apprendimento automatico per creare database di parole cercabili e modelli per rilevare attività illegali.

Ancora più all’avanguardia c’è Singapore. Il complesso carcerario di Changi è considerato da alcuni settori commerciali il vertice della gestione tecnologica avanzata nelle “correzioni”. Ancora più interessante della prigione stessa è l'ambiente stato- corporativo in cui si è sviluppato questo progetto. Opera un'organizzazione commerciale ( HTX) che si definisce un'agenzia scientifica e tecnologica il cui obiettivo è ' trasformare il panorama della sicurezza nazionale e mantenere al sicuro Singapore'. La gamma di tecnologie utilizzate da questa organizzazione, è enorme: ' biometria, minacce chimiche, biologiche, radiologiche, nucleari ed esplosive, sicurezza informatica, intelligenza artificiale, medicina legale, robotica, automazione e sistemi senza pilota, e sorveglianza'.

Questi sviluppi nell'impiego dell'IA all'interno delle carceri sollevano quindi importanti questioni etiche e di privacy. Sebbene queste tecnologie possano contribuire a migliorare la sicurezza e il controllo all'interno degli istituti penitenziari, vi è anche il rischio di una eccessiva invasione della privacy dei detenuti e la possibilità di veri e propri abusi. L'uso diffuso di telecamere e sensori per monitorare ogni aspetto della vita dei detenuti può costituire una violazione dei loro diritti fondamentali e della loro dignità. Inoltre, l'elaborazione e l'analisi dei dati raccolti possono portare a decisioni discriminatorie o pregiudizievoli nei confronti dei detenuti, basate su algoritmi che potrebbero essere intrinsecamente sbagliati o contenere pregiudizi incorporati.

Questo solleva preoccupazioni riguardo all'equità nel trattamento dei detenuti e alla potenziale perpetuazione delle disuguaglianze esistenti nel sistema penale.

È quindi fondamentale trovare un equilibrio tra sicurezza e rispetto dei diritti fondamentali dei detenuti. Ecco perché, già da ora, è importante considerare la necessità di un adeguato quadro normativo e di salvaguardie per regolamentare l'uso delle tecnologie digitali e dell'IA nelle carceri. Prima o poi, anche se l'Italia è un caso particolare perché trova persino difficoltà nell'utilizzo del semplice Skype per le videochiamate, è essenziale elaborare norme per garantire che tali strumenti siano utilizzati in conformità con i principi fondamentali dei diritti umani, inclusa la riservatezza, la non discriminazione e il trattamento umano dei detenuti. Inoltre, emerge sempre dal documento elaborato a Strasburgo, occorre garantire la trasparenza nell'utilizzo di tali tecnologie, al fine di evitare abusi e manipolazioni. In definitiva, l'introduzione delle tecnologie digitali e dell'IA nelle carceri ha il potenziale per trasformare radicalmente il modo in cui vengono gestite e il rapporto tra autorità carcerarie e detenuti. Tuttavia, è fondamentale affrontare in modo critico le implicazioni etiche, sociali e giuridiche di tali sviluppi, al fine di garantire che siano utilizzati in modo responsabile e rispettoso dei diritti umani.