News

Il Regno Unito come Minority Report: un algoritmo per prevedere gli omicidi

Condividi l'articolo

Un progetto del governo britannico, paragonato al sistema “pre-crimine” del film di fantascienza Minority Report, sta sollevando un’ondata di preoccupazioni per la sua ambizione di prevedere omicidi attraverso un algoritmo che analizza dati personali sensibili, come salute mentale, dipendenze ed etnia. Svelato dal gruppo per le libertà civili Statewatch, il programma del Ministero della Giustizia (MoJ), inizialmente chiamato “Progetto Previsione Omicidi”, utilizza i dati di 100.000-500.000 persone – inclusi vittime e testimoni di reati – per identificare individui ritenuti a rischio di commettere omicidi.

Lanciato sotto l’ex Primo Ministro Rishi Sunak, il progetto è stato accusato di favorire profilazione razziale, minacciare innocenti e erodere le libertà fondamentali. Sebbene il MoJ lo difenda come uno strumento di ricerca, esperti e attivisti avvertono che potrebbe trasformare il Regno Unito in uno stato di sorveglianza distopico.

Un algoritmo che scruta nel futuro

Il progetto, descritto in documenti ottenuti da Statewatch tramite richieste di accesso alle informazioni (FOIA), rappresenta un’espansione senza precedenti dell’analisi predittiva governativa. Il sistema aggrega enormi quantità di dati da fonti diverse: archivi di polizia, servizi di libertà vigilata, cartelle cliniche di salute mentale e persino informazioni su vittime di violenza domestica o problemi di tutela dei minori. Tra i dati raccolti spiccano dettagli sensibili come etnia, rischio di suicidio, stato di disabilità e interazioni pregresse con le forze dell’ordine, anche per persone mai condannate.

L’obiettivo dichiarato è ambizioso: prevenire gli omicidi individuando potenziali colpevoli prima che agiscano. Ma il metodo solleva interrogativi etici e legali. “Il governo sta costruendo un sistema che pretende di sapere chi diventerà un assassino basandosi su vulnerabilità personali”, ha dichiarato Sofia Lyall, ricercatrice di Statewatch. “Non è sicurezza pubblica: è un abuso di potere mascherato da progresso tecnologico.”

Libertà a rischio: le critiche al progetto

Il progetto ha scatenato un coro di proteste da parte di organizzazioni per i diritti civili. Big Brother Watch, un gruppo per la tutela della privacy, ne ha chiesto l’immediata cancellazione, definendolo una “trama da film horror di fantascienza”. La direttrice ad interim Rebecca Vincent ha avvertito che errori algoritmici potrebbero portare a una persecuzione ingiusta di comunità già emarginate, come minoranze etniche o persone con problemi di salute mentale. “Prevedere crimini è un’illusione pericolosa”, ha detto. “Criminalizzare qualcuno per un rischio ipotetico è un attacco ai principi di giustizia.”

Le critiche si concentrano su tre punti principali:

  1. Profilazione razziale: Algoritmi addestrati su dati storici di polizia, spesso viziati da pregiudizi sistemici, tendono a segnalare in modo sproporzionato neri, latini e gruppi economicamente svantaggiati come “ad alto rischio”. Studi sugli strumenti predittivi negli Stati Uniti, come CompStat, confermano questa tendenza.
  2. Dati sensibili: L’uso di informazioni sanitarie, come il rischio di suicidio, trasforma vulnerabilità personali in potenziali indicatori criminali, un approccio che molti considerano invasivo e immorale.
  3. Mancanza di trasparenza: Il MoJ ha inizialmente chiamato il programma “Previsione Omicidi”, ma l’ha rinominato “Valutazione del Rischio” dopo le critiche, un cambiamento percepito come un tentativo di sfuggire al controllo pubblico.
Leggi anche:

Lezioni dal passato: il fallimento della polizia predittiva

Il progetto britannico non è un unicum: si ispira agli esperimenti di polizia predittiva condotti negli Stati Uniti nell’ultimo decennio, con risultati spesso disastrosi. A Los Angeles, algoritmi “pre-crimine” hanno portato a falsi arresti e sorveglianza eccessiva di comunità vulnerabili. A Seattle, simili strumenti sono stati abbandonati dopo cause legali che ne hanno dimostrato l’inefficacia e i pregiudizi. Un rapporto del National Institute of Justice del 2022 ha rilevato che i sistemi predittivi non sono più accurati di controlli casuali, mettendo in dubbio la loro utilità.

Nel Regno Unito, il rischio è che il razzismo istituzionale già presente nelle forze dell’ordine venga amplificato dall’automazione. “Prendi un sistema corrotto, lo alimenti con dati distorti e lo chiami innovazione”, ha commentato Lyall. “Il risultato è una macchina che perpetua disuguaglianze, non le risolve.”

Tra ricerca e sorveglianza: le ambiguità del MoJ

Il Ministero della Giustizia difende il progetto come un’iniziativa di ricerca pura, limitata ai dati di “criminali condannati” e “strettamente regolamentata”. Tuttavia, i documenti di Statewatch rivelano che il sistema include informazioni su vittime e testimoni, sollevando dubbi sulla sua reale portata. Ancora più preoccupante è il riferimento a una futura fase di “operatività”, che potrebbe trasformare lo strumento in un sistema attivo di sorveglianza preventiva.

Critici come Vincent temono che il progetto apra la porta a un futuro in cui lo Stato punisce le persone per rischi percepiti, non per crimini commessi. “Valutazione del rischio è solo un eufemismo per controllo preventivo”, ha detto. “Una volta che inizi a giocare con scenari da fantascienza, i danni nel mondo reale sono inevitabili.”

Un equilibrio impossibile?

Il progetto britannico si inserisce in un contesto globale in cui i governi cercano di sfruttare l’intelligenza artificiale per prevenire il crimine, spesso a scapito delle libertà individuali. Negli Stati Uniti, iniziative simili di “rilevamento pre-crimine” basate sull’IA stanno sollevando preoccupazioni analoghe, con dati sanitari e comportamentali usati per etichettare individui come potenziali minacce. L’uso di informazioni sensibili, come lo stato di salute mentale, aggiunge un ulteriore livello di inquietudine: vulnerabilità personali diventano strumenti di sospetto.

La mancanza di trasparenza non aiuta. L’implementazione del progetto, tenuta nascosta per mesi, e il cambio di nome suggeriscono un tentativo di evitare il dibattito pubblico. Come ha sottolineato Statewatch, “un sistema che opera nell’ombra non può essere considerato regolamentato, per quanto il governo lo affermi”.

Un bivio per la democrazia digitale

L’incursione del Regno Unito nella previsione degli omicidi segna un precedente pericoloso, rischiando di normalizzare una sorveglianza distopica sotto la bandiera della sicurezza. Se prevenire il crimine è un obiettivo legittimo, affidarsi ad algoritmi imperfetti per colpire gruppi vulnerabili senza un giusto processo è una deriva etica e legale. Le esperienze fallimentari degli Stati Uniti dimostrano che la promessa della polizia predittiva è spesso una chimera, con costi sociali che superano i benefici.

Il mondo osserva il Regno Unito, chiedendosi se le democrazie sapranno resistere alla tentazione di un controllo preventivo o se la visione di Minority Report diventerà realtà. Per ora, la protesta di gruppi come Big Brother Watch e Statewatch rappresenta una speranza: la difesa dell’innocenza fino a prova contraria non è solo un principio legale, ma un baluardo contro un futuro in cui gli algoritmi decidono il nostro destino.

Fonte

Ti potrebbe interessare:
Segui guruhitech su:

Esprimi il tuo parere!

Che ne pensi di questa notizia? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.

Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo guruhitech@yahoo.com.


Scopri di più da GuruHiTech

Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.

0 0 votes
Article Rating
Subscribe
Notificami
guest


0 Commenti
Newest
Oldest Most Voted
Inline Feedbacks
View all comments