La polizia ha utilizzato l’intelligenza artificiale come scorciatoia nelle indagini, e ha mandato una persona innocente in prigione.
L’utilizzo di sistemi di riconoscimento facciale basati sull’intelligenza artificiale torna al centro del dibattito dopo il caso di una donna del Tennessee rimasta in carcere per oltre cinque mesi a seguito di un errore di identificazione. La vicenda evidenzia criticità operative e limiti ancora presenti nell’impiego di queste tecnologie in ambito investigativo.
L’arresto e l’estradizione: una procedura avviata su basi errate
La protagonista della vicenda, Angela Lipps, è stata arrestata nel luglio 2025 dopo l’emissione di un mandato firmato da un giudice del North Dakota. Le accuse riguardavano reati come furto aggravato e uso non autorizzato di dati personali, legati a episodi avvenuti in uno stato in cui la donna ha sempre sostenuto di non essersi mai recata.

Cosa ha deciso di fare la polizia (www.webnews.it)
Dopo l’arresto, è stata trasferita dal Tennessee al North Dakota, in una procedura di estradizione che, secondo la difesa, sarebbe stata avviata senza verifiche adeguate. Gli avvocati hanno contestato l’assenza di accertamenti preliminari, in particolare la mancata verifica della presenza fisica della donna nei luoghi in cui si sarebbero verificati i reati.
Il ruolo del riconoscimento facciale nell’identificazione
Al centro del caso c’è l’utilizzo di un sistema di riconoscimento facciale basato su intelligenza artificiale, impiegato da un dipartimento di polizia locale. L’identificazione sarebbe avvenuta a partire dall’immagine associata a un documento falso utilizzato in un’indagine separata.
Secondo quanto dichiarato dal capo della polizia di Fargo, Dave Zibolski, il sistema utilizzato non apparteneva direttamente al dipartimento locale, ma a quello di West Fargo, che aveva segnalato Lipps come possibile sospetta. L’errore sarebbe derivato da un passaggio incompleto delle informazioni, con i detective che avrebbero ritenuto di disporre anche di immagini di sorveglianza non effettivamente trasmesse.
Critiche alla gestione dell’indagine
La difesa ha sottolineato come l’utilizzo del riconoscimento facciale sia stato adottato come scorciatoia investigativa, senza il supporto di verifiche indipendenti. Secondo gli avvocati, la mancanza di controlli di base ha portato a una procedura che ha coinvolto una persona estranea ai fatti.
La vicenda evidenzia una criticità già segnalata da diversi osservatori: l’affidamento a strumenti tecnologici senza un adeguato riscontro umano può amplificare gli errori invece di ridurli.
Un problema più ampio: limiti e bias dei sistemi di IA
Il caso si inserisce in un contesto più ampio, in cui l’adozione di tecnologie basate su intelligenza artificiale da parte delle forze dell’ordine è in crescita, ma non priva di criticità. Un rapporto del Brennan Center for Justice evidenzia come questi sistemi possano essere influenzati da imprecisioni e pregiudizi nei dati, oltre che da limiti nella capacità di interpretare correttamente le informazioni raccolte.
Tra i problemi segnalati vi sono errori nei sistemi di monitoraggio, segnalazioni non corrette e difficoltà nell’analisi di immagini in contesti complessi. In particolare, il riconoscimento facciale è stato più volte criticato per la sua affidabilità variabile a seconda delle condizioni di utilizzo.
Casi analoghi e implicazioni operative
La vicenda di Lipps non è isolata. Episodi simili hanno riguardato anche altri ambiti, come il caso di uno studente del Maryland segnalato erroneamente da un sistema di sicurezza automatizzato per un oggetto scambiato per un’arma.
Questi episodi evidenziano come l’automazione dei processi decisionali, se non accompagnata da verifiche umane, possa generare conseguenze operative rilevanti, tra cui interventi ingiustificati e restrizioni della libertà personale.
La chiusura del caso e le possibili conseguenze legali
Nel dicembre 2025, le autorità del North Dakota hanno deciso di archiviare le accuse senza pregiudizio, consentendo ulteriori indagini. La donna è stata rilasciata alla vigilia di Natale, dopo oltre cinque mesi di detenzione.
I legali stanno valutando un’azione per violazione dei diritti civili, anche se al momento non è stata presentata una causa formale. Resta aperta la questione relativa ai tempi e alle modalità con cui le informazioni sull’arresto sono state condivise tra le diverse autorità coinvolte.
Il caso evidenzia una questione centrale nel rapporto tra tecnologia e giustizia: l’affidabilità degli strumenti di identificazione automatica e il ruolo del controllo umano. L’intelligenza artificiale rappresenta un supporto sempre più diffuso nelle indagini, ma il suo utilizzo richiede procedure rigorose e verifiche indipendenti.
L’episodio conferma che, in assenza di questi elementi, il rischio non riguarda solo l’errore tecnico, ma le conseguenze concrete sulle persone coinvolte. In questo equilibrio tra innovazione e responsabilità si gioca una parte rilevante dell’evoluzione futura dei sistemi di sicurezza e investigazione.