IDENTIKIT CON LA AI: la polizia usa ChatGPT per i ricercati #1504

Ciao Internet su Ciao Internet con Matteo Flora

Copertina del video: IDENTIKIT CON LA AI: la polizia usa ChatGPT per i ricercati #1504

In questa Puntata

La polizia di Goodyear, Arizona, utilizza ChatGPT per generare immagini fotorealistiche dei ricercati, puntando più sull'engagement social che sull'accuratezza investigativa. Questo approccio solleva preoccupazioni sui bias intrinseci dell'intelligenza artificiale e sull'erosione della fiducia pubblica, con il rischio di ingiustizie basate su dati fallaci.
A Goodyear, in Arizona, le forze dell'ordine hanno iniziato a utilizzare ChatGPT per trasformare schizzi a matita in immagini fotorealistiche dei sospettati. L'obiettivo dichiarato è quello di migliorare l'engagement sui social media, dato che i tradizionali disegni non catturano più l'attenzione del pubblico, specialmente dei più giovani. Tuttavia, questa scelta si rivela problematica perché non ha portato a nessun arresto concreto. L'adozione di tecnologie come queste da parte della polizia, senza una comprensione adeguata dei loro limiti e rischi, è preoccupante.

Il problema principale è che si combinano due elementi inaffidabili: un identikit basato sulla memoria, già di per sé impreciso, e un'intelligenza artificiale che amplifica i bias esistenti nei dati di addestramento. Questo porta a risultati distorti e potenzialmente dannosi, come evidenziato da numerosi studi che dimostrano come questi sistemi siano meno efficaci nel rappresentare correttamente le etnie diverse. Nonostante la polizia neghi che si tratti di una finzione, le immagini generate non sono altro che una sintesi di volti basata su un database di immagini, creando un'illusione di accuratezza che può indurre in errore.

L'approccio di Goodyear è emblematico di un trend più ampio di fallimenti nell'uso dell'intelligenza artificiale nelle forze dell'ordine, simile ai problemi riscontrati con il riconoscimento facciale in diverse città americane. L'assenza di regolamentazione e standard adeguati rende l'uso di queste tecnologie un vero e proprio Far West, con gravi implicazioni per i diritti dei cittadini e la giustizia.

La diffusione di immagini fotorealistiche di sospettati, che sono in realtà collage statistici, può danneggiare gravemente la reputazione di persone innocenti e alimentare un vigilantismo basato su dati inaffidabili. La giustificazione di aumentare l'engagement sui social riflette una preoccupante deriva culturale, dove le metriche di vanità superano il rigore investigativo. Questo fenomeno è un esempio di "security theater", dove l'apparenza di modernità e efficienza nasconde una realtà dannosa.

È fondamentale riconoscere che la tecnologia non è una soluzione magica e che la sua applicazione in contesti critici come la giustizia richiede una comprensione approfondita dei suoi limiti, bias e implicazioni etiche. Senza una policy chiara e una responsabilità definita, il rischio di ingiustizie è elevato. Questo episodio sottolinea l'importanza di una regolamentazione rigorosa e di un approccio più consapevole all'uso dell'intelligenza artificiale nelle indagini penali.