A Goodyear, in Arizona, la polizia ha adottato ChatGPT per trasformare i tradizionali schizzi a matita in immagini fotorealistiche dei sospettati. L'obiettivo dichiarato? Non l'accuratezza, ma l'engagement sui social media. Un approccio che solleva interrogativi sulla validità e l'etica di utilizzare l'intelligenza artificiale in contesti così critici. Nonostante l'aumento delle segnalazioni online, nessun arresto è stato effettuato grazie a queste immagini, evidenziando una pericolosa illusione di efficacia.
L'uso di intelligenza artificiale generativa in polizia si inserisce in un trend preoccupante di adozione acritica delle nuove tecnologie, spesso senza una comprensione adeguata dei rischi. La tecnologia alla base di ChatGPT, infatti, è affetta da bias intrinseci, amplificando pregiudizi già presenti nei dati di addestramento. Questo fenomeno, noto come "algorithmic bias", rischia di compromettere la giustizia e di erodere la fiducia pubblica, portando a potenziali ingiustizie.
La questione dell'accountability resta aperta: se un'immagine errata porta a un arresto ingiusto, di chi è la responsabilità? Questa ambiguità sottolinea la necessità di policy chiare e regolamentazioni rigorose nell'uso dell'intelligenza artificiale in ambito giudiziario. Senza un quadro normativo adeguato, la giustizia rischia di trasformarsi in un teatro di sicurezza, dove l'apparenza di modernità e efficienza prevale sul rigore investigativo e sull'equità.
In questa Puntata
La polizia usa ChatGPT per creare identikit fotorealistici. È giustizia o solo un pericoloso spettacolo di tecnologia?