Clearview AI torna sotto i riflettori, questa volta sul campo di battaglia ucraino, dove il governo ha deciso di utilizzare la tecnologia di riconoscimento facciale per identificare i soldati russi. Questo approccio solleva interrogativi cruciali sulla privacy e sull'accuratezza delle tecnologie di riconoscimento facciale, specialmente in un contesto di guerra. Mentre l'Ucraina adotta questi strumenti per scopi militari, la Russia utilizza i dati biometrici raccolti dai sistemi di pagamento facciale nella metropolitana per monitorare i cittadini, dimostrando come le emergenze possano abbassare le barriere democratiche all'uso dei dati personali.
La questione centrale è la vulnerabilità dei database biometrici. Clearview AI, ad esempio, ha costruito il suo database rastrellando immagini dai social network come Vkontakte, spesso senza il consenso degli utenti. Questo solleva preoccupazioni sulla precisione e sull'affidabilità delle associazioni tra volti e identità, con il rischio di falsi positivi che potrebbero portare a conseguenze gravi, come identificare erroneamente un civile come un soldato nemico. La situazione diventa ancora più complessa considerando che la tecnologia di riconoscimento facciale è ancora immatura e soggetta a errori significativi.
In questo contesto, la privacy emerge come un diritto fondamentale da proteggere, anche in tempi di crisi. La creazione di database biometrici e il loro utilizzo in situazioni di emergenza mostrano quanto sia fragile la democrazia e quanto facilmente le libertà personali possano essere compromesse. La storia ci insegna che i dati raccolti per scopi apparentemente innocui possono essere sfruttati in modi imprevisti, e l'uso di tecnologie come Clearview AI in guerra sottolinea l'importanza di una regolamentazione rigorosa e di una valutazione d'impatto che consideri le potenziali conseguenze future.
In questa Puntata
Clearview AI in guerra: sicurezza o minaccia per la privacy globale?