In Brasile, un allarmante rapporto di Human Rights Watch ha rivelato che le immagini di bambini, raccolte senza consenso, sono state utilizzate per addestrare modelli di intelligenza artificiale. Queste foto, provenienti da dieci stati brasiliani, tra cui Sao Paolo e Rio de Janeiro, sono state trovate nel controverso dataset Lion 5B, già noto per contenere materiale pedopornografico. Lion 5B è una collezione di quasi 6 miliardi di immagini utilizzate per insegnare agli algoritmi di IA a riconoscere e generare immagini, spesso includendo metadati sensibili come nomi e luoghi.
Il rischio di violazione della privacy è altissimo, con la possibilità che le immagini possano essere manipolate per creare deepfake o essere riutilizzate in contesti inappropriati. La presenza di queste immagini online e nei dataset potrebbe avere ripercussioni durature sulla vita dei bambini coinvolti, esponendoli a potenziali abusi e minacce alla loro sicurezza. Inoltre, la mancanza di normative adeguate sulla protezione dei dati solleva gravi preoccupazioni, evidenziando l'urgenza di rivedere le leggi esistenti per tutelare i soggetti più vulnerabili.
La questione solleva interrogativi profondi su come bilanciare innovazione e privacy in un mondo sempre più dominato dall'intelligenza artificiale. Paesi come il Brasile devono affrontare la sfida di proteggere i loro cittadini contro l'uso indiscriminato dei dati da parte di grandi aziende tecnologiche, interessate più alla quantità di dati che alla loro natura. La consapevolezza e l'attenzione su ciò che condividiamo online diventano quindi cruciali per proteggere le future generazioni.
In questa Puntata
Le foto dei tuoi figli potrebbero già essere nei database dell'IA. Sei sicuro di sapere dove finiscono?