Le Foto dei Bambini Brasiliani Usate per Addestrare le AI. E non è un bene.

Ciao Internet su Ciao Internet con Matteo Flora del 02.07.2024

Copertina del video: Le Foto dei Bambini Brasiliani Usate per Addestrare le AI. E non è un bene.

I contenuti dell'Episodio #1278

In questo episodio di Ciao Internet affrontiamo un tema estremamente delicato e allarmante: l'utilizzo non consensuale delle fotografie di bambini brasiliani per alimentare i database di addestramento dell'intelligenza artificiale. Basandomi su un report di Human Rights Watch, esploro come le immagini personali vengano rubate da internet e utilizzate senza alcuna consapevolezza o consenso da parte delle famiglie coinvolte, sollevando gravi preoccupazioni sulla sicurezza e privacy.
Ciao Internet, sono Matteo Flora e oggi voglio parlarvi di un argomento che mi fa davvero bollire il sangue: l'uso delle fotografie di bambini brasiliani senza consenso per addestrare gli strumenti di intelligenza artificiale. È un tema che potrebbe sembrare lontano, ma che tocca corde molto sensibili legate alla privacy e alla sicurezza. Vi spiego perché è così importante.

Secondo un report di Human Rights Watch, le immagini personali di bambini provenienti da dieci stati brasiliani – tra cui Sao Paolo e Rio de Janeiro – sono state trovate in un dataset utilizzato per l'addestramento di intelligenze artificiali. Questo dataset, chiamato Lion 5B, è una collezione immensa di immagini – poco meno di 6 miliardi – che vengono usate per insegnare agli algoritmi come riconoscere e replicare immagini. Tuttavia, questi dati non sono solo immagini innocue: contengono informazioni identificative come nomi, luoghi e date, il che rappresenta un rischio enorme.

Human Rights Watch ha scoperto che solo una minuscola frazione di queste immagini è stata analizzata, il che significa che il problema potrebbe essere molto più vasto di quanto si pensi. Gli algoritmi di intelligenza artificiale, come quelli addestrati su dataset come Lion 5B, sono noti per poter "vomitare" le informazioni private raccolte, come è successo nella causa tra OpenAI e il New York Times. Le immagini di addestramento, quindi, possono riemergere, inclusi dati personali e documenti medici.

La violazione della privacy dei bambini attraverso l'uso non consensuale delle loro immagini è un problema su più fronti. C'è il rischio immediato che queste immagini vengano manipolate per creare deepfake o utilizzate in pratiche di sfruttamento sessuale. Ci sono già segnalazioni di deepfake sessuali con foto di ragazze brasiliane. Inoltre, la diffusione di queste immagini online e nei dataset può causare danni futuri alle persone coinvolte.

Questo scenario mette in luce anche l'insufficienza delle attuali normative sulla protezione dei dati, soprattutto quando si tratta dei dati utilizzati per addestrare le intelligenze artificiali. Le aziende spesso sfruttano questi dati senza consenso, un problema che abbiamo già affrontato e di cui parleremo ancora. È fondamentale riflettere su come stiamo gestendo il bilanciamento tra innovazione e protezione dei dati, in un mondo in cui le intelligenze artificiali stanno esplodendo.

Infine, bisogna essere consapevoli e attenti a ciò che condividiamo online, perché la sicurezza non è sempre garantita. Vi invito a riflettere su questo tema e a condividere le vostre opinioni. Grazie per avermi ascoltato, vi ricordo di iscrivervi al canale per rimanere aggiornati e raggiungere insieme il traguardo dei 100.000 iscritti. Alla prossima!