C'è della P*DOFILIA nei dati che addestrano le A #1201

Ciao Internet su Ciao Internet con Matteo Flora del 21.12.2023

Copertina del video: C'è della P*DOFILIA nei dati che addestrano le A #1201

In questa Puntata

Le intelligenze artificiali generative possono creare immagini pedopornografiche a causa di dataset di addestramento che includono contenuti illegali. La presenza di tali materiali nei set di dati pone gravi problemi legali e morali, richiedendo una supervisione rigorosa e una regolamentazione più severa per evitare la proliferazione di contenuti dannosi e proteggere la privacy e i diritti degli individui.
In questo episodio, mi sono concentrato sul problema della pedopornografia generata dalle intelligenze artificiali, un tema complesso e delicato che richiede attenzione e responsabilità. I modelli di intelligenza artificiale che generano immagini sono addestrati su enormi dataset, spesso raccolti senza autorizzazione da internet, che possono contenere immagini pedopornografiche. Un esempio significativo è il dataset LION 5B, che comprende 5 miliardi di link a immagini e ha sollevato preoccupazioni dopo che uno studio di Stanford ha identificato migliaia di contenuti sospetti al suo interno.

La difficoltà di gestire e verificare questi contenuti è accentuata dalle restrizioni legali sulla detenzione di materiale pedopornografico, che in molti paesi, come l'Italia, è un reato anche se detenuto a scopo di ricerca. Le tecnologie come le firme digitali di hash, utilizzate per identificare tali contenuti senza detenerli fisicamente, sono fondamentali per affrontare questo problema. Tuttavia, la mancanza di trasparenza e la tendenza a ignorare i rischi in nome dell'innovazione rappresentano un pericolo significativo.

La situazione è ulteriormente complicata dalla presenza di materiali protetti da copyright e dati personali nei dataset, che solleva questioni di privacy e diritti d'autore. Le aziende e le istituzioni devono assumersi la responsabilità di monitorare e pulire i loro dataset per prevenire l'uso improprio e proteggere le vittime di pornografia non consensuale.

Il problema non è solo tecnico, ma anche etico e legale. È essenziale che la comunità scientifica e le autorità regolatorie collaborino per stabilire standard chiari e garantire che le intelligenze artificiali siano addestrate in modo sicuro e rispettoso dei diritti umani. Senza una supervisione adeguata, rischiamo di perpetuare il dolore delle vittime e di creare un ambiente digitale pericoloso e incontrollato.