885. Perché le AI vedono scimmie invece di persone di colore?

Ciao Internet su Ciao Internet con Matteo Flora del 08.09.2021

Copertina del video: 885. Perché le AI vedono scimmie invece di persone di colore?

In questa Puntata

Facebook è razzista o è solo un problema di intelligenza artificiale? Scopri la verità dietro l'ultimo scandalo.
Un nuovo scandalo ha investito Facebook quando un video che documentava le angherie subite da una persona di colore ha attivato un suggerimento automatico che invitava a guardare contenuti sui primati. Questo errore, che ha suscitato indignazione e immediate scuse da parte del colosso social, non è un caso isolato: simili incidenti sono già accaduti con Google, Microsoft e Amazon. La questione centrale non è se l'intelligenza artificiale sia razzista, ma piuttosto come i bias intrinseci nei dati di addestramento possano portare a risultati discriminatori.

Il problema risiede nei corpus utilizzati per il training delle reti neurali. Questi dataset spesso contengono una predominanza di immagini di persone caucasiche, portando i modelli a sviluppare una visione distorta che riflette inconsapevolmente pregiudizi esistenti. Un'intelligenza artificiale, come un bambino che impara dagli esempi, ripete gli errori umani se non è adeguatamente istruita. La responsabilità ricade su chi seleziona e prepara questi corpus, che devono essere attentamente curati per evitare di perpetuare stereotipi e discriminazioni.

L'episodio di Otabenga, un pigmeo esposto come un "anello mancante" all'Esposizione Universale del 1904, serve da monito storico. La percezione errata di Otabenga come non umano è simile a come i sistemi di intelligenza artificiale falliscono oggi nel riconoscere correttamente la diversità umana. Questo sottolinea l'importanza di un approccio etico e ponderato nello sviluppo tecnologico, che consideri l'impatto a lungo termine delle scelte fatte durante il processo di addestramento dei modelli.