Un nuovo scandalo ha investito Facebook quando un video che documentava le angherie subite da una persona di colore ha attivato un suggerimento automatico che invitava a guardare contenuti sui primati. Questo errore, che ha suscitato indignazione e immediate scuse da parte del colosso social, non è un caso isolato: simili incidenti sono già accaduti con Google, Microsoft e Amazon. La questione centrale non è se l'intelligenza artificiale sia razzista, ma piuttosto come i bias intrinseci nei dati di addestramento possano portare a risultati discriminatori.
Il problema risiede nei corpus utilizzati per il training delle reti neurali. Questi dataset spesso contengono una predominanza di immagini di persone caucasiche, portando i modelli a sviluppare una visione distorta che riflette inconsapevolmente pregiudizi esistenti. Un'intelligenza artificiale, come un bambino che impara dagli esempi, ripete gli errori umani se non è adeguatamente istruita. La responsabilità ricade su chi seleziona e prepara questi corpus, che devono essere attentamente curati per evitare di perpetuare stereotipi e discriminazioni.
L'episodio di Otabenga, un pigmeo esposto come un "anello mancante" all'Esposizione Universale del 1904, serve da monito storico. La percezione errata di Otabenga come non umano è simile a come i sistemi di intelligenza artificiale falliscono oggi nel riconoscere correttamente la diversità umana. Questo sottolinea l'importanza di un approccio etico e ponderato nello sviluppo tecnologico, che consideri l'impatto a lungo termine delle scelte fatte durante il processo di addestramento dei modelli.
In questa Puntata
Facebook è razzista o è solo un problema di intelligenza artificiale? Scopri la verità dietro l'ultimo scandalo.