Inizio raccontando la storia di Otabenga, un uomo del Congo esposto come "pigmeo" all'Esposizione Universale di St. Louis nel 1904, per introdurre un tema ricorrente di discriminazione e pregiudizio che si manifesta anche nelle tecnologie moderne. Di recente, su Facebook, un algoritmo ha suggerito di vedere contenuti sui primati dopo un video che mostrava una persona di colore, scatenando polemiche e scuse immediate dalla piattaforma.
Per comprendere questo errore, è essenziale analizzare come le intelligenze artificiali percepiscono la realtà. Gli algoritmi di riconoscimento visivo vengono addestrati su dataset, o corpus, che contengono esempi di ciò che devono riconoscere. Se questi corpus sono sbilanciati, ad esempio contenendo principalmente immagini di persone caucasiche, l'algoritmo può sviluppare un bias. Questo non perché l'algoritmo sia razzista, ma perché è stato addestrato su dati non rappresentativi della diversità umana.
Nel caso di Facebook, come in precedenti incidenti con Google, Microsoft e Amazon, il problema risiede nei dati di addestramento. Questi dataset spesso non includono una rappresentazione equilibrata di diverse etnie, portando a errori di classificazione. È fondamentale che chi sviluppa e addestra questi sistemi sia consapevole di questi rischi e lavori per mitigare i pregiudizi nei dati.
Concludo sottolineando che, sebbene la tecnologia possa riflettere pregiudizi esistenti, è responsabilità di chi la sviluppa garantire che i corpus di addestramento siano il più possibile inclusivi e rappresentativi. Questo richiede uno sforzo consapevole e continuo per evitare che i sistemi di intelligenza artificiale perpetuino discriminazioni.
In questa Puntata
L'episodio esplora il problema dei bias nei sistemi di intelligenza artificiale, prendendo spunto da un recente incidente su Facebook dove un algoritmo ha erroneamente associato un video di una persona di colore a contenuti sui primati. Viene analizzato come questi errori derivino spesso da dataset sbilanciati piuttosto che da intenti razzisti, sottolineando l'importanza di una selezione attenta dei dati di addestramento per evitare pregiudizi.