Perché le AI vedono scimmie invece di persone di colore?

Ciao Internet su Ciao Internet con Matteo Flora del 08.09.2021

Copertina del video: 885. Perché le AI vedono scimmie invece di persone di colore?

I contenuti dell'Episodio #885

In questo episodio di Ciao Internet, esploro il caso recente in cui l'intelligenza artificiale di Facebook ha commesso un errore associando un video di una persona di colore a filmati di primati. Partendo dalla storia di Otabenga, un uomo del Congo esposto come "pigmeo" nel 1904, analizzo come i pregiudizi storici e i bias nei dati di addestramento possono influenzare le decisioni delle IA, mettendo in luce l'importanza di una selezione attenta dei corpus utilizzati per l'addestramento.
In questo episodio, voglio parlarvi di un argomento delicato, ma estremamente importante, che riguarda i pregiudizi nei sistemi di intelligenza artificiale. Parto dalla storia di Otabenga, un uomo del Congo, che nel 1904 fu esposto all'Esposizione Universale di San Luis come "pigmeo", considerato l'anello mancante tra la scimmia e l'uomo. Questo episodio storico rappresenta un esempio di come i pregiudizi culturali e la mancanza di comprensione possano portare a errori di giudizio gravissimi.

Collegandomi a questo, discuto un recente scandalo che ha coinvolto Facebook, dove un video che mostrava le angherie subite da una persona di colore è stato associato, tramite un suggerimento automatico, ad altri filmati di primati. Questo errore ha suscitato grande indignazione e immediati tentativi di scuse da parte di Facebook. Tuttavia, il punto su cui voglio focalizzare l'attenzione non è tanto l'errore in sé, quanto piuttosto le cause che possono averlo provocato.

È importante comprendere che l'errore non è imputabile direttamente a Facebook o ai programmatori che hanno addestrato i sistemi di IA. Piuttosto, deriva da un problema di "training bias", ovvero da come i dati utilizzati per addestrare l'intelligenza artificiale influenzano le sue decisioni. Spesso i corpus di immagini utilizzati per il riconoscimento facciale sono prevalentemente composti da immagini di persone caucasiche, il che può portare a risultati distorti quando l'IA si confronta con volti di diverse etnie.

Questo non è un problema nuovo. In passato, anche Google, Microsoft e Amazon hanno commesso errori simili, dimostrando che il bias nei dati è un problema sistemico che deve essere affrontato. Non si tratta di razzismo intenzionale, ma di un pregiudizio insito nei dati che rispecchia le carenze storiche e culturali della nostra società.

Per evitare questi errori, è fondamentale che chi sviluppa queste tecnologie presti grande attenzione alla composizione dei dataset utilizzati per l'addestramento. Bisogna essere consapevoli che le decisioni prese nella selezione dei dati possono avere enormi ripercussioni, influenzando il comportamento delle IA in modi che possono perpetuare stereotipi e discriminazioni.

Come programmatori e sviluppatori, abbiamo la responsabilità morale di fare scelte ponderate e di lavorare costantemente per eliminare i pregiudizi dai sistemi che creiamo. Solo così possiamo sperare di costruire un futuro tecnologico che sia veramente equo e inclusivo per tutti. Grazie per avermi seguito in questa riflessione su Ciao Internet.