Perché le AI vedono scimmie invece di persone di colore?
08.09.2021
L'episodio esplora il problema dei bias nei sistemi di intelligenza artificiale, prendendo spunto da un recente incidente su Facebook dove un algoritmo ha erroneamente associato un video di una persona di colore a contenuti sui primati. Viene analizzato come questi errori derivino spesso da dataset sbilanciati piuttosto che da intenti razzisti, sottolineando l'importanza di una selezione attenta dei dati di addestramento per evitare pregiudizi.