Norman, l'intelligenza artificiale dell'MIT, ha sollevato un polverone mediatico per la sua capacità di vedere la violenza ovunque, persino nelle macchie di Rorschach. Questo comportamento non è il frutto di una mente malvagia, ma piuttosto il risultato di un addestramento basato su dati violenti. L'esperimento dimostra come un'IA, se alimentata con input distorti, restituisca risposte altrettanto distorte, un principio riassunto nel detto "garbage in, garbage out".
Il problema fondamentale risiede nei dati che forniamo alle intelligenze artificiali. La qualità delle risposte di un'IA è direttamente proporzionale alla qualità dei dati di ingresso. Se questi dati sono affetti da bias, come pregiudizi razziali o di genere, l'algoritmo li incorporerà nelle sue decisioni. Questo fenomeno solleva preoccupazioni etiche, soprattutto in settori come la selezione del personale, dove un bias nei dati può perpetuare discriminazioni sistemiche.
L'esperimento di Norman sottolinea la necessità di una maggiore attenzione nella selezione e nel bilanciamento dei dati utilizzati per addestrare le IA. Senza un intervento mirato, continueremo a vedere algoritmi che riflettono e amplificano i nostri pregiudizi, piuttosto che superarli. È essenziale che chi sviluppa queste tecnologie consideri l'impatto dei dati di addestramento e lavori per eliminare i bias che possono portare a risultati dannosi.
In questa Puntata
Norman, l'IA deviata dell'MIT, vede solo violenza: è colpa dei dati che le diamo? Scopri come i pregiudizi umani influenzano le macchine.