388. Una intelligenza artificiale "psicopatica" ci ucciderà tutti?

Ciao Internet su Ciao Internet con Matteo Flora del 08.06.2018

Copertina del video: 388. Una intelligenza artificiale "psicopatica" ci ucciderà tutti?

In questa Puntata

Norman, un'intelligenza artificiale sviluppata dall'MIT, ha sollevato preoccupazioni dopo aver interpretato in modo violento delle macchie di Rorschach. Questo comportamento è il risultato di un addestramento basato su dati violenti, evidenziando come il pregiudizio nei dati di input influenzi le risposte delle AI. La qualità dei dati è cruciale per ottenere risultati affidabili e privi di bias.
Recentemente, Norman, un'intelligenza artificiale sviluppata dall'MIT, ha fatto notizia per le sue interpretazioni estreme delle macchie di Rorschach. Questo esperimento ha messo in luce un aspetto critico dell'intelligenza artificiale: la sua dipendenza dai dati di addestramento. Norman è stato addestrato con dati violenti, e di conseguenza, interpreta il mondo attraverso quella lente distorta. È un esempio classico del principio "garbage in, garbage out", dove l'output di un algoritmo è direttamente influenzato dalla qualità dei dati di input.

Questo fenomeno mi ricorda un aneddoto che chiamo il "teorema gatto", dove un bambino piccolo chiama "gatto" ogni animale che vede, semplicemente perché è l'unico animale che conosce. Allo stesso modo, Norman vede violenza ovunque perché è stato esposto solo a quel tipo di dati. Questo ci porta a riflettere sulla responsabilità di chi sviluppa intelligenze artificiali nel selezionare dati di addestramento privi di bias. Infatti, se i dati di input sono distorti, anche l'intelligenza artificiale lo sarà, perpetuando pregiudizi e discriminazioni.

Un esempio pratico di bias nei dati potrebbe essere un sistema di selezione del personale che favorisce inconsapevolmente candidati di un certo background etnico o geografico. È essenziale garantire che i dati utilizzati siano rappresentativi e privi di pregiudizi per evitare tali distorsioni. In conclusione, l'episodio di Norman ci ricorda che l'intelligenza artificiale non è intrinsecamente malvagia, ma riflette semplicemente i dati che le vengono forniti. La chiave è quindi nei dati: scegliere quelli giusti è fondamentale per ottenere sistemi di intelligenza artificiale equi e affidabili.