Una intelligenza artificiale "psicopatica" ci ucciderà tutti?

Ciao Internet su Ciao Internet con Matteo Flora del 08.06.2018

Copertina del video: 388. Una intelligenza artificiale

I contenuti dell'Episodio #388

In questo episodio di "Ciao Internet", esploro un esperimento dell'MIT che ha creato Norman, un'intelligenza artificiale deviata. Analizzo criticamente un articolo che ha trattato il tema in modo superficiale e spiego come i dati di addestramento influenzano il comportamento di un'IA. Rifletto sul ruolo del bias nei dati e sulla necessità di selezionare con cura gli input per evitare interpretazioni distorte della realtà. Concludo invitando gli ascoltatori a condividere le loro opinioni nei commenti e a iscriversi al podcast.
Ciao internet! Oggi voglio parlarvi di Norman, l'intelligenza artificiale deviata creata da un esperimento dell'MIT. Forse nelle ultime ore avete sentito parlare di questo progetto, soprattutto a causa di un articolo che, in tutta onestà, è di rara bruttezza. Non lo linkerò perché, oltre a essere scritto male, non aggiunge nulla di significativo alla discussione.

In breve, Norman è stato addestrato con dati violenti e, come risultato, interpreta le famose macchie di Rorschach in modo distorto, vedendo violenza dove non c'è. Questo mi ha portato a riflettere sulla paura che provo verso l'intelligenza artificiale generale, un tema che mi preoccupa da tempo. Tuttavia, Norman non è un'IA malvagia, è solo un esempio di come i dati di input influenzano l'output di un algoritmo.

Per spiegare meglio questa dinamica, uso quello che chiamo il "teorema del gatto". Immaginate una bambina che chiama "gatto" qualsiasi animale vede, semplicemente perché è l'unico che conosce bene. Allo stesso modo, Norman interpreta il mondo attraverso il filtro dei dati di violenza con cui è stato addestrato. È il classico esempio di "garbage in, garbage out": se inseriamo pattumiera in un algoritmo, quello che ne esce sarà ancora pattumiera.

Questo ci porta a un problema cruciale delle intelligenze artificiali: la loro capacità di discernere e interpretare la realtà dipende esclusivamente dalla qualità dei dati che forniamo. E qui entra in gioco il concetto di bias, ovvero il pregiudizio insito nei dati stessi. Se i dati di partenza sono distorti, anche le risposte dell'IA lo saranno. Immaginate di usare dati di selezione del personale che privilegiano inconsciamente determinate etnie o regioni: le decisioni dell'IA rifletteranno questo bias.

Scegliere dati corretti è fondamentale per un'IA, e avrebbe potuto consentire a Norman di vedere farfalle invece di omicidi. Questo è il vero problema che dobbiamo affrontare, e sono curioso di sapere cosa ne pensate voi. Scrivetemi nei commenti e se non lo avete già fatto, iscrivetevi al podcast. Io sono Matteo Flora e vi tengo compagnia cinque giorni alla settimana, raccontandovi come la rete ci sta cambiando. Grazie mille per avermi ascoltato e alla prossima!