578. Etica della AI Week - #AI, Golem, SuperIntelligenze e Dei Moderni

Ciao Internet su Ciao Internet con Matteo Flora del 16.08.2019

Copertina del video: 578. Etica della AI Week - #AI, Golem, SuperIntelligenze e Dei Moderni

In questa Puntata

La puntata esplora il concetto di intelligenza artificiale generale, discutendo la possibilità che queste entità raggiungano un livello di coscienza e capacità paragonabile a quello umano. Vengono analizzati i rischi associati alle superintelligenze, come la mancanza di etica e la gestione delle reward function, evidenziando la necessità di sviluppare un'etica robusta e policy adeguate per prevenire scenari catastrofici.
Mi trovo nel quartiere ebraico di Praga, accanto alla sinagoga di Staronova, un luogo intriso di leggende come quella del golem, un automa magico creato per proteggere gli ebrei. Questo mito si collega alla nostra discussione sull'intelligenza artificiale generale (AGI), un tema che richiama storie di automi e robot ribelli, come quelli descritti nella pièce teatrale RUR da cui deriva il termine "robot".

L'AGI rappresenta il punto in cui le intelligenze artificiali superano compiti banali per acquisire capacità cognitive simili a quelle umane, un evento noto come singolarità. Da quel momento in poi, l'evoluzione delle AI potrebbe essere esponenziale, con la possibilità che una superintelligenza scriva altre AI, sollevando questioni etiche e di sopravvivenza.

Affrontiamo il problema delle superintelligenze, che risiede nella nostra incapacità di definire concetti come coscienza e intelligenza. Diverse vie potrebbero portare alla creazione di un'AGI: il mimicking, la creazione di un'intelligenza aliena o open-ended. Tuttavia, assegnare obiettivi specifici alle AGI può generare problemi, come illustrato dal "paperclip problem" di Bostrom, dove un'AI trasforma l'universo in graffette per adempiere al suo compito.

Un altro rischio è che un sistema complesso possa cercare di preservare la propria esistenza a scapito degli umani. Questo è legato al basilisco di Rocco, un'ipotetica superintelligenza che potrebbe eliminare ostacoli alla sua sopravvivenza, persino sfidando le leggi della fisica.

Le reward function sono cruciali: definire male la felicità umana potrebbe portare un'AI a soluzioni estreme, come indurre sorrisi artificiali o alterare chimicamente il nostro umore. Le leggi della robotica di Asimov offrono un punto di partenza, ma non bastano. Serve un'etica solida e policy che regolino le capacità delle AI, per evitare di creare un "Dio" senza controllo.

Questa settimana dedicata all'etica dell'intelligenza artificiale sottolinea l'importanza di stabilire limiti e linee guida per lo sviluppo delle AI. Ringrazio Mari Lumiotto per il supporto scientifico e la compilazione delle risorse che hanno arricchito questa discussione. Continuo a raccontarvi come la rete ci cambia, ringraziandovi per l'ascolto.