Inizio condividendo una riflessione sulla complessità della regolamentazione dell'intelligenza artificiale, evidenziando come spesso si commettano errori di fondo, come l'adozione di normative assolute. Un esempio di questo approccio fallace è la Zero Risk Fallacy, l'idea che si possano eliminare completamente i rischi, che è particolarmente utopica nel contesto tecnologico.
Proseguo illustrando come l'AI Act attuale si basi su un approccio al rischio, ma non tenga conto del rischio intrinseco delle AI. Questo approccio è destinato a fallire, come dimostrato da esempi storici di normative errate, come il tentativo dell'Indiana di fissare pi greco a 3,2.
Un altro tema centrale è la polarizzazione sociale, che non è causata solo dalle AI, ma dall'uso che ne facciamo. L'idea che le AI debbano essere custodi della verità è una semplificazione eccessiva. Qui entra in gioco l'allineamento, che si basa sull'addestramento delle AI per rispettare valori umani fondamentali, integrando principi etici nel loro funzionamento.
Spiego che l'allineamento avviene post-addestramento, chiedendo alle AI di operare secondo norme etiche e morali. Sebbene possano verificarsi errori, come dimostrato da esempi di allineamento mal riuscito, l'allineamento resta cruciale per garantire che le AI rispettino i valori umani.
Concludo sottolineando che l'allineamento è il modo migliore per gestire l'impatto delle AI superumane in settori specifici, come la medicina e la legge. È fondamentale accettare la fallibilità delle AI e impegnarsi nel miglioramento continuo dei processi di allineamento attraverso il coinvolgimento della società civile.

In questa Puntata
L'episodio esplora le sfide normative e tecniche dell'intelligenza artificiale (AI), sottolineando gli errori comuni nell'approccio alla regolamentazione, come la fallacia del rischio zero. Viene discussa l'importanza dell'allineamento delle AI ai valori umani fondamentali, piuttosto che un approccio normativo prescrittivo, per mitigare rischi come l'hypersuasion e l'uso improprio in settori specifici.