Oggi voglio parlarvi di un tema che mi sta particolarmente a cuore: l'allineamento nell'intelligenza artificiale e perché le normative attuali rischiano di fallire nel loro intento. Mi piace iniziare con una premessa: non sono un avvocato, ma un tecnico che, per una serie di incidenti di percorso, si è ritrovato ad insegnare all'European School of Economics su temi di AI e Super Intelligence Safety. Anche se può sembrare complicato, il mio obiettivo è chiarire cos'è l'allineamento e perché è cruciale.
In primo luogo, uno dei principali errori che vedo nel cercare di normare l'intelligenza artificiale è l'approccio delle normative assolute, un po' come cercare di risolvere il problema degli incidenti stradali semplicemente proibendo le auto. Questo, in realtà, non funziona. Ci troviamo di fronte a quella che definisco la "Zero Risk Fallacy," l'idea sbagliata che si possano eliminare tutti i rischi. Questa visione è utopica, soprattutto quando parliamo di tecnologia e intelligenza artificiale.
Prendiamo, ad esempio, l'AI Act: viene presentato come un approccio basato sul rischio, ma si concentra sul rischio di applicazione piuttosto che sul rischio intrinseco dell'intelligenza artificiale. È un errore di fondo che, secondo me, porterà a un fallimento sicuro. Per spiegare meglio, mi piace citare un aneddoto: lo Stato dell'Indiana, nel 1897, provò a fissare pi greco a 3,2 per legge. Ovviamente, non ha funzionato, e lo stesso accadrà con tentativi di normare l'infallibilità dei sistemi AI.
Un altro problema è il focus errato su fake news e disinformazione. La vera questione è la polarizzazione della società, non quello che utilizziamo per crearla. L'intelligenza artificiale non può essere semplicemente un cultore della verità, perché la verità stessa è un concetto socialmente negoziato. È qui che entra in gioco l'allineamento, un concetto che parte dalla premessa che non possiamo richiedere precisione assoluta a un modello linguistico di grandi dimensioni (LLM), come dimostrato da recenti studi.
L'allineamento rappresenta la possibilità di assicurare che le AI operino rispettando i valori umani fondamentali. È un processo post-addestramento in cui chiedo all'intelligenza artificiale di seguire norme etiche e morali. Questo non significa che funzioni sempre perfettamente, ma è l'unico modo per spingere verso un approccio più antropocentrico.
Per rendere l'allineamento efficace, dobbiamo incorporare feedback continui, revisioni etiche e la possibilità di errore. L'allineamento è fondamentale per affrontare rischi come l'hyperpersuasion, dove un'AI potrebbe sfruttare i bias cognitivi in modo spietato. Non è solo una questione di dati o di vietare alcune applicazioni, ma di accettare la fallibilità e lavorare costantemente per migliorare questi sistemi.
Alla fine, l'obiettivo è fare in modo che i processi di allineamento siano sotto continuo scrutinio e dialogo con la società civile, per migliorare e correggere eventuali errori. Solo così possiamo garantire che l'intelligenza artificiale operi in modo sicuro e rispettoso delle nostre necessità umane.

I contenuti dell'Episodio #1257
In questa puntata di "Ciao Internet," esplorerò il complesso mondo dell'intelligenza artificiale, con particolare attenzione alla normativa e ai concetti di allineamento e super allineamento. Condividerò le mie riflessioni su come la legislazione attuale spesso fallisca nel gestire i rischi intrinseci dell'AI, e discuterò l'importanza di integrare i valori umani fondamentali nei sistemi di intelligenza artificiale attraverso processi di allineamento. Prepariamoci a una conversazione che sfida le convenzioni e invita a un approccio più pragmatico e umano nel trattare con le tecnologie avanzate.