Le AI, Gödel e l'Antropocentrismo #1257

Ciao Internet su Ciao Internet con Matteo Flora del 14.05.2024

Copertina del video: Le AI, Gödel e l'Antropocentrismo #1257

In questa Puntata

L'illusione del rischio zero nell'AI: perché la regolamentazione attuale è destinata al fallimento?
L'attuale panorama normativo sull'intelligenza artificiale è caratterizzato da un errore di fondo: l'illusione del rischio zero. L'AI Act, con le sue prescrizioni rigide, si basa su una fallacia cognitiva che presuppone la possibilità di eliminare completamente i rischi associati all'uso delle tecnologie AI. Questo approccio non solo è inefficace, ma è destinato a fallire, come dimostrato dal tentativo storico dello Stato dell'Indiana di fissare il valore di pi greco per legge. In realtà, l'intelligenza artificiale richiede un approccio più realistico e flessibile, che riconosca la sua intrinseca fallibilità.

L'allineamento delle AI è la chiave per superare questi limiti normativi. Questo processo post-addestramento mira a garantire che le intelligenze artificiali operino in modo coerente con i valori umani fondamentali, integrando principi etici direttamente nel loro funzionamento. Tuttavia, l'allineamento non è privo di sfide. Richiede feedback continui, revisioni etiche e la partecipazione di esperti da vari domini del sapere. Solo attraverso un allineamento efficace possiamo sperare di mitigare i rischi associati alle superintelligenze settoriali, che potrebbero superare le capacità umane in compiti specifici.

Infine, il vero pericolo non risiede nelle fake news o nella polarizzazione sociale, ma nella capacità delle AI di influenzare la percezione della realtà attraverso l'iperpersuasione. L'allineamento, quindi, non solo deve essere un processo continuo, ma deve anche essere soggetto a un costante scrutinio da parte della società civile. Solo così possiamo garantire che le intelligenze artificiali operino in modo responsabile e in linea con i valori umani, evitando le trappole di un approccio normativo rigido e prescrittivo.