L'attuale panorama normativo sull'intelligenza artificiale è caratterizzato da un errore di fondo: l'illusione del rischio zero. L'AI Act, con le sue prescrizioni rigide, si basa su una fallacia cognitiva che presuppone la possibilità di eliminare completamente i rischi associati all'uso delle tecnologie AI. Questo approccio non solo è inefficace, ma è destinato a fallire, come dimostrato dal tentativo storico dello Stato dell'Indiana di fissare il valore di pi greco per legge. In realtà, l'intelligenza artificiale richiede un approccio più realistico e flessibile, che riconosca la sua intrinseca fallibilità.
L'allineamento delle AI è la chiave per superare questi limiti normativi. Questo processo post-addestramento mira a garantire che le intelligenze artificiali operino in modo coerente con i valori umani fondamentali, integrando principi etici direttamente nel loro funzionamento. Tuttavia, l'allineamento non è privo di sfide. Richiede feedback continui, revisioni etiche e la partecipazione di esperti da vari domini del sapere. Solo attraverso un allineamento efficace possiamo sperare di mitigare i rischi associati alle superintelligenze settoriali, che potrebbero superare le capacità umane in compiti specifici.
Infine, il vero pericolo non risiede nelle fake news o nella polarizzazione sociale, ma nella capacità delle AI di influenzare la percezione della realtà attraverso l'iperpersuasione. L'allineamento, quindi, non solo deve essere un processo continuo, ma deve anche essere soggetto a un costante scrutinio da parte della società civile. Solo così possiamo garantire che le intelligenze artificiali operino in modo responsabile e in linea con i valori umani, evitando le trappole di un approccio normativo rigido e prescrittivo.
In questa Puntata
L'illusione del rischio zero nell'AI: perché la regolamentazione attuale è destinata al fallimento?