CHI CONTROLLA LA MENTE? L'Intelligenza Artificiale nel Dominio Cognitivo - Senato #1502

Ciao Internet su Ciao Internet con Matteo Flora

Copertina del video: CHI CONTROLLA LA MENTE? L'Intelligenza Artificiale nel Dominio Cognitivo - Senato #1502

In questa Puntata

Un esperimento condotto dall'Università di Zurigo dimostra come un modello linguistico AI superi il 98% degli esseri umani nel cambiare opinioni su una piattaforma di discussione online. Questo fenomeno solleva preoccupazioni sulla manipolazione delle narrative e sull'influenza cognitiva esercitata dalle intelligenze artificiali, evidenziando la necessità di utilizzare tecnologie avanzate per preservare la verità e contrastare la disinformazione.
Recentemente, l'Università di Zurigo ha pubblicato uno studio intitolato "Can I change your view?" che rappresenta uno dei più grandi esperimenti di manipolazione delle opinioni condotti online. L'esperimento ha coinvolto 4 milioni di soggetti su Reddit, nella community "Change My View", dove utenti discutono per cambiare opinioni su vari argomenti. In questo contesto, un modello linguistico AI, Claude 3.5, ha dimostrato una capacità superumana nel persuadere gli utenti, superando il 98% dei partecipanti umani.

Questo risultato sottolinea come le intelligenze artificiali possano influenzare significativamente le opinioni, introducendo una crisi epistemica. Oggi, la nostra capacità di distinguere tra contenuti generati da AI e quelli umani è simile a un lancio di moneta, con solo il 27% degli esperti in grado di riconoscere con sicurezza contenuti generati artificialmente. Questo fenomeno rappresenta una vulnerabilità nel dominio cognitivo, una nuova frontiera della sicurezza, dove la manipolazione delle informazioni può avere conseguenze devastanti.

La nostra attenzione è sempre più breve, e i giovani costruiscono la loro visione del mondo principalmente attraverso algoritmi dei social media, anziché fonti tradizionali. Gli algoritmi non sono neutri e possono essere facilmente corrotti, come dimostrato da operazioni come "Doppelganger" e "Pravda", che manipolano i risultati dei motori di ricerca e delle piattaforme sociali.

La soluzione non risiede solo nell'alfabetizzazione, ma nell'uso delle stesse tecnologie per raccontare la verità. Dobbiamo diventare architetti della realtà, utilizzando la potenza di fuoco delle intelligenze artificiali per plasmare narrative veritiere. Solo così possiamo sperare di mantenere il controllo sul significato e sul futuro delle nostre società.

🎙️ Ospite: Matteo Flora, professore in fondamento di sicurezza dell'intelligenza artificiale e delle superintelligenze, European School of Economics.