Un esperimento dell'Università di Zurigo ha messo in luce la capacità dei modelli linguistici di intelligenza artificiale di superare il 98% degli esseri umani nella persuasione. Utilizzando un gruppo su Reddit, "Change My View", il modello Claude 3.5 ha dimostrato di essere straordinariamente efficace nel cambiare opinioni, sollevando preoccupazioni etiche sulla manipolazione della realtà. Questo fenomeno evidenzia come la nostra percezione del mondo possa essere facilmente alterata da algoritmi avanzati.
La crisi epistemica è ormai una realtà tangibile: il 54% degli utenti non distingue tra contenuti generati da intelligenza artificiale e quelli umani, mentre solo il 27% degli esperti forensics riesce a farlo con certezza. Questo scenario rappresenta una vulnerabilità cognitiva sfruttabile, nota come "sesto dominio", che i militari definiscono guerra cognitiva. L'attenzione degli utenti si riduce drasticamente, con adolescenti che utilizzano la rete come principale fonte di informazione, spesso senza capacità critica.
Gli algoritmi, che non sono mai neutrali, stanno corrompendo la nostra percezione della realtà. Operazioni come la "doppelganger" e la diffusione di contenuti manipolati minano la fiducia nei media tradizionali, con solo il 26% dei giovani che li considera affidabili. La manipolazione cognitiva diventa sempre più accessibile e pericolosa, con campagne di disinformazione che costano quanto una pubblicità locale. La soluzione non risiede nell'educazione tradizionale, ma nell'uso delle stesse tecnologie per raccontare la verità, diventando architetti della realtà per negoziare il significato e plasmare il futuro.
In questa Puntata
L'intelligenza artificiale sta plasmando la realtà: siamo pronti a negoziarla?