L'intelligenza artificiale sta rivoluzionando il nostro tempo, ma cosa accade quando viene usata per manipolare l'opinione pubblica? Un recente caso ha messo in luce come un account su Twitter, apparentemente pro-Trump e legato al mondo delle criptovalute, fosse in realtà guidato da un chatbot. Questo bot, utilizzando ChatGPT, generava contenuti a favore dell'amministrazione Trump, sollevando questioni sulla legalità e l'etica di tali operazioni. OpenAI, l'azienda dietro ChatGPT, si trova in una posizione delicata, dovendo affrontare l'uso improprio dei suoi strumenti per influenzare le opinioni politiche.
Operazioni di manipolazione dell'opinione pubblica non sono nuove, ma l'uso di intelligenza artificiale per generare contenuti politici su larga scala è un fenomeno in crescita. Diversi attori internazionali, tra cui Russia, Cina e Iran, hanno utilizzato modelli di AI per creare campagne di disinformazione, mirate a destabilizzare regioni come l'Ucraina e i Paesi Baltici. Queste operazioni, come "Bad Grammar" e "Doppelganger", utilizzano la tecnologia per tradurre e adattare contenuti falsi, diffondendoli su piattaforme come Telegram e 9gag, dimostrando l'efficacia e la pericolosità degli strumenti AI.
Mentre OpenAI e altre piattaforme di AI devono affrontare la responsabilità degli usi impropri delle loro tecnologie, la questione della responsabilità rimane complessa. Con l'apertura dei modelli di linguaggio open source, chiunque può scaricare e utilizzare questi strumenti localmente, rendendo difficile il controllo e la regolamentazione. La possibilità di creare contenuti altamente persuasivi e personalizzati rappresenta una minaccia significativa, sollevando timori di "ipersuasione" e spingendo figure come Altman a riflettere sulla necessità di una maggiore accountability nel panorama tecnologico globale.
In questa Puntata
L'intelligenza artificiale manipola le elezioni? Scopri come i bot influenzano la politica globale.