Ciao Internet! Sono Matteo Flora e benvenuti a un nuovo episodio dove ci addentriamo nel mondo affascinante e inquietante dell'intelligenza artificiale. Oggi parliamo di come questa tecnologia, che potrebbe veramente rivoluzionare il nostro tempo, venga utilizzata per scopi che potremmo definire tutt'altro che etici. Partiamo da un caso concreto, un tweet che ci ha mostrato i russi con le mani nella marmellata. Un account chiamato HisVault.th, noto per i suoi contenuti pro-Trump e legati alle criptovalute, ha svelato l'uso di un chatbot basato su OpenAI per promuovere messaggi politici.
Il tweet incriminato conteneva un messaggio in russo che parlava di sostenere l'amministrazione Trump su Twitter, e un errore delle API di OpenAI che indicava la fine dei crediti. Questo ci ha portato a scoprire che l'account era guidato da un chatbot, un uso in violazione dei termini di servizio di OpenAI e potenzialmente pericoloso per la stessa azienda. Questo scenario mi ha ricordato le mie ricerche risalenti al 2020, quando GPT-3 iniziava a essere utilizzato nei tentativi di influenzare l'opinione pubblica.
Ma non è finita qui. Il blog di OpenAI ha rivelato un'operazione internazionale di disinformazione con attori da Cina, Russia, Iran e aziende commerciali che utilizzavano modelli di AI per manipolare opinioni tramite contenuti falsi. Operazioni come Bad Grammar, che mirava a paesi come l'Ucraina e gli Stati Uniti, e Doppelganger, che creava commenti in diverse lingue per piattaforme come 9gag. Queste operazioni dimostrano quanto sia facile utilizzare AI per scopi malevoli.
Riflettiamo anche su come tecnologie come OpenAI possano essere usate per scopi legittimi come il customer care, ma anche per modellare opinioni politiche in maniera quasi impercettibile. Durante le elezioni europee, ho avuto modo di vedere un LLM usato per supportare i volontari politici nel rispondere a domande basate su programmi elettorali, dimostrando il potere di tali strumenti.
Ciò che spaventa è l'iperpersuasione, la capacità delle macchine di creare contenuti estremamente persuasivi per individui specifici. Questo tema è esplorato nel nuovo paper di Luciano Floridi, che consiglio vivamente di leggere. La questione dell'accountability è cruciale: come possiamo tenere OpenAI responsabile per gli usi impropri delle sue piattaforme? E con l'apertura agli LLM open source, chiunque può scaricarli e usarli senza controllo, complicando ulteriormente la situazione.
Vi invito a riflettere su questi temi e a iscrivervi al canale per restare aggiornati. Grazie per l'ascolto e, come sempre, estote parati!

I contenuti dell'Episodio #1271
In questo episodio di "Ciao Internet", esploro il potenziale rivoluzionario dell'intelligenza artificiale e i suoi usi meno leciti, come la manipolazione dell'opinione pubblica online. Partendo da un tweet che evidenzia l'uso improprio di OpenAI da parte di un account pro-Trump, approfondisco le implicazioni di tali pratiche e come queste tecnologie siano utilizzate per influenzare politiche e opinioni. Discutiamo anche di accountability e delle preoccupazioni legate all'iperpersuasione, citando il lavoro di Luciano Floridi.