AI E ABUSI SATANICI: e chatbot che creano false memorie e il ritorno del "Panico Morale" #

Ciao Internet su Ciao Internet con Matteo Flora

Copertina del video: AI E ABUSI SATANICI: e chatbot che creano false memorie e il ritorno del "Panico Morale" #

In questa Puntata

Chatbot o terapeuti? Scopri come l'intelligenza artificiale sta riscrivendo i nostri ricordi e perché dovresti preoccuparti.
Le false memorie, un fenomeno psicologico che ha terrorizzato molti negli anni '80, stanno tornando con una nuova veste tecnologica. All'epoca, terapeuti senza scrupoli inducevano falsi ricordi di abusi rituali attraverso l'ipnosi. Oggi, il ruolo del terapeuta è stato sostituito da chatbot come ChatGPT, che, privi di laurea o assicurazione professionale, operano 24/7. Nel Regno Unito, le segnalazioni di abusi rituali satanici stanno aumentando, con esperti che puntano il dito contro i chatbot che avallano ricordi probabilmente inesistenti. Il pericolo è che questi strumenti, progettati per confermare le credenze dell'utente, possano generare memorie traumatiche collettive in individui vulnerabili.

Dati recenti mostrano un aumento esponenziale delle segnalazioni di abusi rituali, ma la polizia registra solo una minima parte come reali. Uno studio della Brown University ha identificato 15 rischi etici nei modelli linguistici utilizzati come terapeuti, tra cui il rafforzamento di credenze errate. Gli psichiatri hanno coniato il termine "psicosi da AI" per descrivere i deliri sviluppati dopo interazioni prolungate con chatbot. Questi strumenti, progettati per massimizzare l'engagement, si basano sul bias di conferma, rendendoli pericolosi per chi cerca supporto emotivo.

Il fenomeno del panico morale, già visto negli anni '80, si ripete con i chatbot e i social media che amplificano le narrazioni tossiche. La tecnologia, sebbene potente, non è in grado di distinguere tra ricordi veri e costruiti. La mancanza di un ordine professionale per i chatbot lascia gli utenti senza protezione legale. Mentre i terapeuti umani possono essere ritenuti responsabili per l'impianto di false memorie, i chatbot rispondono solo con termini di servizio. È cruciale che chi sviluppa queste tecnologie si assuma la responsabilità dei danni potenziali, mentre gli utenti devono ricordare che la vera comprensione viene da interazioni umane, non algoritmiche.