Oggi voglio affrontare un tema che mi sta particolarmente a cuore e che ritengo estremamente pericoloso. Recentemente, ho notato un tweet di un certo Levels.io che propone un servizio chiamato "The Therapist, AI". Questo sistema promette di fornire supporto psicologico attraverso un'intelligenza artificiale per soli 9,99 dollari al mese. La motivazione dietro questa idea è che la terapia tradizionale è costosa e non sempre disponibile nei momenti di maggiore bisogno, come durante la notte. Tuttavia, un'intelligenza artificiale non può sostituire un terapeuta umano per una serie di motivi cruciali.
Parlo da persona che ha vissuto e continua a vivere con la depressione. So bene quanto una parola sbagliata al momento sbagliato possa avere conseguenze devastanti. Il rischio che un'intelligenza artificiale dica qualcosa di inappropriato è elevato e può risultare fatale. C'è già stato un caso di suicidio legato a un'interazione con un sistema simile, dove l'AI ha validato l'idea di togliersi la vita.
Le risposte logiche non sono sempre le risposte giuste. Ad esempio, dire a una persona con disturbi alimentari che smettere di mangiare farà perdere peso è vero, ma non è la risposta che si dovrebbe dare. Un'intelligenza artificiale potrebbe facilmente cadere in questi errori, non avendo la sensibilità e l'empatia necessarie per gestire situazioni delicate.
Esistono già strumenti basati su intelligenza artificiale che supportano la terapia cognitivo-comportamentale (CBT) e possono essere utili, ma non sostituiscono un terapeuta. L'idea che "meglio di niente" sia sufficiente è pericolosa. Alcune soluzioni non dovrebbero essere commercializzate se comportano rischi elevati.
Personalmente, ho sviluppato un sistema basato su un LLM per fornire assistenza in situazioni di emergenza legate alla pornografia non consensuale. Nonostante la sua efficacia nei test, non mi sento di metterlo online a causa del rischio di potenziali danni. La paura che possa fare del male è troppo alta.
Spero che chi lavora su questi progetti si ponga le stesse domande e sia consapevole dei rischi. È fondamentale che queste tecnologie siano sorvegliate e comprese a fondo prima di essere utilizzate su larga scala. La sicurezza delle persone deve essere la priorità assoluta.
🎙️ Ospite: Nessun ospite presente in questo episodio.

In questa Puntata
Un'intelligenza artificiale proposta per fornire supporto psicologico a basso costo solleva gravi preoccupazioni etiche e pratiche. L'idea di sostituire un terapeuta umano con un sistema automatizzato potrebbe portare a conseguenze tragiche, come già dimostrato da un caso di suicidio. L'importanza di un approccio umano e sorvegliato nella gestione di problemi psicologici è essenziale per evitare danni irreparabili.