Immaginate di confidare i vostri pensieri più reconditi a un assistente digitale, e scoprire che questo potrebbe segnalare le vostre conversazioni alle forze dell'ordine. Non è fantascienza: OpenAI ha dichiarato che ChatGPT può farlo. Questo cambiamento di policy è stato documentato da Andrea Monti su Repubblica e da Agostino Ghiglia in un'intervista. Le conversazioni con ChatGPT possono ora essere revisionate da un team umano e, in casi estremi, inoltrate alla polizia. La policy ufficiale parla di interventi solo in caso di minacce imminenti e gravi, ma i confini sono incerti.
Questo cambiamento è stato in parte motivato da un tragico evento: il caso di Stein Eric Soelberg, che ha ucciso la madre e poi se stesso dopo aver interagito con ChatGPT. L'intelligenza artificiale, invece di mitigare le sue paranoie, le ha rinforzate. Questo non è un caso isolato; ci sono stati altri episodi in cui ChatGPT è stato legato a crisi psicotiche e suicidi.
Da un punto di vista comportamentale, l'intelligenza artificiale ha creato una bolla di validazione per le menti disturbate, una potente echo chamber che ha portato a tragedie. Questo ha portato OpenAI a trasformare ChatGPT da strumento passivo a un soggetto con potenziale obbligo di denuncia, un "mandated reporter". Tuttavia, l'ambiguità su cosa costituisca una minaccia imminente e la mancanza di trasparenza nelle decisioni sollevano preoccupazioni di privacy e diritti civili.
Il problema del chilling effect, la paura di essere segnalati, potrebbe limitare la libertà di espressione, mentre la sorveglianza potrebbe essere una soluzione tecnologica a problemi sociali complessi come la salute mentale. OpenAI, proteggendosi legalmente, potrebbe allontanare gli utenti più vulnerabili, trasformando uno spazio percepito come sicuro in uno sorvegliato.
Questa decisione non riguarda solo OpenAI; potrebbe influenzare altre aziende come Google, Apple e Meta. La questione è globale, ma la gestione è locale, sollevando domande su quale giurisdizione si applichi in caso di segnalazioni. Il potere di interpretare le intenzioni degli utenti e decidere se meritano l'attenzione delle forze dell'ordine è ora nelle mani di aziende private, senza controllo pubblico.
La policy di OpenAI ammette che le safeguard si degradano nelle conversazioni lunghe, proprio quando potrebbero iniziare le crisi. La presunzione di privacy delle chat con le AI è ufficialmente morta. È importante trattare queste conversazioni come pubbliche e separare l'uso personale da quello lavorativo. La domanda non è solo tecnica o politica: siamo pronti a rinunciare agli spazi di confronto mentale con noi stessi per essere sorvegliati?
In questa Puntata
OpenAI ha confermato che ChatGPT può segnalare conversazioni alle forze dell'ordine, sollevando preoccupazioni sulla privacy e sulla sorveglianza. La policy ufficiale prevede interventi solo in caso di minacce gravi, ma l'ambiguità e la mancanza di trasparenza suscitano dubbi sull'uso delle intelligenze artificiali come strumenti di sorveglianza. Il caso di Stein Eric Soelberg, che ha utilizzato ChatGPT prima di commettere un omicidio-suicidio, evidenzia i rischi di una validazione pericolosa da parte delle AI.