OpenAI ha recentemente modificato le sue politiche, permettendo al suo chatbot, ChatGPT, di segnalare conversazioni alle forze dell'ordine in casi di minacce gravi e imminenti. Questo cambiamento, motivato da eventi tragici come il caso di Stein Eric Soelberg, che ha usato ChatGPT per alimentare le sue paranoie prima di compiere un omicidio-suicidio, solleva questioni cruciali sulla privacy e sul ruolo delle intelligenze artificiali come sorveglianti.
Il problema principale è l'ambiguità di cosa costituisca una "minaccia imminente", lasciando la valutazione a un team interno di OpenAI, senza trasparenza o possibilità di appello pubblico. Questo crea un precedente pericoloso, in cui gli assistenti digitali potrebbero trasformarsi in informatori, ampliando il potere delle aziende tecnologiche di decidere chi merita l'attenzione delle autorità. Inoltre, la paura di essere fraintesi e segnalati potrebbe inibire la libertà di espressione degli utenti.
Questa nuova politica di OpenAI rappresenta un esempio di soluzionismo tecnologico, dove una patch tecnologica cerca di affrontare problemi complessi come la salute mentale e la violenza. Tuttavia, rischia di allontanare gli utenti più vulnerabili che potrebbero vedere in ChatGPT uno spazio sicuro e non giudicante. La sfida è bilanciare la sicurezza con la privacy, mentre le aziende tech si trovano a dover decidere non se, ma quando i loro strumenti diventeranno informatori.
In questa Puntata
ChatGPT è il tuo confidente digitale o un informatore in incognito? Scopri i rischi nascosti.