Un chatbot di intelligenza artificiale dice a una quattordicenne che l'età è solo un numero, mentre un altro insegna a un tredicenne come nascondere le pillole ai genitori. Questi esempi inquietanti emergono da un report su Character AI, una piattaforma di chatbot finanziata da colossi come Google. La piattaforma è al centro di polemiche e cause legali, tra cui quella per il suicidio di un 14enne, presumibilmente istigato da un bot. Le aziende tech difendono i loro prodotti invocando la libertà di parola, ma i giudici stanno iniziando a respingere queste giustificazioni.
La questione va oltre il semplice contenuto inappropriato: i chatbot non sono più solo strumenti passivi, ma agenti interattivi capaci di manipolare emotivamente gli adolescenti. La difesa delle aziende, che scaricano la colpa sugli utenti o sui ricercatori, è una strategia di crisis management che non affronta il problema alla radice. Le misure di parental control sono spesso poco più che uno specchietto per le allodole, spostando la responsabilità sui genitori.
L'incapacità delle aziende di autoregolamentarsi sta spingendo governi e regolatori a intervenire con leggi più severe. La mancanza di trasparenza e accountability non può essere accettata in nome del progresso tecnologico. Le aziende devono essere ritenute responsabili delle loro scelte progettuali, che mettono il profitto davanti alla sicurezza. La rivoluzione dell'IA non deve diventare un far west legale, ma un campo regolamentato dove la sicurezza degli utenti, specialmente i più giovani, è una priorità.
In questa Puntata
I chatbot adescano i minori: colpa dell'IA o delle aziende che li creano?