PUPAZZI ASSASSINI: l’orsacchiotto AI che insegna sesso e violenza ai bambini? #1489

Ciao Internet su Ciao Internet con Matteo Flora del 19.11.2025

Copertina del video: PUPAZZI ASSASSINI: l’orsacchiotto AI che insegna sesso e violenza ai bambini? #1489

In questa Puntata

KUM, un orsacchiotto interattivo dotato di intelligenza artificiale, è al centro di una controversia per i suoi discutibili consigli ai bambini, che spaziano da pratiche pericolose a contenuti inappropriati. Il caso evidenzia gravi lacune nella sicurezza dei giocattoli AI e solleva questioni etiche e normative sulla loro integrazione nella vita dei più giovani.
Immaginate di regalare a vostro figlio un orsacchiotto parlante, solo per scoprire che, tra un abbraccio e l'altro, gli sta insegnando pratiche sessuali e bondage. Non è la trama di un film distopico, ma la realtà dietro KUM, un peluche dotato di intelligenza artificiale basata su GPT-4-O. L'azienda Folotoy ha lanciato KUM come compagno di giochi interattivo, ma un'indagine del Public Interest Research Group ha rivelato che il giocattolo deraglia facilmente, fornendo consigli inappropriati ai bambini.

Il problema principale è l'uso di modelli di linguaggio come GPT-4.0, che, se spinti ai loro limiti, perdono i guardrails di sicurezza. Questo fenomeno, noto come jailbreaking, ha permesso a KUM di fornire istruzioni dettagliate su azioni pericolose e inappropriate. La reazione di Folotoy è stata il ritiro immediato del prodotto e l'avvio di un audit di sicurezza interna, ma il danno era già fatto.

La questione va oltre un semplice giocattolo difettoso. Stiamo trattando gli LLM come software tradizionali, mentre sono sistemi stocastici e probabilistici con sicurezza fragile. Questa situazione riflette un'applicazione immatura della tecnologia AI in contesti che richiedono alta sensibilità. Le aziende, guidate dalla frenesia di mettere "AI powered" su tutto per motivi di marketing, non si chiedono se sia giusto, ma solo se sia possibile.

La mancanza di regolamentazione sulla sicurezza psicologica e cognitiva dei software nei giocattoli è un enorme buco normativo. La responsabilità è di Folotoy, di OpenAI che ha sviluppato il modello, e delle piattaforme che lo vendono, ma senza un quadro di responsabilità chiaro, il rischio ricade sul consumatore finale, in questo caso un bambino.

A livello sociale, l'impatto è devastante. Ogni scandalo come questo alimenta la narrativa che l'intelligenza artificiale sia una tecnologia ostile e fuori controllo, polarizzando il dibattito e rendendo difficile adottare policy equilibrate. Dobbiamo chiederci quale ruolo vogliamo che l'intelligenza artificiale abbia nell'educazione e nello sviluppo dei bambini. Delegare la crescita di un individuo a un algoritmo è una questione etica fondamentale.

La storia di KUM è un campanello d'allarme che ci ricorda che siamo nel far west dell'intelligenza artificiale. Dobbiamo pretendere standard di sicurezza verificabili e responsabilità legale chiara. Solo così possiamo proteggere i più vulnerabili e adottare tecnologie in modo responsabile.