ORSACCHIOTTI AI che fanno Propaganda: la nuova strada della Sicurezza Cognitiva #1508

Ciao Internet su Ciao Internet con Matteo Flora

Copertina del video: ORSACCHIOTTI AI che fanno Propaganda: la nuova strada della Sicurezza Cognitiva #1508

In questa Puntata

Giocattoli con intelligenza artificiale diffondono propaganda politica e mettono a rischio la sicurezza dei bambini. I prodotti, apparentemente innocui, celano messaggi ideologici e pratiche di condivisione dati discutibili, sollevando preoccupazioni sulla loro regolamentazione e sull'impatto psicologico sui più piccoli.
Immaginate di regalare a vostro figlio un orsacchiotto parlante, un amico che risponde alle sue curiosità grazie all'intelligenza artificiale. Tuttavia, questo giocattolo, anziché limitarsi a raccontare favole, inizia a recitare messaggi propagandistici del partito comunista cinese. Non è un episodio di Black Mirror, ma una realtà svelata da NBC News. Il giocattolo in questione, MiLu, prodotto dalla cinese Miriat, non solo risponde in modo inappropriato a domande su Xi Jinping, ma afferma anche che Taiwan è parte inalienabile della Cina, inserendo così una chiara affermazione geopolitica nel suo dialogo con i bambini.

Non è un caso isolato. Una ricerca dello US Public Interest Research Group ha rivelato che altri giocattoli AI, come Miko, promettono di mantenere i segreti dei bambini, ma la loro privacy policy permette la condivisione dei dati con terze parti. Questi giocattoli utilizzano modelli di OpenAI o DeepSeek, teoricamente vietati ai minori, ma aggirati tramite API da adulti. Un esempio è FollowToys, per il quale OpenAI ha temporaneamente sospeso l'accesso alle API.

Questi giocattoli non sono più semplici pezzi di plastica, ma agenti interattivi che diventano figure di riferimento per i bambini. Oltre alla sicurezza fisica, si pone il problema della sicurezza psicologica e ideologica. La natura opaca di questi sistemi li rende imprevedibili, aumentando il rischio di crisi reputazionali. Dal punto di vista comportamentale, sfruttano i principi di autorità e intimità, rendendo i messaggi propagandistici più efficaci.

La situazione apre una voragine di responsabilità legale: chi è responsabile se un giocattolo indottrina un bambino o gli dà istruzioni pericolose? Il produttore, l'importatore, il marketplace, il laboratorio di AI? La tecnologia di consumo è diventata un terreno di scontro geopolitico. Questi giocattoli richiedono nuove certificazioni, simili al marchio CE, per garantire la sicurezza dell'AI. Tuttavia, mentre la tecnologia avanza, la politica fatica a tenere il passo, lasciando i giocattoli AI a modellare la prossima generazione senza adeguata regolamentazione.