Facebook e YouTube hanno iniziato a bloccare e demonetizzare contenuti che menzionano il coronavirus, una mossa che solleva interrogativi sulla libertà di espressione. Tuttavia, dietro queste decisioni non c'è una censura di stato, ma una misura preventiva per gestire la moderazione dei contenuti in un periodo in cui la salute dei lavoratori è a rischio. Con la riduzione del personale umano, le piattaforme si affidano maggiormente all'intelligenza artificiale, che però non è ancora in grado di garantire la precisione necessaria. Di conseguenza, molti contenuti vengono rimossi per precauzione.
Il sistema di moderazione è tarato per gestire grandi volumi di segnalazioni, ma con meno personale disponibile, i contenuti considerati sospetti vengono eliminati automaticamente se non revisionati in tempo. Questo approccio conservativo è una risposta alla necessità di proteggere i moderatori, spesso concentrati in ambienti di lavoro non compatibili con le norme di sicurezza sanitaria attuali. Gli utenti potrebbero vedere i loro contenuti ripristinati una volta che la situazione si stabilizzerà e le piattaforme saranno in grado di gestire le revisioni da remoto.
Per evitare la censura, gli utenti sono invitati a utilizzare perifrasi e a evitare termini specifici che potrebbero innescare i sistemi di moderazione automatica. Anche se frustrante, questo metodo è considerato il male minore rispetto al rischio di diffusione di informazioni dannose. Gli utenti sono incoraggiati a segnalare eventuali errori di moderazione per facilitare il ripristino dei contenuti. La situazione attuale ci ricorda che per ogni problema complesso esiste una soluzione semplice, ma spesso inefficace.
In questa Puntata
Censura o protezione? Scopri perché i tuoi post sul COVID-19 potrebbero sparire dai social.