Facebook si trova a gestire un'enorme quantità di contenuti attraverso un sistema complesso che combina intelligenza artificiale e revisori umani. Con quasi 3 miliardi di utenti, la piattaforma utilizza algoritmi di machine learning per identificare proattivamente contenuti sospetti, che vengono poi esaminati da un team di 15.000 revisori in oltre 50 lingue. Questo sistema ibrido permette di affrontare una mole impressionante di contenuti, come dimostrato dai numeri del transparency report: 38 milioni di contenuti di nudo, 8 milioni di bullismo, e 9 milioni di incitamento all'odio analizzati in un solo trimestre.
Nonostante l'efficacia della tecnologia, gli errori sono inevitabili. Facebook offre agli utenti la possibilità di appellarsi contro le decisioni prese, sia dagli algoritmi che dai revisori umani, attraverso un processo di revisione indipendente. L'oversight board, un organismo terzo, può ribaltare le decisioni di Facebook e suggerire modifiche alle policy. Questo sistema di controllo è fondamentale per migliorare continuamente la moderazione dei contenuti e garantire la sicurezza della piattaforma.
Un'altra metrica chiave è la "prevalence", che misura la visibilità dei contenuti problematici rispetto al totale delle interazioni. Ad esempio, il discorso d'odio rappresenta solo 5-6 visualizzazioni ogni 10.000, dimostrando che la maggior parte dei contenuti su Facebook è legittima. Questa metrica aiuta a contestualizzare la percezione pubblica e a evidenziare i progressi nel ridurre la diffusione di contenuti dannosi.
In questa Puntata
Facebook controlla davvero tutto? Scopri come la piattaforma applica le sue regole tra algoritmi e revisori umani.