Facebook ha rimosso circa 25,2 milioni di contenuti di incitamento all'odio solo nei primi tre mesi del 2021, con il 96,8% di questi individuati e bloccati proattivamente grazie all'intelligenza artificiale. Questo rappresenta un notevole miglioramento rispetto al 2017, quando solo il 23% dei contenuti veniva eliminato automaticamente. Tuttavia, nonostante i progressi tecnologici, la piattaforma continua a lottare con errori e problematiche che richiedono ulteriori miglioramenti.
Il Transparency Report di Facebook, pubblicato a maggio 2021, rivela anche dati preoccupanti su altre categorie di contenuti. Ad esempio, i contenuti di bullismo e molestie sono aumentati a 8,8 milioni rispetto ai 6,3 milioni del trimestre precedente. Allo stesso modo, i contenuti legati a organizzazioni di odio sono passati da 6,4 a 9,8 milioni. Questi numeri sollevano interrogativi sull'efficacia degli attuali strumenti di moderazione e sulla responsabilità degli utenti nella creazione e condivisione di tali contenuti.
Nonostante l'aumento di contenuti problematici, Facebook ha registrato una significativa riduzione nella prevalenza di contenuti di odio e nudità, dimostrando che gli sforzi di moderazione stanno avendo un impatto. Tuttavia, il dibattito rimane aperto su quanto questi miglioramenti siano dovuti all'efficacia degli algoritmi o a un cambiamento nel comportamento degli utenti. La sfida continua è migliorare la velocità e l'accuratezza nel rilevamento dei contenuti dannosi, mentre la piattaforma si prepara a pubblicare ulteriori rapporti di trasparenza.
🎙️ Ospite: Angelo Mazzetti, responsabile per le relazioni istituzionali di Facebook Italia
In questa Puntata
Facebook cancella milioni di contenuti ogni trimestre, ma quanto è davvero efficace? Scopri i numeri e le sfide della moderazione online.