I numeri della moderazione di #Facebook - Matteo incontra Facebook (3 di 3)

Ciao Internet su Ciao Internet con Matteo Flora del 09.07.2021

Copertina del video: 872. I numeri della moderazione di #Facebook - Matteo incontra Facebook (3 di 3)

I contenuti dell'Episodio #872

In questa terza puntata della nostra miniserie, ci concentriamo sui numeri dietro il lavoro di moderazione dei contenuti su Facebook. Discutiamo i dati impressionanti di rimozione dei contenuti, suddivisi per tipologia, e riflettiamo su quanto sia complesso il lavoro di gestione della piattaforma. Con me, oggi, c'è Angelo Mazzetti di Facebook Italia, con cui esploreremo i dettagli dell'ultimo transparency report e le sfide che ci attendono.
Benvenuti a questa terza puntata della miniserie di Ciao Internet, dove ci immergiamo nei numeri e nei dati che raccontano il lavoro di moderazione dei contenuti su Facebook. Dopo aver esplorato le policy e la loro implementazione, oggi ci concentriamo sugli impressionanti numeri dei contenuti rimossi dalla piattaforma. In compagnia di Angelo Mazzetti, responsabile delle relazioni istituzionali per Facebook Italia, analizziamo i transparency report che vengono pubblicati trimestralmente.

In questo episodio, ci soffermiamo in particolare sull'ultimo transparency report che copre il primo trimestre del 2021. Angelo ci spiega che questo è il nono rapporto sulla trasparenza rilasciato da Facebook, arricchito di nuove metriche e dati per fornire un quadro sempre più dettagliato delle azioni di moderazione intraprese. Un elemento chiave di questo rapporto è la centralizzazione delle informazioni su transparency.fb.com, un hub dove gli utenti possono esplorare come Facebook tratta le richieste di rimozione dei contenuti per violazioni legali locali, la gestione della proprietà intellettuale, e le disruption di internet in vari paesi.

Con Angelo, analizziamo i numeri relativi agli incitamenti all'odio e ai profili falsi. Nei primi tre mesi del 2021, Facebook ha rimosso circa 25,2 milioni di contenuti di incitamento all'odio, di cui il 96,8% è stato identificato e rimosso proattivamente dall'intelligenza artificiale prima che potesse raggiungere la piattaforma. Questo rappresenta un notevole miglioramento rispetto al 2017, quando solo il 23% dei contenuti di odio veniva rimosso automaticamente.

Parliamo anche della prevalenza dei contenuti di odio, cioè la frequenza con cui questi contenuti vengono visualizzati dagli utenti. Dal 2020, la metrica della prevalenza ha mostrato una significativa riduzione, passando da 100-110 visualizzazioni per 10.000 contenuti a 5-6. Questa tendenza si osserva anche in altre categorie di contenuti problematici, come quelli di nudità, che sono stati ridotti allo 0,03% di prevalenza.

Tuttavia, evidenzio che, nonostante i progressi, i contenuti di bullismo e molestie sono in aumento, segnalando una crescita inquietante che riflette un problema non solo delle piattaforme ma anche del comportamento degli utenti online. Con un aumento dei contenuti di bullismo e molestie da 6,3 a 8,8 milioni, e un incremento dei contenuti di organizzazioni di odio, è chiaro che c'è ancora molto lavoro da fare.

Concludiamo la puntata con uno sguardo al futuro: Facebook continuerà a migliorare la capacità di individuare e rimuovere contenuti inappropriati con maggiore velocità ed efficienza, riducendo al contempo gli errori. Tuttavia, come società, dobbiamo anche riflettere su come ci comportiamo online. Ringrazio Angelo Mazzetti per la sua disponibilità e anticipo che ci sarà un seguito con il prossimo transparency report.