Nel mondo complesso di Facebook, le regole e le policy sono fondamentali per mantenere un ambiente sicuro e rispettoso. Queste policy vengono applicate attraverso un sistema che combina tecnologia avanzata e revisione umana. Con Angelo Mazzetti, responsabile delle relazioni istituzionali di Facebook Italia, abbiamo esplorato come l'intelligenza artificiale e i revisori umani lavorano insieme per gestire l'enorme quantità di contenuti caricati sulla piattaforma.
L'intelligenza artificiale è in grado di rilevare automaticamente contenuti sospetti, che vengono poi passati ai revisori umani. Questo sistema è essenziale per gestire i milioni di contenuti che violano le regole ogni trimestre, come i 38 milioni di contenuti di nudo o i 9 milioni di contenuti di odio organizzato. I revisori, che operano in oltre 50 lingue, sono cruciali per valutare il contesto culturale e linguistico dei contenuti.
Un aspetto interessante è la possibilità di appello contro le decisioni prese, sia da parte degli utenti che dall'Oversight Board, un organismo indipendente che può confermare o ribaltare le decisioni di Facebook. Questo processo garantisce trasparenza e offre un controllo esterno sulle decisioni controverse.
Abbiamo anche discusso la metrica della "prevalenza", che misura quante visualizzazioni hanno contenuti problematici rispetto al totale. Questa metrica aiuta a comprendere l'impatto reale dei contenuti discutibili, mostrando che la maggior parte delle interazioni su Facebook riguarda contenuti legittimi.
In conclusione, nonostante gli errori siano inevitabili, Facebook si impegna a migliorare continuamente i suoi processi di moderazione per ridurre al minimo i contenuti dannosi e garantire un ambiente più sicuro per tutti gli utenti.
🎙️ Ospite: Angelo Mazzetti, Responsabile delle Relazioni Istituzionali, Facebook Italia.
In questa Puntata
L'episodio esplora come Facebook applica le sue policy attraverso un mix di intelligenza artificiale e revisione umana. Con quasi 3 miliardi di utenti, la piattaforma utilizza algoritmi di machine learning per identificare contenuti in violazione delle regole, che vengono poi esaminati da un team di revisori. Viene discusso il processo di appello e il ruolo dell'Oversight Board nelle decisioni controverse, con un focus su metriche come la "prevalenza" per misurare l'impatto dei contenuti problematici.