La più grande menzogna di YouTube…

Ciao Internet su Ciao Internet con Matteo Flora del 03.10.2019

Copertina del video: 592. La più grande menzogna di YouTube…

I contenuti dell'Episodio #592

Ciao Internet! In questa puntata approfondiamo un tema controverso che ha scosso il mondo di YouTube: la demonetizzazione dei contenuti LGBTQ. Affrontiamo l'accusa che YouTube utilizzi parole chiave specifiche per limitare la monetizzazione dei video, esplorando il ruolo dell'intelligenza artificiale e la sua influenza sui creator. Analizziamo la complessità del sistema di revisione dei contenuti e i bias culturali che possono influenzare le decisioni, ponendo domande cruciali sulla trasparenza e l'accountability delle tecnologie digitali.
Ciao Internet! Mettetevi comodi, oggi affrontiamo un argomento complesso e attuale: la monetizzazione su YouTube e il ruolo dell'intelligenza artificiale nel determinare quali contenuti possono generare introiti pubblicitari. Tutto è iniziato nell'agosto scorso, quando diversi creator hanno accusato YouTube di demonetizzare video che trattano tematiche legate ai diritti LGBTQ, come queer, transgender e assessualità. Questi creator hanno sollevato dubbi sulla possibilità che determinate parole chiave portino alla demonetizzazione dei loro contenuti.

In risposta alle domande dei creator, i dirigenti di YouTube hanno negato l'esistenza di una lista di parole chiave che determinano la demonetizzazione. Tuttavia, un'inchiesta condotta da Nerd City e YouTube Analyzed ha rivelato che l'intelligenza artificiale utilizzata da YouTube identifica effettivamente parole che possono influire sulla monetizzazione dei video. Questa scoperta solleva interrogativi sulla trasparenza delle operazioni di YouTube e sull'integrità delle dichiarazioni dei suoi dirigenti.

L'intelligenza artificiale funziona analizzando una vasta gamma di contenuti precedentemente rimossi dai moderatori, identificando quelli potenzialmente problematici e applicando misure di demonetizzazione. Tuttavia, questo sistema non è infallibile e può portare a censura economica. Sebbene i video non vengano rimossi, la loro demonetizzazione può disincentivare i creator dal produrre contenuti su argomenti importanti come la sessualità LGBTQ.

Un ulteriore problema riguarda il processo di revisione umana, spesso esternalizzato a contractor in paesi con diverse percezioni culturali riguardo ai diritti LGBTQ. Questo può introdurre bias che influenzano il giudizio sulla monetizzazione dei contenuti. La situazione è aggravata dal fatto che le linee guida di YouTube non sono sempre chiare, lasciando spazio a interpretazioni soggettive.

Il fenomeno del "math washing" – l'uso dell'intelligenza artificiale per giustificare decisioni discutibili – è un tema centrale. La trasparenza e l'accountability nei processi decisionali delle intelligenze artificiali sono fondamentali per evitare che si nascondano responsabilità dietro algoritmi opachi. È importante che le piattaforme come YouTube si assumano la responsabilità delle azioni delle loro intelligenze artificiali, garantendo equità e giustizia per tutti i creator.

Vi invito a riflettere su quanto potere vogliamo delegare agli algoritmi e a partecipare alla discussione sui bias dell'intelligenza artificiale e le implicazioni della demonetizzazione. Come sempre, vi ringrazio per avermi ascoltato e vi invito a seguire i miei contenuti su vari canali. Stote parati!