592. La più grande menzogna di YouTube…

Ciao Internet su Ciao Internet con Matteo Flora del 03.10.2019

Copertina del video: 592. La più grande menzogna di YouTube…

In questa Puntata

YouTube è al centro di un grande scandalo riguardante la demonetizzazione di contenuti LGBTQ. Un'indagine ha rivelato che l'intelligenza artificiale della piattaforma potrebbe demonetizzare video basandosi su parole chiave associate a questi temi, sollevando questioni di censura economica e bias algoritmici. La trasparenza e l'accountability degli algoritmi sono cruciali per evitare il "math washing", ovvero l'uso della matematica per giustificare decisioni discutibili.
Oggi affrontiamo un argomento complesso e delicato: la demonetizzazione su YouTube, in particolare per i contenuti legati alla comunità LGBTQ. Tutto è iniziato nell'agosto scorso, quando alcuni creator hanno accusato YouTube di rimuovere la monetizzazione dai video che trattano di diritti omosessuali e tematiche LGBTQ. Le domande rivolte ai dirigenti di YouTube riguardavano l'esistenza di parole chiave che potessero causare demonetizzazione. La risposta ufficiale è stata negativa, ma un'indagine condotta da Nerd City in collaborazione con YouTube Analyzed ha dimostrato il contrario.

L'indagine ha testato oltre 15.000 parole in centinaia di video, scoprendo che esistono effettivamente parole che determinano la demonetizzazione. Tuttavia, non si tratta di una lista creata da esseri umani, ma di un risultato dell'intelligenza artificiale che ha analizzato i contenuti rimossi dai moderatori per individuare quelli potenzialmente pericolosi. Questo processo implica che la presenza di certe parole, anche in assenza di contenuti controversi, possa portare a una censura economica, riducendo gli introiti dei creator.

Il problema si complica ulteriormente con la revisione umana dei contenuti, che spesso è influenzata da bias culturali e pregiudizi, specialmente se i revisori provengono da paesi con leggi restrittive sulla libertà di espressione per le persone LGBTQ. Questo porta a decisioni non solo basate su linee guida poco chiare, ma anche su convinzioni personali, amplificate dall'algoritmo.

La questione della trasparenza e dell'accountability degli algoritmi è cruciale. "Math washing" è il termine per descrivere il lavarsi le mani attribuendo le decisioni a un algoritmo. Gli algoritmi, infatti, possono esasperare i pregiudizi esistenti, influenzando negativamente la vita e il reddito degli individui. È fondamentale capire come funzionano questi sistemi e chi ne è responsabile, per evitare che l'algoritmo diventi uno strumento di censura economica.

Vi invito a riflettere su quanto potere sia giusto affidare agli algoritmi e a condividere le vostre opinioni su questo tema complesso. Continuate a seguirmi per ulteriori approfondimenti su questi argomenti.