Oggi parliamo di un argomento che ha ripercussioni importanti sul mondo digitale e sugli investimenti pubblicitari: la relazione turbolenta tra YouTube e l'advertising. Abbiamo già visto in passato fenomeni come l'adpocalypse, che hanno messo in luce come molti creatori di contenuti abbiano visto ridursi drasticamente i loro introiti a causa della fuga degli investitori pubblicitari da YouTube. Ma la situazione è più complessa di quanto sembri a prima vista.
Gli investitori hanno ritirato i loro fondi principalmente perché i loro annunci venivano mostrati accanto a contenuti violenti, razzisti e omofobi. YouTube ha risposto a questa crisi con l'uso dell'intelligenza artificiale, promettendo cambiamenti significativi. Tuttavia, l'intelligenza artificiale ha spesso rimosso la pubblicità anche da contenuti informativi e giornalistici che trattavano di atti di violenza, senza risolvere realmente il problema.
Negli ultimi giorni, due nuovi problemi sono emersi, entrambi legati ai contenuti inappropriati accostati a pubblicità. Il primo riguarda contenuti teoricamente family-friendly su YouTube Kids, che includevano violenza e altre immagini disturbanti, ma comunque associati a inserzioni pubblicitarie. Il secondo problema riguarda la sessualizzazione dei minori, con contenuti che mostrano ginnaste in pose inappropriate e commenti pedofili. Anche qui, la pubblicità era presente accanto a contenuti che avrebbero dovuto essere controllati più rigorosamente.
Questo ha portato molti grandi investitori, tra cui Mars e HP, a ritirare i loro investimenti pubblicitari. Il cuore del problema risiede nel metodo di gestione dell'inventario pubblicitario di YouTube. La piattaforma offre uno spazio pubblicitario vasto e poco controllabile, scegliendo di mostrare annunci su una vasta gamma di contenuti senza un controllo adeguato. YouTube ha cercato di risolvere i problemi con un approccio reattivo, rimuovendo contenuti su segnalazione, ma questo non è sufficiente per evitare situazioni problematiche.
Qual è la soluzione? È difficile dirlo con certezza. Potrebbe essere utile un controllo preventivo più rigoroso sui contenuti, specialmente quelli che potrebbero causare danni significativi agli investitori, come quelli legati ai minori, alla violenza e alla tolleranza. Tuttavia, l'intelligenza artificiale, spesso proposta come soluzione, ha mostrato limiti significativi nel distinguere tra contenuti artistici e pornografici o tra video innocenti e sessualizzati. È un problema complesso che richiede un approccio più sofisticato.
Come sempre, queste sono le mie opinioni e riflessioni su un tema che ci riguarda da vicino, soprattutto dopo aver partecipato al TEDx a Trento. Mi piacerebbe sapere cosa ne pensate voi. Se non siete ancora iscritti al podcast, vi invito a farlo per continuare a esplorare insieme come Internet ci cambia. Grazie per avermi ascoltato!

I contenuti dell'Episodio #292
Ciao Internet, sono Matteo Flora e in questo episodio affrontiamo il complesso rapporto tra YouTube e l'advertising, un tema che abbiamo già esplorato in passato con l'adpocalypse. Analizziamo come l'intelligenza artificiale abbia cercato di risolvere i problemi legati ai contenuti inappropriati, ma senza successo, e discutiamo le recenti controversie che hanno spinto grandi investitori a ritirare i loro fondi dalla piattaforma. Infine, esploriamo possibili soluzioni per migliorare il controllo sui contenuti pubblicitari.