L'intelligenza artificiale generativa ha rivoluzionato la creazione di contenuti su YouTube, ma con il potenziale di ingannare gli spettatori. DreamTrack e DreamScreen, i nuovi servizi AI di YouTube, hanno portato a un cambio di policy significativo. Ora, i creatori devono dichiarare se i loro video contengono contenuti sintetici o alterati. La mancata disclosure può portare a severe penalità, tra cui la sospensione della monetizzazione o la rimozione del contenuto.
Non tutti i contenuti generati richiedono una dichiarazione. Filtri di bellezza o effetti visivi palesemente finti, come cavalcare un unicorno, non necessitano di segnalazione. Tuttavia, video promozionali che utilizzano contenuti sintetici o alterazioni che possono fuorviare gli spettatori devono essere chiaramente etichettati. YouTube ora dispone di strumenti per individuare e sanzionare chi non rispetta queste regole, proteggendo così l'integrità della piattaforma.
Il sistema di disclosure è volontario, ma serve principalmente come giustificazione per YouTube per applicare etichette obbligatorie o sanzioni. Non è un meccanismo per combattere le fake news, ma piuttosto un mezzo per responsabilizzare i creatori di contenuti. Chi utilizza l'intelligenza artificiale generativa deve essere consapevole dei rischi per evitare di compromettere il proprio canale e la propria capacità di monetizzare.
In questa Puntata
YouTube ti sta osservando: quanto è reale il video che stai guardando?