Immagini di bambini affamati, spose bambine in lacrime e vittime di violenza popolano le campagne di raccolta fondi di molte ONG. Ma c'è un problema: queste immagini sono false, create da intelligenze artificiali. Questo fenomeno, noto come "poverty porn" 2.0, sta sollevando questioni etiche e tecnologiche. Le ONG utilizzano queste immagini sintetiche per evitare problemi legali e ridurre i costi, ma a quale prezzo? La fiducia del pubblico è a rischio quando la realtà viene manipolata per suscitare empatia e raccogliere fondi.
L'utilizzo di immagini generate dall'IA non solo solleva questioni di autenticità, ma amplifica anche i pregiudizi culturali. Modelli di intelligenza artificiale, addestrati su narrazioni stereotipate, producono immagini che perpetuano cliché razziali e colonialisti. Questo crea un circolo vizioso: le immagini stereotipate alimentano nuovi modelli IA, che a loro volta generano ulteriori immagini distorte. La mancanza di regolamentazione in questo settore favorisce chi agisce senza scrupoli, minando la fiducia nel fotogiornalismo e nell'attivismo basato sui fatti.
Il problema non si limita alle piccole organizzazioni. Anche grandi enti come le Nazioni Unite e Plan International sono caduti nella trappola, utilizzando immagini false per campagne di sensibilizzazione. Questo approccio rischia di desensibilizzare il pubblico, rendendo difficile distinguere tra dolore reale e simulato. La fiducia, un asset cruciale per le ONG, è in pericolo, e l'uso di immagini false potrebbe portare a una crisi di autenticità nel settore della beneficenza, simile a quella già vissuta dal giornalismo con i titoli clickbait.
In questa Puntata
Le immagini strazianti che vediamo online sono reali o create dall'IA? Scopri il lato oscuro del "poverty porn" 2.0.