In questo episodio, esploro il crescente utilizzo di immagini generate dall'intelligenza artificiale da parte delle ONG per campagne di raccolta fondi, un fenomeno che ho chiamato "poverty porn 2.0". Queste immagini, che rappresentano povertà estrema e sofferenza umana, sono completamente artificiali e vengono utilizzate per attrarre finanziamenti senza incorrere nei costi e nelle complicazioni legali associate all'uso di immagini reali.
Le ragioni dietro questo trend sono principalmente economiche e pratiche: le immagini generate dall'AI non richiedono liberatorie e costano meno rispetto a quelle prodotte da fotoreporter sul campo. Tuttavia, ciò solleva un dilemma etico significativo: l'autenticità delle immagini e la fiducia nel messaggio delle ONG. Se le immagini sono false, ci si può fidare dei dati e dei report che queste organizzazioni forniscono?
Questo fenomeno non riguarda solo piccole ONG, ma anche grandi organizzazioni come Plan International e persino le Nazioni Unite, che hanno utilizzato immagini AI per rappresentare situazioni di violenza, ritirandole poi a causa delle polemiche. Il problema è che l'uso di queste immagini potrebbe desensibilizzare il pubblico, creando una spirale di scetticismo che danneggia l'intero settore umanitario.
Inoltre, la generazione di immagini basate su prompt che spesso replicano stereotipi razziali e colonialisti rischia di amplificare questi pregiudizi su scala globale. Questo fenomeno evidenzia un vuoto normativo: non esistono linee guida chiare sull'uso di media sintetici nel fundraising, lasciando spazio a un "far west" etico.
Il CEO di Freepik, Joaquin Abela, ha dichiarato che la responsabilità è dei clienti che acquistano queste immagini, evidenziando una mancanza di assunzione di responsabilità da parte delle piattaforme. Questo approccio mette in luce come il modello di business del marketing possa fungere da alibi per evitare responsabilità editoriali.
In conclusione, l'uso di immagini false per raccogliere fondi è una scorciatoia etica che rischia di compromettere la fiducia nel settore umanitario. È fondamentale sviluppare un sano scetticismo e riflettere sull'autenticità delle campagne che ci colpiscono emotivamente. La crisi dell'autenticità potrebbe portare a una crisi più ampia di fiducia e donazioni nel settore.
In questa Puntata
Le ONG e le organizzazioni umanitarie stanno utilizzando immagini generate dall'intelligenza artificiale per le loro campagne di raccolta fondi, sollevando questioni etiche e tecnologiche. Questo fenomeno, noto come "poverty porn 2.0", mette in discussione l'autenticità delle rappresentazioni di povertà e sofferenza, rischiando di minare la fiducia nel settore umanitario e amplificando stereotipi preesistenti.