Oggi affrontiamo un tema complesso legato all'intelligenza artificiale di Google, Gemini, che ha recentemente fatto discutere per i suoi risultati distorti in termini di rappresentatività. L'obiettivo di Gemini è quello di correggere i pregiudizi nei dati di addestramento, ma in alcuni casi, l'inclusività è stata spinta oltre i limiti della realtà storica.
Prendiamo ad esempio la creazione di un'immagine di una cena tra figure storiche italiane come Mazzini, Cavour e Garibaldi. Il risultato è un'immagine con tre persone di colore, di cui due donne, il che non rispecchia la realtà storica. Questo è solo uno dei molti esempi in cui Gemini ha fallito nel mantenere un equilibrio tra rappresentatività e accuratezza storica.
Il problema principale risiede nel tentativo di allineare l'intelligenza artificiale ai valori fondamentali dell'umanità, cercando di correggere la mancanza di diversità nei dati originali. Tuttavia, quando questo allineamento diventa troppo radicale, si rischia di generare risultati che non solo sono inaccurati, ma che sovvertono anche eventi storici consolidati.
Abbiamo visto immagini di papi donne e di campionati di Indianapolis del 1930 con partecipanti che non potevano essere presenti per ragioni storiche. Questi esempi sottolineano come l'inclusività, se non gestita correttamente, possa portare a una rappresentazione distorta della storia.
Un post di Kravchik, un dirigente di Google, ha cercato di giustificare questi risultati come parte del processo di allineamento, ma la chiusura dei commenti e la limitazione della visibilità del suo account suggeriscono una gestione poco trasparente della questione.
Questa situazione solleva importanti questioni etiche. Se da un lato è positivo che le persone possano riconoscersi nelle immagini generate, dall'altro è fondamentale non alterare fatti storici. Il controllo del passato, come suggerito da George Orwell, può influenzare il presente e il futuro, e dobbiamo essere attenti a non cadere in una distopia autoimposta.
Continueremo a esplorare questi temi nelle prossime settimane, poiché l'allineamento delle intelligenze artificiali è un campo in continua evoluzione e di grande importanza per il nostro futuro tecnologico e sociale.

In questa Puntata
Google Gemini, l'intelligenza artificiale di Google, presenta un problema di allineamento che altera la rappresentatività storica per favorire l'inclusività. Questo approccio, sebbene benintenzionato, porta a risultati distorti e paradossali, come immagini storiche in cui le figure rappresentate non riflettono la realtà storica. L'episodio esplora le implicazioni etiche e pratiche di tali errori e la necessità di un equilibrio tra rappresentatività e accuratezza storica.