Google Gemini, l'intelligenza artificiale di Google, è al centro di una controversia per la sua rappresentazione distorta della storia in nome dell'inclusività. Quando si tenta di creare immagini storiche, come una cena tra figure del Risorgimento italiano, il risultato è spesso una rappresentazione inaccurata, come l'apparizione di donne svedesi o figure di colore al posto di personaggi storici bianchi. Questo solleva interrogativi sull'accuratezza e sull'etica nell'allineamento delle AI, dove l'inclusività rischia di sovvertire fatti storici consolidati.
La questione dell'allineamento dell'intelligenza artificiale, che dovrebbe correggere i pregiudizi nei dati di addestramento, si trova a un bivio critico. Mentre l'intento di promuovere la diversità è lodevole, la sua applicazione maldestra porta a risultati che sfidano la logica e la veridicità storica. Esempi emblematici includono immagini di papi donne o partecipanti di colore a eventi storici dove non erano presenti, come il campionato di Indianapolis del 1930. La mancanza di un equilibrio tra rappresentatività e accuratezza storica evidenzia un problema fondamentale nell'approccio di Google Gemini.
Le reazioni non si sono fatte attendere, con critiche che sottolineano l'inefficacia di politiche di inclusione forzate che ignorano contesti storici. La chiusura dei commenti da parte di dirigenti di Google su piattaforme social suggerisce un imbarazzo crescente. Questo caso mette in luce la necessità di un approccio più ponderato e contestualizzato nell'allineamento delle AI, per evitare di cancellare o riscrivere in modo improprio la memoria storica. L'equilibrio tra inclusività e verità storica rimane una sfida aperta per il futuro delle tecnologie AI.
In questa Puntata
Google Gemini riscrive la storia: inclusività o errore clamoroso?