Il governo australiano ha affidato a Deloitte, una delle più prestigiose società di consulenza al mondo, l'incarico di realizzare un report critico sul sistema informatico delle sanzioni ai disoccupati, per un valore di 440 mila dollari. Le conclusioni del report erano pesanti, delineando un sistema difettoso e basato su presupposti punitivi. Tuttavia, un accademico, Christopher Raggio, ha scoperto che il report conteneva fonti inesistenti, citazioni di professori che non avevano mai scritto gli articoli menzionati e persino sentenze inventate.
Deloitte ha successivamente ammesso di aver utilizzato un modello di intelligenza artificiale generativa, OpenAI GPT-4.0 tramite Azure, per produrre parti del documento. Questa ammissione è stata vista come una toppa peggiore del buco, poiché ha sollevato dubbi sulla validità del documento originale e ha portato Deloitte a restituire parte del compenso al governo.
Il problema principale non risiede nell'uso dell'intelligenza artificiale, che può essere uno strumento utile se usato correttamente, ma nell'abdicazione della responsabilità intellettuale. Deloitte è stata pagata per la sua competenza e verifica, non per un semplice abbonamento a un modello di AI. Questo caso evidenzia un classico esempio di "automation bias", dove ci si fida ciecamente dei risultati generati da sistemi automatizzati senza una verifica critica.
La questione solleva importanti interrogativi sulla validità del lavoro consulenziale e sulla necessità di protocolli chiari per l'uso dell'intelligenza artificiale negli appalti pubblici. È fondamentale garantire trasparenza e responsabilità nell'uso di queste tecnologie, poiché un'informazione plausibile non è equivalente a un'informazione vera. Questo incidente potrebbe avere ripercussioni su altri settori, come la medicina o l'ingegneria, se non si interviene con misure adeguate.
Infine, il caso di Deloitte rappresenta un campanello d'allarme per la necessità di sviluppare competenze critiche nella verifica delle informazioni prodotte dalle macchine. L'intelligenza artificiale non sostituisce il pensiero critico, ma lo amplifica. La verifica umana rimane l'unica vera rete di sicurezza.
In questa Puntata
Un report commissionato dal governo australiano a Deloitte, del valore di 440 mila dollari, viene scoperto essere basato su fonti inventate generate da un'intelligenza artificiale. Questo episodio solleva importanti questioni sulla responsabilità e la validità del lavoro consulenziale, evidenziando un problema sistemico di affidamento cieco alla tecnologia senza un'adeguata verifica umana.