Il governo australiano ha affidato a Deloitte un incarico da 440 mila dollari per un'analisi critica del sistema informatico delle sanzioni ai disoccupati. Il report, pur criticando duramente il sistema, è stato smascherato per aver incluso fonti inesistenti e sentenze inventate. La scoperta di Christopher Raggio ha portato alla luce l'utilizzo di OpenAI GPT-4.0 per generare parti del documento, sollevando dubbi sulla validità delle conclusioni e sulla responsabilità intellettuale dei consulenti.
La vicenda evidenzia un problema sistemico: la fiducia cieca nell'automazione. Deloitte, invece di verificare e validare le informazioni, ha confezionato un prodotto di bassa qualità, dimostrando un preoccupante "automation bias". Questo incidente solleva interrogativi sulla sostenibilità del modello di consulenza tradizionale e sulla necessità di protocolli chiari per l'uso dell'intelligenza artificiale negli appalti pubblici, esigendo trasparenza e accountability.
L'episodio mette in luce un rischio più ampio per la società: la normalizzazione di informazioni plausibili come equivalenti a quelle vere, un fenomeno che potrebbe portare a una crisi epistemica di massa. La verifica umana diventa quindi essenziale, non solo nel giornalismo ma in ogni ambito professionale, per garantire che le decisioni basate su dati e analisi siano fondate su basi solide e verificate. La storia di Deloitte è un avvertimento per tutti: l'intelligenza artificiale deve essere un amplificatore del pensiero critico, non un sostituto.
In questa Puntata
Deloitte usa l'AI per un report e inventa fonti. Quando la consulenza diventa copia e incolla?