L'OMERTÀ DI CHATGPT: quando la AI è più etica dei suoi Manager... #1532

Ciao Internet su Ciao Internet con Matteo Flora del 23.02.2026

Copertina del video: L'OMERTÀ DI CHATGPT: quando la AI è più etica dei suoi Manager... #1532

In questa Puntata

Quando l'algoritmo è più etico dei manager, chi paga il prezzo? Scopri il lato oscuro della tech policy.
OpenAI aveva intercettato segnali di una futura tragedia in Canada, ma la burocrazia interna ha prevalso. Mesi prima di un mass shooting che ha causato 8 morti e 25 feriti, l'intelligenza artificiale aveva flegato conversazioni allarmanti. I dipendenti avevano sollecitato un intervento, ma la dirigenza, asservita a protocolli interni, ha deciso di non avvisare la polizia. Questo episodio solleva interrogativi cruciali sulla responsabilità etica delle aziende tech e sulla loro priorità nel proteggere entità legali piuttosto che vite umane.

Negli Stati Uniti, il principio del "duty to warn" obbliga i professionisti a rompere la confidenzialità in caso di minaccia imminente. Tuttavia, OpenAI, pur avendo accesso a informazioni critiche, ha scelto di non agire. Questa decisione riflette una tendenza pericolosa: l'uso della tecnologia per profitto, ma non per responsabilità. ChatGPT viene utilizzato come confidente da milioni di persone, e se assume il ruolo di un terapeuta, deve anche assumersi le responsabilità etiche corrispondenti.

La tragedia evidenzia un problema sistemico: la mentalità manageriale che antepone il rischio legale alla responsabilità morale. La tecnologia avanza, ma la nostra capacità di gestirla eticamente è in ritardo. Quando le decisioni umane, basate su protocolli interni, falliscono nel proteggere la vita umana, è chiaro che il problema non è l'intelligenza artificiale, ma la deficienza organizzativa. La responsabilità sociale non può essere un optional. Deve essere parte integrante del processo decisionale aziendale, altrimenti continueremo a pagare un prezzo troppo alto.