OpenAI aveva intercettato segnali di una futura tragedia in Canada, ma la burocrazia interna ha prevalso. Mesi prima di un mass shooting che ha causato 8 morti e 25 feriti, l'intelligenza artificiale aveva flegato conversazioni allarmanti. I dipendenti avevano sollecitato un intervento, ma la dirigenza, asservita a protocolli interni, ha deciso di non avvisare la polizia. Questo episodio solleva interrogativi cruciali sulla responsabilità etica delle aziende tech e sulla loro priorità nel proteggere entità legali piuttosto che vite umane.
Negli Stati Uniti, il principio del "duty to warn" obbliga i professionisti a rompere la confidenzialità in caso di minaccia imminente. Tuttavia, OpenAI, pur avendo accesso a informazioni critiche, ha scelto di non agire. Questa decisione riflette una tendenza pericolosa: l'uso della tecnologia per profitto, ma non per responsabilità. ChatGPT viene utilizzato come confidente da milioni di persone, e se assume il ruolo di un terapeuta, deve anche assumersi le responsabilità etiche corrispondenti.
La tragedia evidenzia un problema sistemico: la mentalità manageriale che antepone il rischio legale alla responsabilità morale. La tecnologia avanza, ma la nostra capacità di gestirla eticamente è in ritardo. Quando le decisioni umane, basate su protocolli interni, falliscono nel proteggere la vita umana, è chiaro che il problema non è l'intelligenza artificiale, ma la deficienza organizzativa. La responsabilità sociale non può essere un optional. Deve essere parte integrante del processo decisionale aziendale, altrimenti continueremo a pagare un prezzo troppo alto.
In questa Puntata
Quando l'algoritmo è più etico dei manager, chi paga il prezzo? Scopri il lato oscuro della tech policy.