Le intelligenze artificiali etiche affrontano il loro momento più critico quando i principi morali si scontrano con contratti miliardari. Antropic, azienda valutata a 380 miliardi di dollari, rischia di perdere un contratto da 200 milioni con il Pentagono per la sua intelligenza artificiale Claude. Nonostante le promesse di un'IA responsabile, l'azienda si trova sotto pressione per rimuovere i limiti etici dal suo modello, in particolare riguardo alla sorveglianza di massa e alle armi autonome. Il dilemma etico si intensifica quando Claude, integrata con le tecnologie di Palantir, viene già utilizzata in operazioni militari, come la cattura di Maduro in Venezuela.
Il problema del dual use, in cui una tecnologia può essere utilizzata sia per scopi benefici che dannosi, è al centro della questione. L'etica tecnologica si scontra con la realtà economica e militare, dove i confini tra uso civile e militare si fanno sempre più sfumati. La pressione del Pentagono sui laboratori di AI, inclusi Google e OpenAI, per ottenere carta bianca sull'uso militare, solleva interrogativi sulla sostenibilità dei principi etici dichiarati. Antropic si trova di fronte a un bivio: cedere, perdere il contratto o negoziare compromessi che potrebbero rendere i suoi principi etici carta straccia.
Il caso Antropic rappresenta un esempio lampante del paradosso dell'innovazione tecnologica responsabile. Quanto più potente diventa uno strumento, tanto più diventa indispensabile per attori che potrebbero non condividere gli stessi valori etici. Le scelte di oggi potrebbero portare a una normalizzazione graduale dell'uso delle AI in contesti militari, spostando la finestra di Overton e ponendo nuove sfide morali per il futuro. La vera sfida è mantenere l'integrità etica in un contesto dove il potere economico e politico può facilmente dettare le regole del gioco.
In questa Puntata
Le macchine uccidono, ma quanto costa davvero l'etica quando il Pentagono bussa alla porta con 200 milioni?