CHATGPT, UC*IDI QUEL SOLDATO! Le Guerre Algoritmiche, le Killer Weapons e la AI... #1512

Ciao Internet su Ciao Internet con Matteo Flora del 25.02.2026

Copertina del video: CHATGPT, UC*IDI QUEL SOLDATO! Le Guerre Algoritmiche, le Killer Weapons e la AI... #1512

In questa Puntata

La guerra diventa algoritmica: chi decide quando un drone uccide? Scopri il futuro inquietante delle armi autonome.
Le aziende tecnologiche stanno sviluppando intelligenze artificiali capaci di coordinare sciami di droni da combattimento autonomi, trasformando la guerra in un processo sempre più automatizzato. Con un budget di 14 miliardi di dollari, il Dipartimento della Difesa degli Stati Uniti sta investendo massicciamente in questi sistemi, coinvolgendo giganti come Google e OpenAI. L'obiettivo è ottimizzare la "kill chain", rendendo il processo di identificazione e eliminazione di un bersaglio più veloce e letale. Tuttavia, la possibilità di affidare decisioni di vita o di morte a un algoritmo solleva preoccupazioni etiche significative.

La disconnessione psicologica e l'automation bias sono al centro del dibattito. L'integrazione dell'intelligenza artificiale nella catena di comando potrebbe portare a un'adesione cieca agli ordini automatizzati, riducendo il peso morale delle decisioni di uccidere. Questo fenomeno, studiato da Manzi e Parasuraman, evidenzia la tendenza umana a fidarsi dei sistemi automatizzati anche quando la logica suggerirebbe il contrario. La responsabilità delle azioni militari diventa sfumata, rendendo quasi impossibile assegnare colpe in caso di crimini di guerra commessi da macchine.

La proliferazione delle tecnologie open source potrebbe democratizzare l'accesso alle armi autonome, permettendo anche a stati più piccoli o attori non statali di sviluppare sistemi letali. Questo cambiamento potrebbe destabilizzare gli equilibri di potere globali, creando minacce asimmetriche e imprevedibili. La mancanza di una chiara catena di responsabilità rende complessa la giustizia internazionale, sollevando interrogativi su chi sia responsabile quando un'intelligenza artificiale commette un crimine di guerra.

Per affrontare queste sfide, è cruciale promuovere trattati internazionali che vietino lo sviluppo di armi autonome senza controllo umano significativo. Le aziende e gli sviluppatori devono integrare principi etici fin dalle prime fasi di progettazione, mentre i militari devono essere addestrati a mantenere un approccio critico verso le raccomandazioni dell'intelligenza artificiale. La guerra non dovrebbe essere trattata come un processo da ottimizzare, poiché ciò deresponsabilizza e allontana dalla sua terribile realtà umana. Affidare a un algoritmo la decisione ultima sulla vita e sulla morte non è un progresso, ma un'abdicazione della nostra responsabilità etica.