CHATGPT, UC*IDI QUEL SOLDATO! Le Guerre Algoritmiche, le Killer Weapons e la AI... #1512

Ciao Internet su Ciao Internet con Matteo Flora

Copertina del video: CHATGPT, UC*IDI QUEL SOLDATO! Le Guerre Algoritmiche, le Killer Weapons e la AI... #1512

In questa Puntata

L'episodio esplora l'uso emergente dell'intelligenza artificiale generativa nel settore militare, evidenziando come aziende come Anduril stiano sviluppando tecnologie per il controllo di droni da combattimento autonomi. Si analizzano le implicazioni etiche e strategiche di questi sviluppi, tra cui la disconnessione psicologica e l'automation bias, e si discute la necessità di un controllo umano significativo per prevenire una guerra algoritmica incontrollata.
In questo episodio, ho affrontato un tema cruciale e inquietante: l'integrazione dell'intelligenza artificiale generativa, simile a ChatGPT, nel settore militare. Aziende come Anduril stanno lavorando per utilizzare questi modelli per interpretare comandi vocali e coordinare sciami di droni autonomi. Il Pentagono ha già stanziato un budget di circa 14 miliardi di dollari per l'AI entro il 2026, coinvolgendo giganti tecnologici come Google, OpenAI e altri.

L'obiettivo dichiarato è ottimizzare la "kill chain", il processo che identifica ed elimina un bersaglio, rendendolo più rapido e letale. Tuttavia, molti esperti ritengono che i modelli attuali siano ancora troppo inaffidabili per il controllo diretto di armi letali. La mia preoccupazione principale è la disconnessione psicologica, un concetto che richiama la "banalità del male" di Hannah Arendt. L'idea che un atto di guerra possa diventare un'operazione amministrativa, grazie a una conferma sintetica, neutralizza il peso morale della decisione di uccidere.

Ho discusso anche dell'automation bias, la tendenza a fidarsi ciecamente dei sistemi automatizzati, e delle sue implicazioni per gli operatori umani che potrebbero non mettere in discussione gli ordini di un'AI. L'integrazione graduale dell'AI nella catena di comando potrebbe portare a un punto di non ritorno, creando un sistema di armi letali autonome senza una decisione formale.

La democratizzazione della tecnologia AI, con la sua natura open source, permette anche a Stati più piccoli o attori non statali di sviluppare armi autonome, ribaltando gli equilibri di potere e creando minacce asimmetriche. Questo solleva questioni di responsabilità: se un'AI commette un crimine di guerra, di chi è la colpa? Del programmatore, dell'operatore, del comandante o dell'azienda che ha costruito l'arma?

Ho sottolineato l'importanza di un controllo umano significativo su ogni azione letale e la necessità di trattati internazionali che regolino l'uso di armi autonome, simili a quelli per le armi nucleari e chimiche. Gli sviluppatori devono integrare valori umani ed etici fin dalle prime fasi della progettazione tecnologica e rifiutare progetti che escludano un controllo umano significativo.

In conclusione, affidare a un algoritmo la decisione ultima sulla vita e sulla morte non è un progresso tecnologico, ma un'abdicazione della nostra responsabilità etica. È fondamentale che la tecnologia aumenti la nostra umanità, piuttosto che delegarla.

🎙️ Ospite: Nessun ospite presente in questo episodio.