L'intelligenza artificiale rappresenta una delle più grandi rivoluzioni della nostra epoca, promettendo benefici significativi per la società. Tuttavia, sorgono questioni etiche quando si parla di Automated Weapons Systems (AWS), o Sistemi d'Arma Automatici, che permettono a un'intelligenza artificiale di decidere autonomamente di utilizzare la forza letale. In questi giorni, una mozione proposta dal senatore Stefano Quintarelli sarà discussa in sede parlamentare, sottolineando l'urgenza di affrontare questo tema.
I Sistemi d'Arma Automatici sollevano preoccupazioni significative, poiché permettono a un'IA di prendere decisioni cruciali sulla vita umana senza intervento umano. Un esempio inquietante è una campagna virale che mostra un mini drone capace di selezionare un bersaglio e colpire con precisione letale. Anche se attualmente si tratta di simulazioni, la realtà tecnologica non è lontana da questa possibilità.
La questione centrale è se le intelligenze artificiali debbano avere la capacità di uccidere. Gli esseri umani stessi commettono errori, come dimostrato dal noto incidente "Collateral Murder", in cui un elicottero Apache ha erroneamente colpito un giornalista. Affidare decisioni di vita o di morte a una macchina, che potrebbe essere altrettanto fallibile, è un rischio inaccettabile.
La proposta di Stefano Quintarelli mira a promuovere una moratoria europea sui Sistemi d'Arma Automatici e a impedire lo sviluppo e la ricerca di queste tecnologie in Italia. È fondamentale che il governo italiano partecipi attivamente a queste iniziative per proteggere vite umane e prevenire errori fatali causati da macchine.

In questa Puntata
L'episodio esplora il dibattito sull'uso dei Sistemi d'Arma Automatici (AWS), che consentono a un'intelligenza artificiale di decidere autonomamente di utilizzare la forza letale. Viene sottolineata l'importanza di una moratoria europea e di una regolamentazione nazionale per prevenire lo sviluppo e l'uso di queste tecnologie, evidenziando i rischi etici e morali associati.