L'intelligenza artificiale è al centro di una rivoluzione industriale che promette di trasformare la nostra vita quotidiana, portando più benefici che problemi. Tuttavia, una mozione presentata dal senatore Stefano Quintarelli solleva una questione cruciale: l'uso di Sistemi d'Arma Automatici (AWS), dove l'IA potrebbe decidere autonomamente di togliere la vita senza intervento umano. Questo tema complesso ha già catalizzato l'attenzione a livello europeo, con esperti che si interrogano sulle implicazioni etiche e morali di affidare a una macchina decisioni di vita o di morte.
Un video virale ha recentemente mostrato un mini drone che, con una carica esplosiva, elimina un bersaglio umano. Sebbene si tratti di una simulazione, la tecnologia non è lontana dalla realtà. La questione centrale è se l'IA debba avere la facoltà di uccidere. Episodi come il "Collateral Murder", dove un errore umano ha portato alla morte di civili innocenti, sollevano dubbi sulla capacità delle macchine di distinguere tra minacce reali e innocenti. Se gli esseri umani possono sbagliare, come possiamo fidarci di una macchina?
La proposta di Quintarelli invita il governo italiano a promuovere una moratoria europea sui Sistemi d'Arma Automatici e a vietare la ricerca e lo sviluppo di tali tecnologie sul territorio nazionale. L'obiettivo è prevenire tragedie causate da errori di macchine che, a differenza degli esseri umani, non possono comprendere le sfumature morali di una decisione di vita o di morte. La posta in gioco è alta: la salvaguardia delle vite umane in un mondo sempre più dominato dalla tecnologia.
In questa Puntata
"Sistemi d'Arma Automatici: l'IA può decidere chi vive e chi muore?"