Fermiamo in Parlamento le Macchine Killer

Ciao Internet su Ciao Internet con Matteo Flora del 04.12.2017

Copertina del video: 294. Fermiamo in Parlamento le Macchine Killer

I contenuti dell'Episodio #294

Ciao Internet! In questo episodio voglio affrontare un tema di grande importanza: i Sistemi d'Arma Automatici, o Automated Weapons Systems. Si tratta di tecnologie che permettono a un'intelligenza artificiale di prendere decisioni di vita o di morte senza intervento umano. Questa discussione si svolge mentre una mozione, proposta dal senatore Stefano Quintarelli, sta per essere discussa in sede parlamentare. Sono fermamente convinto che l'intelligenza artificiale non debba avere la capacità di decidere di uccidere un essere umano, e voglio condividere con voi perché questa è una battaglia cruciale per il nostro futuro.
Ciao Internet! Se mi segui da un po', sai che sono un grande sostenitore dell'intelligenza artificiale. Credo fermamente che rappresenti una delle più grandi rivoluzioni del nostro tempo, capace di portare benefici enormi alla nostra vita quotidiana. Proprio come una nuova rivoluzione industriale, l'IA può liberare l'essere umano da compiti ripetitivi e inutili, permettendoci di concentrarci su ciò che rende la nostra esistenza unica.

Oggi, però, voglio parlarvi di un tema che mi sta particolarmente a cuore: i Sistemi d'Arma Automatici, abbreviati AWS. Non parliamo di Amazon Web Services, ma di sistemi che consentono a un'intelligenza artificiale di prendere decisioni critiche riguardo alla vita umana, come sparare e uccidere, senza alcun intervento umano. È un argomento estremamente complesso e delicato, che richiede tutta la nostra attenzione.

In questi giorni, una mozione proposta dal senatore Stefano Quintarelli sta per essere discussa in sede parlamentare, e credo che sia di un'importanza straordinaria. La questione fondamentale riguarda se dovremmo permettere o meno a queste tecnologie di avere il potere di vita o di morte su di noi. Personalmente, sono dell'opinione che la risposta debba essere un fermo no. Anche gli esseri umani, con tutta la loro esperienza e capacità di giudizio, possono commettere errori terribili. Ricordiamo tutti il caso di "Collateral Murder", il filmato dell'elicottero Apache che sparava a un giornalista, scambiandolo per un nemico armato. Se un essere umano può sbagliare così gravemente, come possiamo fidarci di una macchina?

La proposta di Stefano Quintarelli mira a due obiettivi fondamentali: innanzitutto, promuovere una moratoria europea contro lo sviluppo e l'uso di questi sistemi d'arma automatici; in secondo luogo, impedire che ricerca e sviluppo di tali tecnologie avvengano sul territorio italiano. Penso che sia una causa per cui vale la pena combattere, perché ne va delle vite umane.

Vi invito a diffondere questo messaggio e a diventare parte attiva nel dibattito. È il momento di agire prima che sia troppo tardi. Grazie mille per avermi ascoltato e, come sempre, preparatevi a essere parte del cambiamento!