Una truffa milionaria ha colpito un imprenditore utilizzando la voce e l'immagine del ministro Guido Crosetto, clonate tramite intelligenza artificiale. Questo caso evidenzia i pericoli crescenti legati all'uso improprio di tecnologie avanzate, capaci di replicare in tempo reale voci e immagini per ingannare le vittime. La facilità con cui è possibile creare deepfake solleva interrogativi sulla sicurezza e sulla necessità di nuove normative per contrastare tali frodi.
Attualmente, i reati di sostituzione di persona e truffa sono le principali fattispecie applicabili, ma l'introduzione di un reato specifico per i deepfake è ancora in discussione. Il problema non è solo legale: la diffusione di queste tecnologie richiede una maggiore consapevolezza pubblica e strumenti di verifica più sofisticati, come le tecniche di Audio Forensics, già utilizzate da alcune testate giornalistiche per autenticare le voci.
La responsabilità delle piattaforme digitali è cruciale. Alcune hanno iniziato a implementare sistemi di moderazione per impedire l'uso improprio delle immagini di personaggi pubblici, ma il bilanciamento tra sicurezza e libertà d'espressione rimane delicato. La prevenzione, attraverso l'educazione e la consapevolezza, è essenziale per proteggere le persone, soprattutto le più vulnerabili, da truffe sempre più sofisticate.
In questa Puntata
Truffe milionarie con la voce di Crosetto: quanto ci costa l'intelligenza artificiale?