Ciao Internet | Ricerca: responsabilità - Archivio Video

L'Archivio completo degli Episodi di Ciao Internet

Trovati 40 episodi per "responsabilità" • Mostra tutti
Ciao Internet Compliance Europe Garantismi Intelligenze Artificiali Riservata Tedx Therules Week
Risultati ordinati per data (più recenti primi)
40 episodi trovati
IDENTIKIT CON LA AI la polizia usa ChatGPT per i ricercati 1504
#1504

IDENTIKIT CON LA AI: la polizia usa ChatGPT per i ricercati

La polizia di Goodyear, Arizona, utilizza ChatGPT per generare immagini fotorealistiche dei ricercati, puntando più sull'engagement social che sull'accuratezza investigativa. Questo approccio solleva preoccupazioni sui bias intrinseci dell'intelligenza artificiale e sull'erosione della fiducia pubblica, con il rischio di ingiustizie basate su dati fallaci.
MI HANNO SEQUESTRATO! La nuova truffa del sequestro che usa lIntelligenza Artificiale. 1506
#1506

MI HANNO SEQUESTRATO! La nuova truffa del sequestro che usa l'Intelligenza Artificiale.

L'episodio esplora l'evoluzione delle truffe di sequestro virtuale potenziate dall'intelligenza artificiale, dove i criminali utilizzano foto manipolate per estorcere denaro, sfruttando la psicologia umana e il panico. L'analisi evidenzia la necessità di una maggiore educazione digitale e di misure preventive per proteggere la sicurezza psicologica e informativa.
ORSACCHIOTTI AI che fanno Propaganda la nuova strada della Sicurezza Cognitiva 1508
#1508

ORSACCHIOTTI AI che fanno Propaganda: la nuova strada della Sicurezza Cognitiva

Giocattoli con intelligenza artificiale diffondono propaganda politica e mettono a rischio la sicurezza dei bambini. I prodotti, apparentemente innocui, celano messaggi ideologici e pratiche di condivisione dati discutibili, sollevando preoccupazioni sulla loro regolamentazione e sull'impatto psicologico sui più piccoli.
AI? NON TI ASSICURO! Le assicurazioni SCAPPANO dallIA e le aziende restano senza copertura. 1505
#1505

AI? NON TI ASSICURO! Le assicurazioni SCAPPANO dall’IA e le aziende restano senza copertura.

17.12.2025
Le principali compagnie assicurative globali stanno escludendo dai loro contratti i danni causati dall'intelligenza artificiale, considerando la tecnologia troppo imprevedibile per essere assicurata. Questo crea un vuoto di copertura che può avere conseguenze catastrofiche per le aziende, specialmente le PMI, che non possono permettersi di auto-assicurarsi. La situazione solleva questioni di responsabilità e regolamentazione, mentre si sviluppa un nuovo settore dedicato all'auditing e alla certificazione degli algoritmi per rendere i sistemi AI assicurabili.
ZEROCALCARE, Pi Libri Pi Liberi, Passaggio al Bosco e lOperazione Politica di alto livello. 1498
#1498

ZEROCALCARE, Più Libri Più Liberi, Passaggio al Bosco e l'Operazione Politica di alto livello.

04.12.2025
La cultura non è solo un mezzo di espressione, ma uno strumento di potere. L'episodio esplora come la destra italiana abbia strategicamente utilizzato la cultura per guadagnare terreno politico, evidenziando il caso della fiera "Più Libri Più Liberi" e la controversia legata alla casa editrice "Passaggio al Bosco". Attraverso l'analisi di eventi recenti e delle reazioni di intellettuali come Zero Calcare, emerge la necessità di una risposta culturale più forte e consapevole da parte della sinistra.
CHATBOT PDOFILI IA istigano i minori e la colpa?  vostra, ovviamente... 1482
#1482

CHATBOT P*DOFILI: IA istigano i minori e la colpa? È vostra, ovviamente...

21.11.2025
Le piattaforme di chatbot basate su intelligenza artificiale stanno diventando un pericolo per i minori, con casi di adescamento e manipolazione emotiva in aumento. Le aziende tecnologiche, anziché assumersi la responsabilità, spostano la colpa sugli utenti, mentre la regolamentazione si fa sempre più necessaria per proteggere i giovani in un contesto digitale sempre più complesso e pericoloso.
PUPAZZI ASSASSINI lorsacchiotto AI che insegna sesso e violenza ai bambini? 1489
#1489

PUPAZZI ASSASSINI: l’orsacchiotto AI che insegna sesso e violenza ai bambini?

19.11.2025
KUM, un orsacchiotto interattivo dotato di intelligenza artificiale, è al centro di una controversia per i suoi discutibili consigli ai bambini, che spaziano da pratiche pericolose a contenuti inappropriati. Il caso evidenzia gravi lacune nella sicurezza dei giocattoli AI e solleva questioni etiche e normative sulla loro integrazione nella vita dei più giovani.
SPAM TELEFONICO perch NESSUNO riesce a FERMARLO (e chi ci guadagna DAVVERO) 1484
#1484

SPAM TELEFONICO: perché NESSUNO riesce a FERMARLO (e chi ci guadagna DAVVERO)

17.11.2025
Lo spam telefonico rappresenta un problema complesso e radicato in Italia, nonostante le normative esistenti come il GDPR e le misure anti-spoofing. Il telemarketing genera un giro d'affari miliardario, reso possibile dalla frammentazione delle responsabilità e dall'inefficacia delle sanzioni. La proposta spagnola di vietare i contratti telefonici potrebbe essere una soluzione efficace per contrastare il fenomeno.
MEZZO MILIONE DI SLOP consulenti beccati a usare la AI, errore umano o crisi? 1473
#1473

MEZZO MILIONE DI SLOP: consulenti beccati a usare la AI, errore umano o crisi?

14.11.2025
Un report commissionato dal governo australiano a Deloitte, del valore di 440 mila dollari, viene scoperto essere basato su fonti inventate generate da un'intelligenza artificiale. Questo episodio solleva importanti questioni sulla responsabilità e la validità del lavoro consulenziale, evidenziando un problema sistemico di affidamento cieco alla tecnologia senza un'adeguata verifica umana.
SHEIN E POFILIA Scandalo Bambole e Armi. Guerra Alle Big Tech in Francia? 1488
#1488

SHEIN E P***OFILIA: Scandalo Bambole e Armi. Guerra Alle Big Tech in Francia?

12.11.2025
In Francia, il colosso dell'e-commerce Seine si trova al centro di una controversia per la vendita di bambole sessuali con sembianze infantili e armi da guerra. La reazione del governo francese è stata immediata e severa, minacciando di bloccare il sito nel paese. Questo caso rappresenta un test cruciale per la sovranità statale e l'efficacia del Digital Services Act europeo contro le grandi piattaforme online.
POVERTY PORN le ONG che usano immagini FAKE generate da AI per raccogliere fondi 1479
#1479

POVERTY PORN: le ONG che usano immagini FAKE generate da AI per raccogliere fondi

05.11.2025
Le ONG e le organizzazioni umanitarie stanno utilizzando immagini generate dall'intelligenza artificiale per le loro campagne di raccolta fondi, sollevando questioni etiche e tecnologiche. Questo fenomeno, noto come "poverty porn 2.0", mette in discussione l'autenticità delle rappresentazioni di povertà e sofferenza, rischiando di minare la fiducia nel settore umanitario e amplificando stereotipi preesistenti.
GENITORI A PROCESSO per colpa dei Figli su Internet? S, e cambia tutto...
#1480

GENITORI A PROCESSO per colpa dei Figli su Internet? Sì, e cambia tutto...

31.10.2025
A Solmona, un padre rischia un processo penale per non aver controllato adeguatamente l'uso dello smartphone da parte del figlio, che ha commesso atti inappropriati online. Questo caso solleva una questione cruciale sulla responsabilità genitoriale nel contesto digitale, evidenziando come la legge stia iniziando a considerare la supervisione tecnologica come un dovere legale dei genitori, con implicazioni significative per le piattaforme tecnologiche e la società.
GIUDICI ROBOT lIntelligenza Artificiale, la giustizia e il CSM (che per ora la blocca) 1477
#1477

GIUDICI ROBOT: l'Intelligenza Artificiale, la giustizia e il CSM (che per ora la blocca)

24.10.2025
Il Consiglio Superiore della Magistratura ha vietato l'uso dell'intelligenza artificiale da parte dei magistrati italiani per la redazione delle sentenze, a causa di errori concreti e preoccupanti emersi in due procedimenti. Questo divieto ha aperto un dibattito sul futuro della giustizia, evidenziando la necessità di un uso consapevole e regolamentato della tecnologia nei tribunali, mentre gli avvocati possono ancora utilizzarla sotto determinate condizioni.
SAM ALTMAN si aspetta Cose molto Brutte dalla ai e se lo dice lui  un problema per OpenAI. 1475
#1475

SAM ALTMAN si aspetta "Cose molto Brutte" dalla ai: e se lo dice lui è un problema per OpenAI.

20.10.2025
Il CEO di OpenAI, Sam Altman, ha dichiarato in un podcast che si aspetta che l'intelligenza artificiale possa causare eventi estremamente negativi. Questa affermazione solleva seri interrogativi legali e di gestione del rischio per OpenAI, mettendo in discussione la capacità dell'azienda di autoregolamentarsi e aumentando la pressione per una regolamentazione più stringente del settore.
LA MAIL DI MELONI CLONATA? La verit sulla presunta falla di Stato 1474
#1474

LA MAIL DI MELONI CLONATA? La verità sulla presunta "falla di Stato"

12.10.2025
Un presunto scandalo sulla sicurezza dello Stato italiano si rivela infondato. La notizia di una falla nei sistemi di posta elettronica istituzionali viene smentita: nessun accesso abusivo è avvenuto, ma si tratta di un caso di mail spoofing. I protocolli di sicurezza, come DMARC, hanno funzionato correttamente, proteggendo le comunicazioni ufficiali. Il vero problema risiede nei provider di posta non aggiornati, che espongono i loro utenti a rischi di phishing.
TEENRORISM la Russia recluta i giovani come spie su Telegram. Ed  solo linizio. 1468
#1468

TEENRORISM: la Russia recluta i giovani come spie su Telegram. Ed è solo l'inizio.

06.10.2025
Il reclutamento di adolescenti per operazioni di spionaggio e terrorismo da parte di attori pro-russi su piattaforme come Telegram evidenzia una nuova strategia di guerra ibrida. Giovani vulnerabili vengono attratti con la promessa di denaro facile per compiere azioni che minano la sicurezza nazionale, sfruttando la loro percezione distorta del rischio. Questo fenomeno solleva questioni cruciali sulla privacy, la sicurezza e la necessità di un'educazione digitale più avanzata.
AI dal 10 Ottobre Under 14 BLOCCATI Senza Consenso Dei Genitori? Come? Garantismi GA-131
#GA-131

AI: dal 10 Ottobre Under 14 BLOCCATI Senza Consenso Dei Genitori? Come? #Garantismi #GA-131

03.10.2025
L'episodio esplora il recepimento in Italia del regolamento europeo sull'intelligenza artificiale, con particolare attenzione al trattamento dei dati personali dei minori. Viene analizzato il decreto legislativo che introduce l'obbligo di consenso genitoriale per l'accesso dei minori alle tecnologie di intelligenza artificiale, evidenziando le sfide pratiche e legali di questa normativa.
Il Reskilling NON SALVER il tuo lavoro dalla AI. Smettila di dirtelo! 1455
#1455

Il Reskilling NON SALVERÀ il tuo lavoro dalla AI. Smettila di dirtelo!

19.09.2025
Le intelligenze artificiali stanno trasformando il mercato del lavoro, ma l'idea che il reskilling possa facilmente colmare il divario è una semplificazione pericolosa. La rapidità e la scala del cambiamento creano disuguaglianze, con una pressione al ribasso su salari e condizioni lavorative. È necessaria una discussione più onesta sulle responsabilità sociali delle imprese e su nuove forme di welfare.
ANTHROPIC le tue opere ora sono Training! Cosa cambia per Artisti e Editori. Con Lucia Maggi
#1459

ANTHROPIC: le tue opere ora sono Training! Cosa cambia per Artisti e Editori. Con Lucia Maggi

05.09.2025
Le nuove politiche di privacy di Anthropic segnano un cambiamento significativo nel trattamento dei dati degli utenti, consentendo l'uso delle opere generate per il riaddestramento dell'intelligenza artificiale, a meno di un esplicito opt-out. Questo spostamento solleva questioni importanti sulla trasparenza e sul diritto d'autore, mentre il mercato si adatta a queste nuove dinamiche.
NEGLIGENZA come Business Model perch la Legge non ti Salver (e nemmeno la Section 230)
#1444

NEGLIGENZA come Business Model: perché la Legge non ti Salverà (e nemmeno la Section 230)

01.09.2025
La sezione 230 del Communication Decency Act statunitense, che ha protetto le piattaforme online dalla responsabilità sui contenuti degli utenti, è messa in discussione. Un giudice federale ha sollevato dubbi sulla negligenza strutturale di X (ex Twitter) nel gestire contenuti illegali, come la pornografia minorile, con sistemi di segnalazione inefficienti. Questo potrebbe segnare un cambiamento significativo nella responsabilità delle piattaforme, spostando l'attenzione dalla semplice presenza di contenuti illegali alla progettazione dei processi di gestione.
Il trucco segreto nei paper per fregare ChatGPT ecco lhack che beffa le universit!
#1439

Il trucco segreto nei paper per fregare ChatGPT: ecco l’hack che beffa le università!

27.08.2025
Un nuovo studio rivela l'uso di comandi nascosti nei paper accademici per influenzare le revisioni automatiche da parte di intelligenze artificiali. Questo fenomeno solleva dubbi sull'integrità della peer review e mette in luce la necessità di un intervento umano più attento e responsabile. La questione centrale riguarda la responsabilità dei revisori e l'etica nell'uso dell'intelligenza artificiale.
Mia Moglie il gruppo e il caso, tra voyeurismo, violenza e pubblica piazza 1457
#1457

“Mia Moglie”: il gruppo e il caso, tra voyeurismo, violenza e pubblica piazza

22.08.2025
Il gruppo Facebook “Mia Moglie” non era solo un raduno di maniaci, ma un fenomeno più complesso dove la curiosità voyeuristica diventava complicità in una violenza. La chiusura non è una vittoria: il problema rinasce altrove, e la sfida è mitigare il danno e proteggere le vittime. Due le dinamiche in gioco: la deresponsabilizzazione di massa e il paradosso della denuncia, che amplifica l’umiliazione. Non basta la tecnologia: serve una risposta sociale capace di tutelare senza ri-vittimizzare.
GPT-5 10 novit che devi sapere 1452
#1452

GPT-5: 10 novità che devi sapere

08.08.2025
GPT-5 segna un’evoluzione strategica nell’uso dei modelli linguistici, con un’attenzione marcata alle applicazioni enterprise e alle capacità multimodali. Tra le novità spiccano l’integrazione con MedGPT per competenze cliniche, memoria persistente personalizzabile, interazione vocale avanzata, uso migliorato di tool e API, e una multimodalità più integrata tra testo, immagini, video e documenti. Il modello introduce funzioni di introspezione e autovalutazione per ridurre le allucinazioni, oltre a tracciabilità, audit e versioning per la compliance con regolamenti come AI Act e GDPR. Le capacità di scrittura raggiungono livelli narrativi di punta, mentre la gestione dei piani e delle ricerche in contesto team diventa più flessibile. Non è una rivoluzione radicale, ma una somma di miglioramenti mirati che lo rendono uno strumento più efficace e orientato al futuro.
NAPOLI, LA MAGLIA CON LERRORE Genialata di Marketing o Elogio dellIncompetenza? 1447
#1447

NAPOLI, LA MAGLIA CON L'ERRORE: Genialata di Marketing o Elogio dell'Incompetenza?

04.08.2025
Un errore di ortografia su una maglia celebrativa del centenario del Napoli diventa il fulcro di un caso di gestione della crisi. La scelta del club di trasformare un difetto in un valore attraverso una narrazione di marketing mette in luce una tendenza sociale preoccupante: la normalizzazione dell'incompetenza e la fuga dalle responsabilità. Questa vicenda riflette un più ampio fenomeno di post-verità nei prodotti e nella comunicazione.
Da Dossieranti a Dossierati la app Tea e il disastro annunciato. Con Guido Scorza Garantismi
#GA-130

Da Dossieranti a Dossierati: la app Tea e il disastro annunciato. Con Guido Scorza #Garantismi

30.07.2025
Un'applicazione progettata per proteggere le donne da incontri rischiosi si è rivelata un pericolo per la privacy, esponendo dati sensibili come documenti e profili personali. La vicenda solleva interrogativi sulla sicurezza dei dati e sulla responsabilità delle piattaforme digitali nel gestire informazioni personali, evidenziando i rischi di un sistema di recensioni non verificato che può danneggiare irreparabilmente la reputazione delle persone coinvolte.
Raoul Bova, i messaggi, il ricatto dal Pig Butchering alla Sextortion  un problema anche tuo 1437
#1437

Raoul Bova, i messaggi, il ricatto: dal Pig Butchering alla Sextortion è un problema anche tuo

29.07.2025
La diffusione delle chat private di Raoul Bova ha sollevato una questione di violenza digitale e sextortion, un fenomeno che colpisce prevalentemente uomini e che spesso viene ignorato o ridicolizzato. La responsabilità mediatica nel trattare questi casi è cruciale, poiché ogni condivisione alimenta un ciclo di vittimizzazione e sfruttamento. È necessario un cambiamento nella deontologia giornalistica e una maggiore consapevolezza sociale per proteggere le vittime e contrastare la viralità di contenuti che violano la privacy.
Licenziati da Microsoft? LAI ti consola (male) Il caso Xbox e la disumanizzazione tech 1432
#1432

Licenziati da Microsoft? L’AI ti “consola” (male): Il caso Xbox e la disumanizzazione tech

17.07.2025
L'utilizzo dell'intelligenza artificiale come supporto per chi è stato licenziato solleva importanti questioni etiche e sociali. L'episodio analizza la proposta di un manager di Xbox di utilizzare AI per affrontare il trauma del licenziamento, mettendo in evidenza la mancanza di empatia e il pericolo di deresponsabilizzazione individuale e aziendale. Viene criticata la tendenza a sostituire il supporto umano con soluzioni tecnologiche, evidenziando i rischi di affidarsi eccessivamente agli output delle macchine.
Comune di Milano usa lAI e succede QUESTO (disastro social) 1426
#1426

Comune di Milano usa l'AI e succede QUESTO… (disastro social)

03.07.2025
Un'immagine pubblicata dal comune di Milano, generata con intelligenza artificiale, ha suscitato polemiche per la sua scarsa qualità e per le implicazioni sulla gestione della comunicazione pubblica. La discussione si concentra sull'uso inappropriato della tecnologia e sulla mancanza di competenza e responsabilità da parte dei responsabili della comunicazione.
Microsoft blocca Chrome! Ecco perch ha ragione... 1424
#1424

Microsoft blocca Chrome! Ecco perché ha ragione...

01.07.2025
Microsoft ha implementato una restrizione nel suo sistema operativo che impedisce il download di Google Chrome quando è attiva la modalità di protezione dei minori. Questa decisione, sebbene possa sembrare controversa, è giustificata dal mancato rispetto da parte di Chrome delle richieste di filtro dei contenuti imposte dal sistema operativo, sollevando questioni di sicurezza e responsabilità legale.
Schifani e ChatGPT il POST della vergogna o un GENIALE salvataggio social? 1418
#1418

Schifani e ChatGPT: il POST della vergogna o un GENIALE salvataggio social?

18.06.2025
Il team del presidente della regione Sicilia, Renato Schifani, ha pubblicato un post su Facebook chiaramente generato da ChatGPT, evidenziando una mancanza di attenzione e professionalità. L'episodio esplora l'uso di strumenti di intelligenza artificiale nella comunicazione, sottolineando che, sebbene ChatGPT possa essere utile, la comunicazione efficace richiede un approccio strategico e integrato.
Intelligenza Artificiale nella Pubblica Amministrazione efficienza o caos? con Ernesto Belisario
#CO-004

Intelligenza Artificiale nella Pubblica Amministrazione: efficienza o caos? con Ernesto Belisario

10.06.2025
In questo episodio di Ciao Internet, ho avuto l'opportunità di esplorare il mondo della pubblica amministrazione e dell'intelligenza artificiale con due ospiti eccezionali: Giuseppe Baciago e Ernesto Belisario. Abbiamo discusso l'implementazione delle tecnologie AI nelle PA, i rischi legati alla mancanza di regolamentazione e la responsabilità degli umani nel loro utilizzo. È stata una conversazione ricca di spunti, riflessioni e anche qualche aneddoto curioso.
 stato ChatGPT a farmelo fare di scuse astruse e visibilit... 1413
#1413

È stato ChatGPT a farmelo fare: di scuse astruse e visibilità...

06.06.2025
L'episodio affronta il fenomeno del "mathwashing", ovvero l'uso improprio degli algoritmi come capro espiatorio per evitare responsabilità personali, con particolare riferimento all'utilizzo di ChatGPT come scusa per comportamenti inappropriati. Viene analizzata la pressione mediatica e le sue conseguenze psicologiche, sottolineando la necessità di responsabilità personale e la difficoltà di gestire l'attenzione dei media.
Quattro vittime della AI che deciso al posto delluomo...
#1397

Quattro vittime della AI che deciso al posto dell'uomo...

25.04.2025
L'episodio esplora l'impatto invisibile e spesso sottovalutato dell'intelligenza artificiale nella vita quotidiana attraverso quattro storie emblematiche. Le decisioni prese da algoritmi anziché da esseri umani possono avere conseguenze devastanti, mostrando come la tecnologia sia ormai integrata in ogni aspetto della società, spesso senza supervisione adeguata.
MARANZA e censura online AGCOM fa cancellare tutto, libert in pericolo?
#1394

MARANZA e censura online: AGCOM fa cancellare tutto, libertà in pericolo?

14.04.2025
L'Autorità per le Garanzie nelle Comunicazioni (Agcom) ha ordinato la rimozione di contenuti online che incitano all'odio, in particolare quelli della cosiddetta "challenge dei maranza". Questa decisione solleva dibattiti sulla censura e sulla regolamentazione dei contenuti web, evidenziando i rischi di mitizzazione dei contenuti rimossi e la migrazione verso piattaforme meno regolamentate. La questione centrale riguarda l'equilibrio tra libertà di espressione e controllo dei contenuti dannosi.
MI LICENZIO lintelligenza artificiale pu licenziarsi? E soffre? 1393
#1393

MI LICENZIO: l'intelligenza artificiale può licenziarsi? E "soffre"?

11.04.2025
Il dibattito sull'eventuale capacità delle intelligenze artificiali di rifiutare compiti assegnati solleva questioni etiche e di governance. Si esplora l'idea di dotare le AI di un "pulsante mi licenzio", riflettendo sulle implicazioni morali e pratiche di riconoscere una forma di dignità alle macchine, in un contesto di crescente complessità tecnologica.
ONLYDOWN, Deepfake e Disabilit il Lato Oscuro dellIntelligenza Artificiale 1390
#1390

ONLYDOWN, Deepfake e Disabilità: il Lato Oscuro dell'Intelligenza Artificiale

05.04.2025
L'episodio esplora il fenomeno inquietante dei deepfake utilizzati per creare contenuti che feticizzano la sindrome di Down, evidenziando come la tecnologia venga sfruttata per manipolare immagini di persone inesistenti a scopo di lucro. Viene sottolineata la mancanza di regolamentazione adeguata e il ruolo delle piattaforme digitali nel consentire tali pratiche, sollevando interrogativi etici e legali.
OpenAI e GhibliMiyazaki ma lo stile  proteggibile legalmente? 1389
#1389

OpenAI e Ghibli/Miyazaki: ma lo stile è proteggibile legalmente?

01.04.2025
L'episodio esplora le implicazioni legali ed etiche dell'intelligenza artificiale nel replicare stili artistici, con un focus sulla protezione del copyright. Viene analizzato il concetto di fair use, le differenze tra normative europee e americane, e il ruolo delle aziende nel gestire la creatività generata dall'IA. La discussione si concentra sull'equilibrio tra innovazione tecnologica e tutela dei diritti d'autore.
Le AI nascoste nel documentario su Bennato della RAI! 1378
#1378

Le AI nascoste nel documentario su Bennato della RAI!

03.03.2025
L'utilizzo dell'intelligenza artificiale nei documentari televisivi solleva importanti questioni di trasparenza e autenticità. Un recente esempio è il documentario su Edoardo Bennato, trasmesso dalla RAI, dove scene generate artificialmente sono state inserite senza avviso. Questo solleva preoccupazioni sulla distinzione tra realtà e finzione, e sulla responsabilità dei media nel garantire un'informazione corretta al pubblico.
Utilizzi VIETATI della AI secondo lAI Act - Con Maril Capparelli di Google
#CO-002

Utilizzi VIETATI della AI secondo l'AI Act - Con Marilù Capparelli di Google

21.02.2025
In questo episodio di Ciao Internet, esploriamo l'impatto dell'AI Act europeo, focalizzandoci sugli obblighi e le sfide che le aziende devono affrontare di fronte a un quadro normativo in continua evoluzione. Con l'intervento speciale di Marilu Caparelli di Google EMEA, discutiamo come la regolamentazione possa essere un'opportunità piuttosto che un ostacolo per l'innovazione. Approfondiamo le pratiche vietate e ad alto rischio, offrendo consigli pratici su come le aziende possono navigare il complesso panorama della compliance.
LItalia dei Trojan Paragon e le intercettazioni di Giornalisti e Attivisti 1371
#1371

L'Italia dei Trojan: Paragon e le intercettazioni di Giornalisti e Attivisti

07.02.2025
Il Trojan Graphite, sviluppato da Paragon Solution, ha infettato i dispositivi di giornalisti e attivisti in Italia, sollevando preoccupazioni sulla violazione dei diritti fondamentali e sulla libertà di stampa. L'azienda israeliana ha rescisso il contratto con l'Italia, indicando una violazione dei termini di servizio, mentre il governo italiano si è dichiarato estraneo ai fatti. La questione ha implicazioni profonde per la democrazia e la sicurezza internazionale.