Ciao Internet | Ricerca: responsabilità - Archivio Video

L'Archivio completo degli Episodi di Ciao Internet

Trovati 40 episodi per "responsabilità" • Mostra tutti
Ciao Internet Compliance Garantismi Riservata Tedx Therules Week
Risultati ordinati per data (più recenti primi)
40 episodi trovati
MEZZO MILIONE DI SLOP consulenti beccati a usare la AI, errore umano o crisi? 1473
#1473

MEZZO MILIONE DI SLOP: consulenti beccati a usare la AI, errore umano o crisi?

Un report commissionato dal governo australiano a Deloitte, del valore di 440 mila dollari, viene scoperto essere basato su fonti inventate generate da un'intelligenza artificiale. Questo episodio solleva importanti questioni sulla responsabilità e la validità del lavoro consulenziale, evidenziando un problema sistemico di affidamento cieco alla tecnologia senza un'adeguata verifica umana.
POVERTY PORN le ONG che usano immagini FAKE generate da AI per raccogliere fondi 1479
#1479

POVERTY PORN: le ONG che usano immagini FAKE generate da AI per raccogliere fondi

Le ONG e le organizzazioni umanitarie stanno utilizzando immagini generate dall'intelligenza artificiale per le loro campagne di raccolta fondi, sollevando questioni etiche e tecnologiche. Questo fenomeno, noto come "poverty porn 2.0", mette in discussione l'autenticità delle rappresentazioni di povertà e sofferenza, rischiando di minare la fiducia nel settore umanitario e amplificando stereotipi preesistenti.
GENITORI A PROCESSO per colpa dei Figli su Internet? S, e cambia tutto...
#1480

GENITORI A PROCESSO per colpa dei Figli su Internet? Sì, e cambia tutto...

A Solmona, un padre rischia un processo penale per non aver controllato adeguatamente l'uso dello smartphone da parte del figlio, che ha commesso atti inappropriati online. Questo caso solleva una questione cruciale sulla responsabilità genitoriale nel contesto digitale, evidenziando come la legge stia iniziando a considerare la supervisione tecnologica come un dovere legale dei genitori, con implicazioni significative per le piattaforme tecnologiche e la società.
GIUDICI ROBOT lIntelligenza Artificiale, la giustizia e il CSM (che per ora la blocca) 1477
#1477

GIUDICI ROBOT: l'Intelligenza Artificiale, la giustizia e il CSM (che per ora la blocca)

24.10.2025
Il Consiglio Superiore della Magistratura ha vietato l'uso dell'intelligenza artificiale da parte dei magistrati italiani per la redazione delle sentenze, a causa di errori concreti e preoccupanti emersi in due procedimenti. Questo divieto ha aperto un dibattito sul futuro della giustizia, evidenziando la necessità di un uso consapevole e regolamentato della tecnologia nei tribunali, mentre gli avvocati possono ancora utilizzarla sotto determinate condizioni.
SAM ALTMAN si aspetta Cose molto Brutte dalla ai e se lo dice lui  un problema per OpenAI. 1475
#1475

SAM ALTMAN si aspetta "Cose molto Brutte" dalla ai: e se lo dice lui è un problema per OpenAI.

20.10.2025
Il CEO di OpenAI, Sam Altman, ha dichiarato in un podcast che si aspetta che l'intelligenza artificiale possa causare eventi estremamente negativi. Questa affermazione solleva seri interrogativi legali e di gestione del rischio per OpenAI, mettendo in discussione la capacità dell'azienda di autoregolamentarsi e aumentando la pressione per una regolamentazione più stringente del settore.
LA MAIL DI MELONI CLONATA? La verit sulla presunta falla di Stato 1474
#1474

LA MAIL DI MELONI CLONATA? La verità sulla presunta "falla di Stato"

12.10.2025
Un presunto scandalo sulla sicurezza dello Stato italiano si rivela infondato. La notizia di una falla nei sistemi di posta elettronica istituzionali viene smentita: nessun accesso abusivo è avvenuto, ma si tratta di un caso di mail spoofing. I protocolli di sicurezza, come DMARC, hanno funzionato correttamente, proteggendo le comunicazioni ufficiali. Il vero problema risiede nei provider di posta non aggiornati, che espongono i loro utenti a rischi di phishing.
TEENRORISM la Russia recluta i giovani come spie su Telegram. Ed  solo linizio. 1468
#1468

TEENRORISM: la Russia recluta i giovani come spie su Telegram. Ed è solo l'inizio.

06.10.2025
Il reclutamento di adolescenti per operazioni di spionaggio e terrorismo da parte di attori pro-russi su piattaforme come Telegram evidenzia una nuova strategia di guerra ibrida. Giovani vulnerabili vengono attratti con la promessa di denaro facile per compiere azioni che minano la sicurezza nazionale, sfruttando la loro percezione distorta del rischio. Questo fenomeno solleva questioni cruciali sulla privacy, la sicurezza e la necessità di un'educazione digitale più avanzata.
AI dal 10 Ottobre Under 14 BLOCCATI Senza Consenso Dei Genitori? Come? Garantismi GA-131
#GA-131

AI: dal 10 Ottobre Under 14 BLOCCATI Senza Consenso Dei Genitori? Come? #Garantismi #GA-131

03.10.2025
L'episodio esplora il recepimento in Italia del regolamento europeo sull'intelligenza artificiale, con particolare attenzione al trattamento dei dati personali dei minori. Viene analizzato il decreto legislativo che introduce l'obbligo di consenso genitoriale per l'accesso dei minori alle tecnologie di intelligenza artificiale, evidenziando le sfide pratiche e legali di questa normativa.
Il Reskilling NON SALVER il tuo lavoro dalla AI. Smettila di dirtelo! 1455
#1455

Il Reskilling NON SALVERÀ il tuo lavoro dalla AI. Smettila di dirtelo!

19.09.2025
Le intelligenze artificiali stanno trasformando il mercato del lavoro, ma l'idea che il reskilling possa facilmente colmare il divario è una semplificazione pericolosa. La rapidità e la scala del cambiamento creano disuguaglianze, con una pressione al ribasso su salari e condizioni lavorative. È necessaria una discussione più onesta sulle responsabilità sociali delle imprese e su nuove forme di welfare.
ANTHROPIC le tue opere ora sono Training! Cosa cambia per Artisti e Editori. Con Lucia Maggi
#1459

ANTHROPIC: le tue opere ora sono Training! Cosa cambia per Artisti e Editori. Con Lucia Maggi

05.09.2025
Le nuove politiche di privacy di Anthropic segnano un cambiamento significativo nel trattamento dei dati degli utenti, consentendo l'uso delle opere generate per il riaddestramento dell'intelligenza artificiale, a meno di un esplicito opt-out. Questo spostamento solleva questioni importanti sulla trasparenza e sul diritto d'autore, mentre il mercato si adatta a queste nuove dinamiche.
NEGLIGENZA come Business Model perch la Legge non ti Salver (e nemmeno la Section 230)
#1444

NEGLIGENZA come Business Model: perché la Legge non ti Salverà (e nemmeno la Section 230)

01.09.2025
La sezione 230 del Communication Decency Act statunitense, che ha protetto le piattaforme online dalla responsabilità sui contenuti degli utenti, è messa in discussione. Un giudice federale ha sollevato dubbi sulla negligenza strutturale di X (ex Twitter) nel gestire contenuti illegali, come la pornografia minorile, con sistemi di segnalazione inefficienti. Questo potrebbe segnare un cambiamento significativo nella responsabilità delle piattaforme, spostando l'attenzione dalla semplice presenza di contenuti illegali alla progettazione dei processi di gestione.
Il trucco segreto nei paper per fregare ChatGPT ecco lhack che beffa le universit!
#1439

Il trucco segreto nei paper per fregare ChatGPT: ecco l’hack che beffa le università!

27.08.2025
Un nuovo studio rivela l'uso di comandi nascosti nei paper accademici per influenzare le revisioni automatiche da parte di intelligenze artificiali. Questo fenomeno solleva dubbi sull'integrità della peer review e mette in luce la necessità di un intervento umano più attento e responsabile. La questione centrale riguarda la responsabilità dei revisori e l'etica nell'uso dell'intelligenza artificiale.
Mia Moglie il gruppo e il caso, tra voyeurismo, violenza e pubblica piazza 1457
#1457

“Mia Moglie”: il gruppo e il caso, tra voyeurismo, violenza e pubblica piazza

22.08.2025
Il gruppo Facebook “Mia Moglie” non era solo un raduno di maniaci, ma un fenomeno più complesso dove la curiosità voyeuristica diventava complicità in una violenza. La chiusura non è una vittoria: il problema rinasce altrove, e la sfida è mitigare il danno e proteggere le vittime. Due le dinamiche in gioco: la deresponsabilizzazione di massa e il paradosso della denuncia, che amplifica l’umiliazione. Non basta la tecnologia: serve una risposta sociale capace di tutelare senza ri-vittimizzare.
GPT-5 10 novit che devi sapere 1452
#1452

GPT-5: 10 novità che devi sapere

08.08.2025
GPT-5 segna un’evoluzione strategica nell’uso dei modelli linguistici, con un’attenzione marcata alle applicazioni enterprise e alle capacità multimodali. Tra le novità spiccano l’integrazione con MedGPT per competenze cliniche, memoria persistente personalizzabile, interazione vocale avanzata, uso migliorato di tool e API, e una multimodalità più integrata tra testo, immagini, video e documenti. Il modello introduce funzioni di introspezione e autovalutazione per ridurre le allucinazioni, oltre a tracciabilità, audit e versioning per la compliance con regolamenti come AI Act e GDPR. Le capacità di scrittura raggiungono livelli narrativi di punta, mentre la gestione dei piani e delle ricerche in contesto team diventa più flessibile. Non è una rivoluzione radicale, ma una somma di miglioramenti mirati che lo rendono uno strumento più efficace e orientato al futuro.
NAPOLI, LA MAGLIA CON LERRORE Genialata di Marketing o Elogio dellIncompetenza? 1447
#1447

NAPOLI, LA MAGLIA CON L'ERRORE: Genialata di Marketing o Elogio dell'Incompetenza?

04.08.2025
Un errore di ortografia su una maglia celebrativa del centenario del Napoli diventa il fulcro di un caso di gestione della crisi. La scelta del club di trasformare un difetto in un valore attraverso una narrazione di marketing mette in luce una tendenza sociale preoccupante: la normalizzazione dell'incompetenza e la fuga dalle responsabilità. Questa vicenda riflette un più ampio fenomeno di post-verità nei prodotti e nella comunicazione.
Da Dossieranti a Dossierati la app Tea e il disastro annunciato. Con Guido Scorza Garantismi
#GA-130

Da Dossieranti a Dossierati: la app Tea e il disastro annunciato. Con Guido Scorza #Garantismi

30.07.2025
Un'applicazione progettata per proteggere le donne da incontri rischiosi si è rivelata un pericolo per la privacy, esponendo dati sensibili come documenti e profili personali. La vicenda solleva interrogativi sulla sicurezza dei dati e sulla responsabilità delle piattaforme digitali nel gestire informazioni personali, evidenziando i rischi di un sistema di recensioni non verificato che può danneggiare irreparabilmente la reputazione delle persone coinvolte.
Raoul Bova, i messaggi, il ricatto dal Pig Butchering alla Sextortion  un problema anche tuo 1437
#1437

Raoul Bova, i messaggi, il ricatto: dal Pig Butchering alla Sextortion è un problema anche tuo

29.07.2025
La diffusione delle chat private di Raoul Bova ha sollevato una questione di violenza digitale e sextortion, un fenomeno che colpisce prevalentemente uomini e che spesso viene ignorato o ridicolizzato. La responsabilità mediatica nel trattare questi casi è cruciale, poiché ogni condivisione alimenta un ciclo di vittimizzazione e sfruttamento. È necessario un cambiamento nella deontologia giornalistica e una maggiore consapevolezza sociale per proteggere le vittime e contrastare la viralità di contenuti che violano la privacy.
Licenziati da Microsoft? LAI ti consola (male) Il caso Xbox e la disumanizzazione tech 1432
#1432

Licenziati da Microsoft? L’AI ti “consola” (male): Il caso Xbox e la disumanizzazione tech

17.07.2025
L'utilizzo dell'intelligenza artificiale come supporto per chi è stato licenziato solleva importanti questioni etiche e sociali. L'episodio analizza la proposta di un manager di Xbox di utilizzare AI per affrontare il trauma del licenziamento, mettendo in evidenza la mancanza di empatia e il pericolo di deresponsabilizzazione individuale e aziendale. Viene criticata la tendenza a sostituire il supporto umano con soluzioni tecnologiche, evidenziando i rischi di affidarsi eccessivamente agli output delle macchine.
Comune di Milano usa lAI e succede QUESTO (disastro social) 1426
#1426

Comune di Milano usa l'AI e succede QUESTO… (disastro social)

03.07.2025
Un'immagine pubblicata dal comune di Milano, generata con intelligenza artificiale, ha suscitato polemiche per la sua scarsa qualità e per le implicazioni sulla gestione della comunicazione pubblica. La discussione si concentra sull'uso inappropriato della tecnologia e sulla mancanza di competenza e responsabilità da parte dei responsabili della comunicazione.
Microsoft blocca Chrome! Ecco perch ha ragione... 1424
#1424

Microsoft blocca Chrome! Ecco perché ha ragione...

01.07.2025
Microsoft ha implementato una restrizione nel suo sistema operativo che impedisce il download di Google Chrome quando è attiva la modalità di protezione dei minori. Questa decisione, sebbene possa sembrare controversa, è giustificata dal mancato rispetto da parte di Chrome delle richieste di filtro dei contenuti imposte dal sistema operativo, sollevando questioni di sicurezza e responsabilità legale.
Schifani e ChatGPT il POST della vergogna o un GENIALE salvataggio social? 1418
#1418

Schifani e ChatGPT: il POST della vergogna o un GENIALE salvataggio social?

18.06.2025
Il team del presidente della regione Sicilia, Renato Schifani, ha pubblicato un post su Facebook chiaramente generato da ChatGPT, evidenziando una mancanza di attenzione e professionalità. L'episodio esplora l'uso di strumenti di intelligenza artificiale nella comunicazione, sottolineando che, sebbene ChatGPT possa essere utile, la comunicazione efficace richiede un approccio strategico e integrato.
Intelligenza Artificiale nella Pubblica Amministrazione efficienza o caos? con Ernesto Belisario
#CO-004

Intelligenza Artificiale nella Pubblica Amministrazione: efficienza o caos? con Ernesto Belisario

10.06.2025
In questo episodio di Ciao Internet, ho avuto l'opportunità di esplorare il mondo della pubblica amministrazione e dell'intelligenza artificiale con due ospiti eccezionali: Giuseppe Baciago e Ernesto Belisario. Abbiamo discusso l'implementazione delle tecnologie AI nelle PA, i rischi legati alla mancanza di regolamentazione e la responsabilità degli umani nel loro utilizzo. È stata una conversazione ricca di spunti, riflessioni e anche qualche aneddoto curioso.
 stato ChatGPT a farmelo fare di scuse astruse e visibilit... 1413
#1413

È stato ChatGPT a farmelo fare: di scuse astruse e visibilità...

06.06.2025
L'episodio affronta il fenomeno del "mathwashing", ovvero l'uso improprio degli algoritmi come capro espiatorio per evitare responsabilità personali, con particolare riferimento all'utilizzo di ChatGPT come scusa per comportamenti inappropriati. Viene analizzata la pressione mediatica e le sue conseguenze psicologiche, sottolineando la necessità di responsabilità personale e la difficoltà di gestire l'attenzione dei media.
Quattro vittime della AI che deciso al posto delluomo...
#1397

Quattro vittime della AI che deciso al posto dell'uomo...

25.04.2025
L'episodio esplora l'impatto invisibile e spesso sottovalutato dell'intelligenza artificiale nella vita quotidiana attraverso quattro storie emblematiche. Le decisioni prese da algoritmi anziché da esseri umani possono avere conseguenze devastanti, mostrando come la tecnologia sia ormai integrata in ogni aspetto della società, spesso senza supervisione adeguata.
MARANZA e censura online AGCOM fa cancellare tutto, libert in pericolo?
#1394

MARANZA e censura online: AGCOM fa cancellare tutto, libertà in pericolo?

14.04.2025
L'Autorità per le Garanzie nelle Comunicazioni (Agcom) ha ordinato la rimozione di contenuti online che incitano all'odio, in particolare quelli della cosiddetta "challenge dei maranza". Questa decisione solleva dibattiti sulla censura e sulla regolamentazione dei contenuti web, evidenziando i rischi di mitizzazione dei contenuti rimossi e la migrazione verso piattaforme meno regolamentate. La questione centrale riguarda l'equilibrio tra libertà di espressione e controllo dei contenuti dannosi.
MI LICENZIO lintelligenza artificiale pu licenziarsi? E soffre? 1393
#1393

MI LICENZIO: l'intelligenza artificiale può licenziarsi? E "soffre"?

11.04.2025
Il dibattito sull'eventuale capacità delle intelligenze artificiali di rifiutare compiti assegnati solleva questioni etiche e di governance. Si esplora l'idea di dotare le AI di un "pulsante mi licenzio", riflettendo sulle implicazioni morali e pratiche di riconoscere una forma di dignità alle macchine, in un contesto di crescente complessità tecnologica.
ONLYDOWN, Deepfake e Disabilit il Lato Oscuro dellIntelligenza Artificiale 1390
#1390

ONLYDOWN, Deepfake e Disabilità: il Lato Oscuro dell'Intelligenza Artificiale

05.04.2025
L'episodio esplora il fenomeno inquietante dei deepfake utilizzati per creare contenuti che feticizzano la sindrome di Down, evidenziando come la tecnologia venga sfruttata per manipolare immagini di persone inesistenti a scopo di lucro. Viene sottolineata la mancanza di regolamentazione adeguata e il ruolo delle piattaforme digitali nel consentire tali pratiche, sollevando interrogativi etici e legali.
OpenAI e GhibliMiyazaki ma lo stile  proteggibile legalmente? 1389
#1389

OpenAI e Ghibli/Miyazaki: ma lo stile è proteggibile legalmente?

01.04.2025
L'episodio esplora le implicazioni legali ed etiche dell'intelligenza artificiale nel replicare stili artistici, con un focus sulla protezione del copyright. Viene analizzato il concetto di fair use, le differenze tra normative europee e americane, e il ruolo delle aziende nel gestire la creatività generata dall'IA. La discussione si concentra sull'equilibrio tra innovazione tecnologica e tutela dei diritti d'autore.
Le AI nascoste nel documentario su Bennato della RAI! 1378
#1378

Le AI nascoste nel documentario su Bennato della RAI!

03.03.2025
L'utilizzo dell'intelligenza artificiale nei documentari televisivi solleva importanti questioni di trasparenza e autenticità. Un recente esempio è il documentario su Edoardo Bennato, trasmesso dalla RAI, dove scene generate artificialmente sono state inserite senza avviso. Questo solleva preoccupazioni sulla distinzione tra realtà e finzione, e sulla responsabilità dei media nel garantire un'informazione corretta al pubblico.
Utilizzi VIETATI della AI secondo lAI Act - Con Maril Capparelli di Google
#CO-002

Utilizzi VIETATI della AI secondo l'AI Act - Con Marilù Capparelli di Google

21.02.2025
In questo episodio di Ciao Internet, esploriamo l'impatto dell'AI Act europeo, focalizzandoci sugli obblighi e le sfide che le aziende devono affrontare di fronte a un quadro normativo in continua evoluzione. Con l'intervento speciale di Marilu Caparelli di Google EMEA, discutiamo come la regolamentazione possa essere un'opportunità piuttosto che un ostacolo per l'innovazione. Approfondiamo le pratiche vietate e ad alto rischio, offrendo consigli pratici su come le aziende possono navigare il complesso panorama della compliance.
LItalia dei Trojan Paragon e le intercettazioni di Giornalisti e Attivisti 1371
#1371

L'Italia dei Trojan: Paragon e le intercettazioni di Giornalisti e Attivisti

07.02.2025
Il Trojan Graphite, sviluppato da Paragon Solution, ha infettato i dispositivi di giornalisti e attivisti in Italia, sollevando preoccupazioni sulla violazione dei diritti fondamentali e sulla libertà di stampa. L'azienda israeliana ha rescisso il contratto con l'Italia, indicando una violazione dei termini di servizio, mentre il governo italiano si è dichiarato estraneo ai fatti. La questione ha implicazioni profonde per la democrazia e la sicurezza internazionale.
W33K Ep.4
#week-004

W33K Ep.4

03.02.2025
W33K: il Lunedì che fa la differenza!
W33K Ep.3
#week-003

W33K Ep.3

27.01.2025
W33K: il Lunedì che fa la differenza!
W33K Ep.2
#week-002

W33K Ep.2

20.01.2025
W33K: il Lunedì che fa la differenza!
IL PREZZO DI ZUCK Cosa chiede Meta a Trump per il cambiamento? 1362
#1362

IL PREZZO DI ZUCK: Cosa chiede Meta a Trump per il cambiamento?

13.01.2025
Mark Zuckerberg sembra orientarsi verso una politica più vicina a Trump, con la fine del fact-checking e l'abbandono dei programmi di diversità e inclusione di Meta. Questa mossa potrebbe essere una strategia per ottenere protezione dall'amministrazione statunitense contro le sanzioni europee previste dal Digital Services Act e dal Digital Market Act, che minacciano di impattare significativamente il business di Meta in Europa.
Catastrofe Infocert Milioni di MailTelefoni esposti e in vendita 1360
#1360

Catastrofe Infocert: Milioni di Mail/Telefoni esposti e in vendita

03.01.2025
L'attacco informatico a InfoCert ha esposto milioni di dati sensibili di utenti italiani, mettendo in luce gravi carenze nella sicurezza e nella gestione dei fornitori da parte del gruppo Tinexta. L'incidente solleva interrogativi sulla trasparenza e la responsabilità nella protezione dei dati, evidenziando la necessità di migliori pratiche di sicurezza nel settore digitale italiano.
Sentenza Pesantissima Il caso di Palermo e i titoli Clickbait 1342
#1342

“Sentenza Pesantissima”: Il caso di Palermo e i titoli Clickbait

11.11.2024
La narrazione mediatica attorno a un caso di stupro di gruppo a Palermo solleva questioni sulla responsabilità del giornalismo nel trattare titoli sensazionalistici. Le pene inflitte, seppur significative, non giustificano il termine "pesantissime" utilizzato da alcuni media, che rischia di minimizzare la gravità dell'atto e di offendere le sensibilità delle donne e delle vittime.
Dove era ACN mentre i sistemi critici del Paese erano abusati? 1338
#1338

Dove era ACN mentre i sistemi critici del Paese erano abusati?

30.10.2024
L'Agenzia per la Cybersicurezza Nazionale è al centro di una critica riguardante la gestione della sicurezza informatica, evidenziando la presenza di reti collusive interne che compromettono la sicurezza. L'analisi mette in luce la necessità di una maggiore sorveglianza e di misure più rigorose per proteggere le infrastrutture critiche, sottolineando le responsabilità dell'agenzia nella prevenzione di abusi interni.
Minori e Dati una guida completa su privacy per giornali e pubblicazione 116
#GA-116

Minori e Dati: una guida completa su privacy per giornali e pubblicazione

07.10.2024
In questo episodio di "Ciao Internet", affronto un tema cruciale: la protezione dei dati personali dei minori nel contesto mediatico. Partendo da un recente caso di sanzione a una testata online per la mancata anonimizzazione dei dati di minori, esploro le regole e i principi che governano la pubblicazione di informazioni sensibili. Con l'aiuto di Guido, discutiamo di come garantire che i diritti dei minori siano rispettati, analizzando sia il contesto giornalistico che quello più ampio di Internet. Forniamo una guida pratica su cosa evitare e come procedere in caso di violazioni.
Termini in Tilt perch il chiodo non centra con le infrastrutture critiche 1329
#1329

Termini in Tilt: perché il chiodo non c'entra con le infrastrutture critiche

04.10.2024
Un guasto elettrico ha bloccato la stazione ferroviaria di Roma Termini per ore, sollevando interrogativi sulla gestione delle infrastrutture critiche in Italia. La discussione si concentra sulle responsabilità delle strutture di vigilanza e manutenzione, piuttosto che su errori individuali, evidenziando la necessità di sistemi progettati per evitare conseguenze anche in caso di incidenti.