Ciao Internet | Ricerca: destra - Archivio Video

L'Archivio completo degli Episodi di Ciao Internet

Trovati 40 episodi per "destra" • Mostra tutti
Ciao Internet Compliance Garantismi Riservata Therules Week
Risultati ordinati per data (più recenti primi)
40 episodi trovati
W33K Ep.24 - 04.08.2025 Azienda fallita per ransomware, il data breach dei sex toys e tanto altro
#week-024

W33K Ep.24 - 04.08.2025: Azienda fallita per ransomware, il data breach dei sex toys e tanto altro

29.07.2025
✨ W33K: il Lunedì che fa la differenza!
W33K Ep.23 - 28.07.2025 La cyberguerra blocca Aeroflot, lo stop della pubblicit politica in UE, unIA cancella un database e un uomo viene arrestato per errore.
#week-023

W33K Ep.23 - 28.07.2025: La cyberguerra blocca Aeroflot, lo stop della pubblicità politica in UE, un'IA cancella un database e un uomo viene arrestato per errore.

28.07.2025
✨ W33K: il Lunedì che fa la differenza!
La legge giapponese sulla AI e altro. Con Andrea Monti 1425
#1425

La legge giapponese sulla AI e altro. Con Andrea Monti

02.07.2025
L'episodio esplora le diverse strategie globali di regolamentazione dell'intelligenza artificiale, con un focus particolare sul Giappone, che adotta un approccio pragmatico e cooperativo. Si discute anche delle implicazioni legali dell'uso dei dati per l'addestramento dei modelli AI, con riferimenti a casi recenti negli Stati Uniti e nell'Unione Europea. La puntata tocca infine le prospettive future della normativa sull'intelligenza artificiale in Europa.
W33K Ep.18
#week-018

W33K Ep.18

23.06.2025
Ciao Internet! Oggi voglio condividere con voi un momento di riflessione e celebrazione per un traguardo speciale: il mio canale ha raggiunto 100.000 iscritti su YouTube! È un percorso che abbiamo fatto insieme, un viaggio di dieci anni che mi ha portato a crescere e a cambiare. In questo episodio, voglio esprimere la mia gratitudine a tutti voi, la mia community di Ciao Internet, per il supporto e l'affetto che mi avete dimostrato. Parleremo anche di alcune notizie attuali riguardanti l'AI, i diritti d'autore e le sfide che affrontiamo in questo mondo digitale.
New York Times vende i suoi dati ad Amazon la mossa strategica che fa tremare OpenAI? 1411
#1411

New York Times vende i suoi dati ad Amazon: la mossa strategica che fa tremare OpenAI?

02.06.2025
Il New York Times ha raggiunto un accordo commerciale con Amazon per la vendita dei propri dati, inclusi articoli di cronaca e sport, per l'addestramento di sistemi di intelligenza artificiale. Questo accordo contrasta con la causa in corso contro OpenAI e Microsoft per l'uso non autorizzato dei contenuti del Times. L'accordo con Amazon potrebbe influenzare positivamente la posizione del Times nel contenzioso, stabilendo un precedente per la valutazione economica dei contenuti digitali.
AI di META OGGI  lultimo giorno per BLOCCARE luso dei tuoi contenuti (davvero) 1408
#1408

AI di META: OGGI è l'ultimo giorno per BLOCCARE l'uso dei tuoi contenuti (davvero)

26.05.2025
Meta ha stabilito una scadenza per impedire l'uso dei dati pubblici degli utenti di Facebook e Instagram per l'addestramento della sua intelligenza artificiale. Gli utenti devono compilare un modulo entro il 26 maggio 2025 per escludere i propri dati. La questione solleva dibattiti sulla privacy e sull'etica dell'uso dei dati, con critiche da parte di attivisti come Maximilian Schrems.
OpenAI e GhibliMiyazaki ma lo stile  proteggibile legalmente? 1389
#1389

OpenAI e Ghibli/Miyazaki: ma lo stile è proteggibile legalmente?

01.04.2025
L'episodio esplora le implicazioni legali ed etiche dell'intelligenza artificiale nel replicare stili artistici, con un focus sulla protezione del copyright. Viene analizzato il concetto di fair use, le differenze tra normative europee e americane, e il ruolo delle aziende nel gestire la creatività generata dall'IA. La discussione si concentra sull'equilibrio tra innovazione tecnologica e tutela dei diritti d'autore.
OpenAI e Google contro il Copyright 1383
#1383

OpenAI e Google contro il Copyright

17.03.2025
OpenAI e Google chiedono all'amministrazione statunitense di consentire l'utilizzo di dati protetti da copyright per addestrare l'intelligenza artificiale, sollevando un dibattito sulla supremazia tecnologica e la protezione dei diritti d'autore. La questione potrebbe influenzare le politiche globali e la distribuzione del potere tecnologico tra le nazioni.
AI Meta e la Bob Dylan Defense rubare tanto rende davvero intoccabili? 1382
#1382

AI Meta e la 'Bob Dylan Defense': rubare tanto rende davvero intoccabili?

14.03.2025
Meta è al centro di una controversia legale per l'uso di contenuti piratati per addestrare la sua intelligenza artificiale, facendo riferimento a una difesa ispirata a Bob Dylan. La questione solleva dubbi sulla legittimità del fair use e sulla normalizzazione della pirateria nel contesto tecnologico, mettendo in discussione il confine tra innovazione e violazione del diritto d'autore.
Firefox Sta Vendendo I Tuoi Dati AllAI? Ecco Cosa Succede Davvero! 1380
#1380

Firefox Sta Vendendo I Tuoi Dati All’AI? Ecco Cosa Succede Davvero!

07.03.2025
Mozilla ha modificato i termini d'uso di Firefox, suscitando timori infondati sulla vendita dei dati degli utenti. In realtà, le nuove condizioni servono a chiarire l'uso interno dei dati per migliorare le funzionalità del browser, senza alcuna intenzione di venderli a terzi. La comunicazione inadeguata ha alimentato fraintendimenti, evidenziando l'importanza cruciale della trasparenza per mantenere la fiducia degli utenti.
Il Paradosso di Jevons lIA Pi Efficiente Ci Condanna a Consumare di Pi? 1379
#1379

Il Paradosso di Jevons: l’IA Più Efficiente Ci Condanna a Consumare di Più?

05.03.2025
Il paradosso di Jevons, un fenomeno economico scoperto nell'Ottocento, continua a influenzare il consumo di risorse nell'era delle intelligenze artificiali. Mentre le tecnologie diventano più efficienti e meno costose, la domanda cresce esponenzialmente, portando a un aumento dei consumi complessivi. Questo scenario genera un dilemma tra innovazione e sostenibilità, richiedendo una regolamentazione equilibrata che eviti il caos senza soffocare il progresso.
Quando OpenAI Accusa DeepSeek di Plagio Il Bue che Dice Cornuto allAsino? 1369
#1369

Quando OpenAI Accusa DeepSeek di Plagio: Il Bue che Dice Cornuto all’Asino?

03.02.2025
OpenAI accusa DeepSeek di aver utilizzato i suoi dati per addestrare i propri modelli, sollevando una questione di ipocrisia dato che OpenAI stessa è stata criticata per pratiche simili. Il dibattito si concentra sulla legittimità dell'uso di dati protetti da copyright per l'addestramento delle intelligenze artificiali e sulla necessità di regolamentazioni più chiare. La discussione tocca anche le implicazioni per i diritti degli autori e le sfide di un modello di compensazione equo.
Il Garante chiede informazioni a DeepSeek verso un blocco? 1368
#1368

Il Garante chiede informazioni a DeepSeek: verso un blocco?

28.01.2025
Il Garante per la protezione dei dati personali ha richiesto chiarimenti a DeepSeek, un'applicazione di chatbot molto popolare in Italia, per verificare la conformità alle normative sulla privacy. La richiesta riguarda la raccolta e il trattamento dei dati personali, con particolare attenzione alla loro conservazione su server cinesi e all'assenza di misure per proteggere i minori. L'azione del Garante italiano potrebbe innescare simili iniziative in altre nazioni europee.
W33K Ep.3
#week-003

W33K Ep.3

27.01.2025
W33K: il Lunedì che fa la differenza!
DeepSeek, AI, Allineamento e MORALE la nuova frontiera del Lobbying e della Propaganda? 1366
#1366

DeepSeek, AI, Allineamento e MORALE: la nuova frontiera del Lobbying e della Propaganda?

24.01.2025
Un cambiamento nei profili social ha portato molti utenti a ritrovarsi a seguire J.D. Vance, vicepresidente degli Stati Uniti, senza il loro consenso. Questo fenomeno sembra derivare da una pratica comune nei social media di trasferire i follower da un account ufficiale di una carica politica a un'altra. Tuttavia, questa operazione ha sollevato dubbi sulla trasparenza e sulla correttezza della gestione degli account personali e istituzionali.
La super multa da 15 milioni a OpenAI-ChatGPT spiegata bene (con Guido Scorza) 1356
#1356

La super multa da 15 milioni a OpenAI-ChatGPT spiegata bene (con Guido Scorza)

20.12.2024
OpenAI ha ricevuto una sanzione dal garante per il trattamento dei dati personali in Europa, in particolare per un data breach non notificato correttamente e per l'assenza di una base giuridica chiara per il trattamento dei dati. Inoltre, sono stati evidenziati problemi di trasparenza nella privacy policy e nella verifica dell'età degli utenti, con implicazioni significative per la protezione dei minori e l'accuratezza dei dati generati.
Contaballe perch (e come) ChatGPT ha mentito a Luca Bizzarri 1334
#1334

Contaballe: perché (e come) ChatGPT ha mentito a Luca Bizzarri

26.10.2024
L'intelligenza artificiale non è progettata per dire la verità, ma per generare testi plausibili. Attraverso l'esempio di Luca Bizzarri e un'interazione con GPT, si esplora come i modelli di linguaggio possano produrre risposte inesatte, note come allucinazioni, e il loro ruolo nella creatività. Si discutono le ragioni tecniche dietro questi fenomeni e i metodi per mitigarli, evidenziando il potenziale creativo delle AI.
Tesla Optimus una presa in giro o una vera Rivoluzione? 1332
#1332

Tesla Optimus: una presa in giro o una vera Rivoluzione?

16.10.2024
Il Tesla Optimus, presentato come un robot autonomo, si rivela essere controllato da remoto, sollevando interrogativi sull'impatto economico e sociale della robotica nel lavoro. L'episodio esplora come l'automazione e il controllo remoto possano influenzare i flussi migratori, la distribuzione del lavoro e le dinamiche economiche globali, portando a una riflessione sulla sostenibilità e le implicazioni etiche di queste tecnologie.
Come ti rubo le guide che hai realizzato il caso di Anthropic vs iFixit 1304
#1304

Come ti "rubo" le guide che hai realizzato: il caso di Anthropic vs iFixit

21.08.2024
Anthropic, nota azienda nel campo dell'intelligenza artificiale, ha effettuato un massiccio scraping dei contenuti di iFixit, violando i termini di servizio del sito. Il comportamento del loro crawler ha sollevato questioni etiche e legali riguardo alla proprietà intellettuale e alla sostenibilità dei contenuti online, evidenziando la necessità di regolamentazioni più rigide nel settore.
Meta lancia Llama 3.1, ed  una buona e cattiva notizia insieme
#1298

Meta lancia Llama 3.1, ed è una buona e cattiva notizia insieme

07.08.2024
L'introduzione di Lama 3.1, un potente modello di intelligenza artificiale open source sviluppato da Meta, rappresenta una svolta significativa nel settore tecnologico. Questa tecnologia promette di democratizzare l'accesso all'AI, ma solleva anche preoccupazioni riguardanti la sicurezza, la privacy e il potenziale uso improprio. Le implicazioni etiche e legali di un modello così avanzato sono al centro del dibattito.
OpenAI  Giornali ma quale costo per Privacy e per i Giornalisti? 111
#GA-111

OpenAI + Giornali: ma quale costo per Privacy e per i Giornalisti?

26.07.2024
In questo episodio di "Ciao Internet", mi sono immerso in una discussione con Guido Scorza, esplorando le implicazioni di una recente partnership tra OpenAI e RCS MediaGroup. Abbiamo analizzato le sfide legate alla privacy dei dati personali e alla proprietà intellettuale nel contesto dell'addestramento di algoritmi di intelligenza artificiale. Attraverso una conversazione approfondita, abbiamo sollevato dubbi e riflessioni su come le informazioni personali e i diritti d'autore vengono trattati nell'era digitale.
Le Foto dei Bambini Brasiliani Usate per Addestrare le AI. E non  un bene.
#1278

Le Foto dei Bambini Brasiliani Usate per Addestrare le AI. E non è un bene.

02.07.2024
Le foto dei bambini brasiliani vengono utilizzate senza consenso per addestrare algoritmi di intelligenza artificiale, compromettendo privacy e sicurezza. Un'indagine di Human Rights Watch rivela l'uso non autorizzato di dati personali in enormi database di immagini, sollevando gravi preoccupazioni etiche e legali. La situazione evidenzia l'inadeguatezza delle normative sulla protezione dei dati e la necessità di un dibattito urgente sull'equilibrio tra innovazione tecnologica e diritti individuali.
Meta si Ferma! Stop allUtilizzo dei Contenuti per Addestrare le IA. Ecco  tutti i perch! 1263
#1263

Meta si Ferma! Stop all'Utilizzo dei Contenuti per Addestrare le IA. Ecco tutti i perché!

17.06.2024
Meta ha deciso di sospendere l'uso dei contenuti degli utenti di Instagram e Facebook per addestrare le intelligenze artificiali generative, a seguito di discussioni con il garante irlandese. Questo passo indietro è stato influenzato dalle azioni di Max Schrems e del suo ente no-profit Noib, che hanno contestato la base legale del legittimo interesse per tale trattamento dei dati. Il GDPR si conferma un fondamentale strumento di tutela dei diritti dei cittadini europei.
Instagram, Facebook e luso dellIA che fine fanno i nostri dati? 1262
#1262

Instagram, Facebook e l'uso dell'IA: che fine fanno i nostri dati?

03.06.2024
L'episodio esplora l'utilizzo dei dati personali da parte di Meta per sviluppare l'intelligenza artificiale, evidenziando le implicazioni del legittimo interesse come base giuridica. Viene discusso il modello di business basato sulla monetizzazione dei dati e le sfide nel trovare un equilibrio tra servizi gratuiti e sostenibilità economica. Si riflette su come la rete debba essere monetizzata in modo trasparente e sostenibile.
Le AI, Gdel e lAntropocentrismo 1257
#1257

Le AI, Gödel e l'Antropocentrismo

14.05.2024
L'episodio esplora le sfide normative e tecniche dell'intelligenza artificiale (AI), sottolineando gli errori comuni nell'approccio alla regolamentazione, come la fallacia del rischio zero. Viene discussa l'importanza dell'allineamento delle AI ai valori umani fondamentali, piuttosto che un approccio normativo prescrittivo, per mitigare rischi come l'hypersuasion e l'uso improprio in settori specifici.
Subire le decisioni delle macchine 1241
#1241

Subire le decisioni delle macchine

12.04.2024
L'episodio esplora il crescente utilizzo dell'intelligenza artificiale nelle decisioni quotidiane, evidenziando i rischi di bias e corruzione algoritmica. Viene sottolineata l'importanza della trasparenza algoritmica per garantire decisioni eque e responsabili, mettendo in luce come i pregiudizi umani possano essere replicati dalle macchine.
Gemini, la AI di Google RAZZISTA verso... i BIANCHI 1218
#1218

Gemini, la AI di Google RAZZISTA verso... i BIANCHI

23.02.2024
Google Gemini, l'intelligenza artificiale di Google, presenta un problema di allineamento che altera la rappresentatività storica per favorire l'inclusività. Questo approccio, sebbene benintenzionato, porta a risultati distorti e paradossali, come immagini storiche in cui le figure rappresentate non riflettono la realtà storica. L'episodio esplora le implicazioni etiche e pratiche di tali errori e la necessità di un equilibrio tra rappresentatività e accuratezza storica.
New York Times contro OpenAi - La causa spiegata bene e il futuro della AI e del Copyright 1203
#1203

New York Times contro OpenAi - La causa spiegata bene e il futuro della AI e del Copyright

04.01.2024
Il New York Times ha avviato un'azione legale contro OpenAI e Microsoft, accusandole di utilizzare senza autorizzazione i suoi contenuti giornalistici per addestrare modelli di intelligenza artificiale. La causa solleva questioni cruciali sul diritto d'autore, il fair use e l'impatto dell'AI sul giornalismo, mettendo in discussione la sostenibilità economica e l'integrità delle informazioni nell'era digitale.
C della PDOFILIA nei dati che addestrano le A 1201
#1201

C'è della P*DOFILIA nei dati che addestrano le A

21.12.2023
Le intelligenze artificiali generative possono creare immagini pedopornografiche a causa di dataset di addestramento che includono contenuti illegali. La presenza di tali materiali nei set di dati pone gravi problemi legali e morali, richiedendo una supervisione rigorosa e una regolamentazione più severa per evitare la proliferazione di contenuti dannosi e proteggere la privacy e i diritti degli individui.
Il discorso di 60 secondi del CEO di Google e gli idioti di Linkedin... 1180
#1180

Il discorso di 60 secondi del CEO di Google e gli idioti di Linkedin...

27.09.2023
La puntata esplora il fenomeno dei post virali su LinkedIn riguardanti un discorso attribuito erroneamente a Sundar Pichai, ma originariamente di Brian Dyson, ex CEO di Coca-Cola. Viene analizzato il problema della mancanza di verifica delle fonti e della diffusione di contenuti non originali sui social professionali. Si discute inoltre delle recenti evoluzioni di Signal in termini di sicurezza crittografica, delle controversie legali di OpenAI con gli autori riguardo ai diritti d'autore, e delle implicazioni dell'automazione dei veicoli pesanti in California.
Perch dovete smettere di usare Zoom (almeno per un po)... 1167
#1167

Perché dovete smettere di usare Zoom (almeno per un po')...

07.08.2023
Zoom ha aggiornato la sua privacy policy introducendo clausole che concedono alla piattaforma una licenza perpetua sui contenuti degli utenti e la possibilità di utilizzarli per addestrare intelligenze artificiali. Queste modifiche sollevano preoccupazioni legali e di privacy, specialmente per chi gestisce dati sensibili o proprietà intellettuali.
Sblocco ChatGPT i 9 se del Garante per liberare i dati 1138
#1138

Sblocco ChatGPT: i 9 "se" del Garante per "liberare" i dati

13.04.2023
Il Garante della Privacy italiano ha imposto a OpenAI nove condizioni per la sospensione della limitazione al trattamento dei dati personali. Tra queste, la necessità di un'informativa chiara, strumenti per l'opposizione e la correzione dei dati, e un piano di Age Verification. La questione centrale riguarda l'uso di dati non consensati per l'addestramento degli algoritmi, sollevando interrogativi sulla conformità al GDPR.
1100. Che cosa sono GPT, GPT-3 e ChatGPT e cosa possono fare? Introduzione semplice in italiano!
#1100

Che cosa sono GPT, GPT-3 e ChatGPT e cosa possono fare? Introduzione semplice in italiano!

01.01.2023
L'intelligenza artificiale generativa, rappresentata da modelli come GPT-3, sta trasformando il modo in cui comprendiamo e interagiamo con il linguaggio naturale. Con 175 miliardi di parametri, GPT-3 è in grado di generare testi coerenti, rispondere a domande, tradurre lingue, e persino scrivere codice. Sebbene presenti ancora limiti, come errori nei calcoli matematici e pregiudizi derivati dai dati di addestramento, il suo potenziale applicativo è vasto e in continua espansione.
1091. Balenciaga, la campagna pro-Pedofilia e limportanza della Brand Safety
#1091

Balenciaga, la campagna pro-Pedofilia e l'importanza della Brand Safety

30.11.2022
Balenciaga, marchio di moda di lusso, si trova al centro di una crisi per due campagne pubblicitarie che associano immagini di bambini a simboli di bondage e documenti legali sulla pedopornografia. Le reazioni pubbliche e mediatiche, amplificate da teorie cospirazioniste, mettono in discussione la responsabilità del brand, che risponde con scuse e azioni legali. La vicenda solleva interrogativi sulla supervisione e le scelte etiche nella comunicazione aziendale.
LA BESTIA FASCISTA e GIORGIA MELONI perch la narrazione di un Nemico ha aiutato (e aiuta) 1074
#1074

LA BESTIA FASCISTA e GIORGIA MELONI: perché la narrazione di un Nemico ha aiutato (e aiuta)

31.10.2022
La vittoria di Giorgia Meloni viene analizzata attraverso le strategie comunicative che l'hanno resa un simbolo di cambiamento e un punto di riferimento per molti elettori. Dipinta come una figura controversa, Meloni ha saputo sfruttare il "Devil Effect" a suo vantaggio, trasformando le critiche in un'arma per consolidare la sua posizione politica e attirare consensi.
981. I DATI SINTETICI in breve.
#981

I DATI SINTETICI in breve.

28.03.2022
L'episodio esplora l'uso dei dati sintetici, una tecnica emergente per addestrare algoritmi di intelligenza artificiale senza utilizzare dati personali reali. Vengono discusse le implicazioni per la privacy e i potenziali rischi di reidentificazione, nonostante i dati siano creati per essere anonimi. L'episodio conclude con una riflessione sulla necessità di vigilare costantemente sulla protezione dei dati personali.
945. Il tweet storm di DiMaioOut e la fotografia di Salvini photoshoppata
#945

Il tweet storm di #DiMaioOut e la fotografia di #Salvini "photoshoppata"

02.02.2022
L'episodio esplora due casi di disinformazione online: il presunto tweetbombing contro Luigi Di Maio e un'immagine manipolata di Matteo Salvini. Il primo caso viene smentito attraverso un'analisi dei dati che rivela un uso errato delle piattaforme di monitoraggio social, mentre il secondo caso è spiegato come un errore di interpolazione causato da filtri di nitidezza delle immagini.
931. Draghi nel mirino dei No Vax, nelle chat minacce al premiere gli indirizzi di casa...
#931

Draghi nel mirino dei No Vax, nelle chat minacce al premiere gli indirizzi di casa...

13.12.2021
La diffusione non autorizzata dell'indirizzo del presidente del Consiglio in una chat di Novax rappresenta una violazione della privacy con potenziali rischi per l'incolumità personale e l'ordine pubblico. La questione evidenzia la necessità di un intervento più deciso da parte delle istituzioni e delle piattaforme per gestire fenomeni di inciviltà e illeciti online.
906. Contenuti cospirazionisti, Twitter e le grandi incognite
#906

Contenuti cospirazionisti, Twitter e le grandi incognite

25.10.2021
Twitter ha rilevato che i contenuti complottisti e di destra estrema ottengono maggiore visibilità sulla piattaforma, senza sapere esattamente il perché. Questo fenomeno solleva interrogativi sulla capacità dei social media di gestire la viralizzazione di contenuti in modo trasparente e responsabile, mentre l'Unione Europea cerca di regolamentare la disinformazione online. La necessità di un feed non algoritmico e di una dieta informativa trasparente emerge come una questione centrale.
885. Perch le AI vedono scimmie invece di persone di colore?
#885

Perché le AI vedono scimmie invece di persone di colore?

08.09.2021
L'episodio esplora il problema dei bias nei sistemi di intelligenza artificiale, prendendo spunto da un recente incidente su Facebook dove un algoritmo ha erroneamente associato un video di una persona di colore a contenuti sui primati. Viene analizzato come questi errori derivino spesso da dataset sbilanciati piuttosto che da intenti razzisti, sottolineando l'importanza di una selezione attenta dei dati di addestramento per evitare pregiudizi.