Ciao Internet | Ricerca: addestramento AI - Archivio Video

L'Archivio completo degli Episodi di Ciao Internet

Trovati 18 episodi per "addestramento AI" • Mostra tutti
Ciao Internet Compliance Garantismi Riservata Therules Week
Risultati ordinati per data (più recenti primi)
18 episodi trovati
W33K Ep.23 - 28.07.2025 La cyberguerra blocca Aeroflot, lo stop della pubblicit politica in UE, unIA cancella un database e un uomo viene arrestato per errore.
#week-023

W33K Ep.23 - 28.07.2025: La cyberguerra blocca Aeroflot, lo stop della pubblicità politica in UE, un'IA cancella un database e un uomo viene arrestato per errore.

28.07.2025
✨ W33K: il Lunedì che fa la differenza!
La legge giapponese sulla AI e altro. Con Andrea Monti 1425
#1425

La legge giapponese sulla AI e altro. Con Andrea Monti

02.07.2025
L'episodio esplora le diverse strategie globali di regolamentazione dell'intelligenza artificiale, con un focus particolare sul Giappone, che adotta un approccio pragmatico e cooperativo. Si discute anche delle implicazioni legali dell'uso dei dati per l'addestramento dei modelli AI, con riferimenti a casi recenti negli Stati Uniti e nell'Unione Europea. La puntata tocca infine le prospettive future della normativa sull'intelligenza artificiale in Europa.
New York Times vende i suoi dati ad Amazon la mossa strategica che fa tremare OpenAI? 1411
#1411

New York Times vende i suoi dati ad Amazon: la mossa strategica che fa tremare OpenAI?

02.06.2025
Il New York Times ha raggiunto un accordo commerciale con Amazon per la vendita dei propri dati, inclusi articoli di cronaca e sport, per l'addestramento di sistemi di intelligenza artificiale. Questo accordo contrasta con la causa in corso contro OpenAI e Microsoft per l'uso non autorizzato dei contenuti del Times. L'accordo con Amazon potrebbe influenzare positivamente la posizione del Times nel contenzioso, stabilendo un precedente per la valutazione economica dei contenuti digitali.
AI di META OGGI  lultimo giorno per BLOCCARE luso dei tuoi contenuti (davvero) 1408
#1408

AI di META: OGGI è l'ultimo giorno per BLOCCARE l'uso dei tuoi contenuti (davvero)

26.05.2025
Meta ha stabilito una scadenza per impedire l'uso dei dati pubblici degli utenti di Facebook e Instagram per l'addestramento della sua intelligenza artificiale. Gli utenti devono compilare un modulo entro il 26 maggio 2025 per escludere i propri dati. La questione solleva dibattiti sulla privacy e sull'etica dell'uso dei dati, con critiche da parte di attivisti come Maximilian Schrems.
OpenAI e Google contro il Copyright 1383
#1383

OpenAI e Google contro il Copyright

17.03.2025
OpenAI e Google chiedono all'amministrazione statunitense di consentire l'utilizzo di dati protetti da copyright per addestrare l'intelligenza artificiale, sollevando un dibattito sulla supremazia tecnologica e la protezione dei diritti d'autore. La questione potrebbe influenzare le politiche globali e la distribuzione del potere tecnologico tra le nazioni.
AI Meta e la Bob Dylan Defense rubare tanto rende davvero intoccabili? 1382
#1382

AI Meta e la 'Bob Dylan Defense': rubare tanto rende davvero intoccabili?

14.03.2025
Meta è al centro di una controversia legale per l'uso di contenuti piratati per addestrare la sua intelligenza artificiale, facendo riferimento a una difesa ispirata a Bob Dylan. La questione solleva dubbi sulla legittimità del fair use e sulla normalizzazione della pirateria nel contesto tecnologico, mettendo in discussione il confine tra innovazione e violazione del diritto d'autore.
Il Paradosso di Jevons lIA Pi Efficiente Ci Condanna a Consumare di Pi? 1379
#1379

Il Paradosso di Jevons: l’IA Più Efficiente Ci Condanna a Consumare di Più?

05.03.2025
Il paradosso di Jevons, un fenomeno economico scoperto nell'Ottocento, continua a influenzare il consumo di risorse nell'era delle intelligenze artificiali. Mentre le tecnologie diventano più efficienti e meno costose, la domanda cresce esponenzialmente, portando a un aumento dei consumi complessivi. Questo scenario genera un dilemma tra innovazione e sostenibilità, richiedendo una regolamentazione equilibrata che eviti il caos senza soffocare il progresso.
Quando OpenAI Accusa DeepSeek di Plagio Il Bue che Dice Cornuto allAsino? 1369
#1369

Quando OpenAI Accusa DeepSeek di Plagio: Il Bue che Dice Cornuto all’Asino?

03.02.2025
OpenAI accusa DeepSeek di aver utilizzato i suoi dati per addestrare i propri modelli, sollevando una questione di ipocrisia dato che OpenAI stessa è stata criticata per pratiche simili. Il dibattito si concentra sulla legittimità dell'uso di dati protetti da copyright per l'addestramento delle intelligenze artificiali e sulla necessità di regolamentazioni più chiare. La discussione tocca anche le implicazioni per i diritti degli autori e le sfide di un modello di compensazione equo.
Il Garante chiede informazioni a DeepSeek verso un blocco? 1368
#1368

Il Garante chiede informazioni a DeepSeek: verso un blocco?

28.01.2025
Il Garante per la protezione dei dati personali ha richiesto chiarimenti a DeepSeek, un'applicazione di chatbot molto popolare in Italia, per verificare la conformità alle normative sulla privacy. La richiesta riguarda la raccolta e il trattamento dei dati personali, con particolare attenzione alla loro conservazione su server cinesi e all'assenza di misure per proteggere i minori. L'azione del Garante italiano potrebbe innescare simili iniziative in altre nazioni europee.
Contaballe perch (e come) ChatGPT ha mentito a Luca Bizzarri 1334
#1334

Contaballe: perché (e come) ChatGPT ha mentito a Luca Bizzarri

26.10.2024
L'intelligenza artificiale non è progettata per dire la verità, ma per generare testi plausibili. Attraverso l'esempio di Luca Bizzarri e un'interazione con GPT, si esplora come i modelli di linguaggio possano produrre risposte inesatte, note come allucinazioni, e il loro ruolo nella creatività. Si discutono le ragioni tecniche dietro questi fenomeni e i metodi per mitigarli, evidenziando il potenziale creativo delle AI.
Come ti rubo le guide che hai realizzato il caso di Anthropic vs iFixit 1304
#1304

Come ti "rubo" le guide che hai realizzato: il caso di Anthropic vs iFixit

21.08.2024
Anthropic, nota azienda nel campo dell'intelligenza artificiale, ha effettuato un massiccio scraping dei contenuti di iFixit, violando i termini di servizio del sito. Il comportamento del loro crawler ha sollevato questioni etiche e legali riguardo alla proprietà intellettuale e alla sostenibilità dei contenuti online, evidenziando la necessità di regolamentazioni più rigide nel settore.
Le Foto dei Bambini Brasiliani Usate per Addestrare le AI. E non  un bene.
#1278

Le Foto dei Bambini Brasiliani Usate per Addestrare le AI. E non è un bene.

02.07.2024
Le foto dei bambini brasiliani vengono utilizzate senza consenso per addestrare algoritmi di intelligenza artificiale, compromettendo privacy e sicurezza. Un'indagine di Human Rights Watch rivela l'uso non autorizzato di dati personali in enormi database di immagini, sollevando gravi preoccupazioni etiche e legali. La situazione evidenzia l'inadeguatezza delle normative sulla protezione dei dati e la necessità di un dibattito urgente sull'equilibrio tra innovazione tecnologica e diritti individuali.
Le AI, Gdel e lAntropocentrismo 1257
#1257

Le AI, Gödel e l'Antropocentrismo

14.05.2024
L'episodio esplora le sfide normative e tecniche dell'intelligenza artificiale (AI), sottolineando gli errori comuni nell'approccio alla regolamentazione, come la fallacia del rischio zero. Viene discussa l'importanza dell'allineamento delle AI ai valori umani fondamentali, piuttosto che un approccio normativo prescrittivo, per mitigare rischi come l'hypersuasion e l'uso improprio in settori specifici.
Gemini, la AI di Google RAZZISTA verso... i BIANCHI 1218
#1218

Gemini, la AI di Google RAZZISTA verso... i BIANCHI

23.02.2024
Google Gemini, l'intelligenza artificiale di Google, presenta un problema di allineamento che altera la rappresentatività storica per favorire l'inclusività. Questo approccio, sebbene benintenzionato, porta a risultati distorti e paradossali, come immagini storiche in cui le figure rappresentate non riflettono la realtà storica. L'episodio esplora le implicazioni etiche e pratiche di tali errori e la necessità di un equilibrio tra rappresentatività e accuratezza storica.
Perch dovete smettere di usare Zoom (almeno per un po)... 1167
#1167

Perché dovete smettere di usare Zoom (almeno per un po')...

07.08.2023
Zoom ha aggiornato la sua privacy policy introducendo clausole che concedono alla piattaforma una licenza perpetua sui contenuti degli utenti e la possibilità di utilizzarli per addestrare intelligenze artificiali. Queste modifiche sollevano preoccupazioni legali e di privacy, specialmente per chi gestisce dati sensibili o proprietà intellettuali.
Sblocco ChatGPT i 9 se del Garante per liberare i dati 1138
#1138

Sblocco ChatGPT: i 9 "se" del Garante per "liberare" i dati

13.04.2023
Il Garante della Privacy italiano ha imposto a OpenAI nove condizioni per la sospensione della limitazione al trattamento dei dati personali. Tra queste, la necessità di un'informativa chiara, strumenti per l'opposizione e la correzione dei dati, e un piano di Age Verification. La questione centrale riguarda l'uso di dati non consensati per l'addestramento degli algoritmi, sollevando interrogativi sulla conformità al GDPR.
576. Etica della AI Week - La Guerra dei Dati (forniti o inferiti) e della Conoscenza
#576

Etica della AI Week - La Guerra dei Dati (forniti o inferiti) e della Conoscenza

14.08.2019
L'episodio esplora il ruolo cruciale dei dati nell'intelligenza artificiale, evidenziando le sfide etiche e pratiche legate al loro utilizzo. Si discutono le implicazioni dell'uso dei dati anonimi, la presenza di bias nei dataset, la responsabilità nella selezione dei dati e la complessità dei dati derivati. Si analizzano casi concreti per illustrare come i dati possano influenzare decisioni critiche e si sottolinea la necessità di un approccio etico nella gestione dei dati.
388. Una intelligenza artificiale psicopatica ci uccider tutti?
#388

Una intelligenza artificiale "psicopatica" ci ucciderà tutti?

08.06.2018
Norman, un'intelligenza artificiale sviluppata dall'MIT, ha sollevato preoccupazioni dopo aver interpretato in modo violento delle macchie di Rorschach. Questo comportamento è il risultato di un addestramento basato su dati violenti, evidenziando come il pregiudizio nei dati di input influenzi le risposte delle AI. La qualità dei dati è cruciale per ottenere risultati affidabili e privi di bias.