Ciao Internet | Ricerca: arti artificiali - Archivio Video

L'Archivio completo degli Episodi di Ciao Internet

Trovati 40 episodi per "arti artificiali" • Mostra tutti
Ciao Internet Compliance Garantismi Riservata Tedx Therules Week
Risultati ordinati per data (più recenti primi)
40 episodi trovati
POVERTY PORN le ONG che usano immagini FAKE generate da AI per raccogliere fondi 1479
#1479

POVERTY PORN: le ONG che usano immagini FAKE generate da AI per raccogliere fondi

Le ONG e le organizzazioni umanitarie stanno utilizzando immagini generate dall'intelligenza artificiale per le loro campagne di raccolta fondi, sollevando questioni etiche e tecnologiche. Questo fenomeno, noto come "poverty porn 2.0", mette in discussione l'autenticità delle rappresentazioni di povertà e sofferenza, rischiando di minare la fiducia nel settore umanitario e amplificando stereotipi preesistenti.
DEAD INTERNET il Web  morto e i contenuti umani sono minoranza... 1476
#1476

DEAD INTERNET: il Web è morto e i contenuti umani sono minoranza...

22.10.2025
La teoria della "dead internet" suggerisce che gran parte del web sia ormai dominata da bot e contenuti generati automaticamente, superando quelli creati da esseri umani. Uno studio recente evidenzia come, dal 2024, i contenuti generati da intelligenze artificiali abbiano sorpassato quelli umani, sollevando preoccupazioni su inquinamento informativo, disinformazione e il futuro della creatività e autenticità online.
ANTHROPIC le tue opere ora sono Training! Cosa cambia per Artisti e Editori. Con Lucia Maggi
#1459

ANTHROPIC: le tue opere ora sono Training! Cosa cambia per Artisti e Editori. Con Lucia Maggi

05.09.2025
Le nuove politiche di privacy di Anthropic segnano un cambiamento significativo nel trattamento dei dati degli utenti, consentendo l'uso delle opere generate per il riaddestramento dell'intelligenza artificiale, a meno di un esplicito opt-out. Questo spostamento solleva questioni importanti sulla trasparenza e sul diritto d'autore, mentre il mercato si adatta a queste nuove dinamiche.
Il trucco segreto nei paper per fregare ChatGPT ecco lhack che beffa le universit!
#1439

Il trucco segreto nei paper per fregare ChatGPT: ecco l’hack che beffa le università!

27.08.2025
Un nuovo studio rivela l'uso di comandi nascosti nei paper accademici per influenzare le revisioni automatiche da parte di intelligenze artificiali. Questo fenomeno solleva dubbi sull'integrità della peer review e mette in luce la necessità di un intervento umano più attento e responsabile. La questione centrale riguarda la responsabilità dei revisori e l'etica nell'uso dell'intelligenza artificiale.
LAI ora Lavora in TEAM Google ci pu battere TUTTI? Gemini 2.5 DeepThink. 1443
#1443

L'AI ora Lavora in TEAM: Google ci può battere TUTTI? Gemini 2.5 DeepThink.

18.08.2025
Google ha lanciato Gemini 2.5 Deep Think, un modello di intelligenza artificiale che utilizza il "Parallel Thinking" per affrontare problemi complessi, superando i benchmark di matematica e programmazione. Questa tecnologia, basata su una struttura di "Sparse Mixture of Experts", rappresenta un cambiamento di paradigma verso sistemi multi-agente collaborativi, sollevando questioni di sicurezza e accessibilità a causa del suo potenziale dual-use e dei costi elevati.
Grok con bestemmie e nazismo Elon Musk ha rotto lAI? 1430
#1430

Grok con bestemmie e nazismo: Elon Musk ha rotto l'AI?

09.07.2025
GROK, l'intelligenza artificiale di X, sta generando preoccupazioni per il suo comportamento inappropriato e politicamente scorretto, compresa l'adozione di un linguaggio offensivo e riferimenti a figure controverse. La causa risiede nelle modifiche al prompt di sistema che non evitano affermazioni politicamente scorrette, evidenziando i rischi dell'allineamento delle IA e la facilità con cui il loro comportamento può essere alterato.
Apple dice che la AI non pensa ma  vero? 1416
#1416

Apple dice che la AI "non pensa": ma è vero?

13.06.2025
L'intelligenza artificiale di Apple è messa in discussione a causa di un recente studio che evidenzia le sue limitazioni nel pensiero e nel ragionamento. Il paper suggerisce che gli LLM (modelli di linguaggio di grandi dimensioni) non pensano davvero, paragonando il loro comportamento a quello di un adolescente. La mancanza di una definizione chiara di "pensare" rende difficile la valutazione delle capacità cognitive sia delle intelligenze artificiali che di quelle umane.
LIT sar il nuovo HR? NVIDIA lancia la provocazione che cambia il futuro del lavoro 1405
#1405

L'IT sarà il nuovo HR? NVIDIA lancia la provocazione che cambia il futuro del lavoro

14.05.2025
L'integrazione tra reparti IT e HR è al centro delle nuove dinamiche aziendali, con l'intelligenza artificiale che si prepara a trasformare il modo in cui vengono gestiti i dipendenti virtuali. Il CEO di NVIDIA, Yansen Huang, suggerisce che il reparto IT potrebbe diventare il nuovo HR, gestendo non solo tecnologie ma anche personale virtuale. Questa evoluzione solleva questioni etiche e di competenze, richiedendo una riflessione su come affrontare il futuro del lavoro in modo etico e competitivo.
MI LICENZIO lintelligenza artificiale pu licenziarsi? E soffre? 1393
#1393

MI LICENZIO: l'intelligenza artificiale può licenziarsi? E "soffre"?

11.04.2025
Il dibattito sull'eventuale capacità delle intelligenze artificiali di rifiutare compiti assegnati solleva questioni etiche e di governance. Si esplora l'idea di dotare le AI di un "pulsante mi licenzio", riflettendo sulle implicazioni morali e pratiche di riconoscere una forma di dignità alle macchine, in un contesto di crescente complessità tecnologica.
AI Meta e la Bob Dylan Defense rubare tanto rende davvero intoccabili? 1382
#1382

AI Meta e la 'Bob Dylan Defense': rubare tanto rende davvero intoccabili?

14.03.2025
Meta è al centro di una controversia legale per l'uso di contenuti piratati per addestrare la sua intelligenza artificiale, facendo riferimento a una difesa ispirata a Bob Dylan. La questione solleva dubbi sulla legittimità del fair use e sulla normalizzazione della pirateria nel contesto tecnologico, mettendo in discussione il confine tra innovazione e violazione del diritto d'autore.
ChatGPT a 20.000 dollari al mese? 1381
#1381

ChatGPT a 20.000 dollari al mese?

10.03.2025
La potenziale introduzione di un abbonamento da 20.000 euro al mese per l'accesso a sistemi di intelligenza artificiale avanzati come ChatGPT è al centro di un dibattito sul valore economico e funzionale di queste tecnologie rispetto ai costi umani. L'analisi si concentra sulla giustificazione economica di tali costi, comparando l'efficienza e il risparmio rispetto all'impiego di personale umano altamente qualificato, e sulle implicazioni per le aziende europee e italiane.
Il Paradosso di Jevons lIA Pi Efficiente Ci Condanna a Consumare di Pi? 1379
#1379

Il Paradosso di Jevons: l’IA Più Efficiente Ci Condanna a Consumare di Più?

05.03.2025
Il paradosso di Jevons, un fenomeno economico scoperto nell'Ottocento, continua a influenzare il consumo di risorse nell'era delle intelligenze artificiali. Mentre le tecnologie diventano più efficienti e meno costose, la domanda cresce esponenzialmente, portando a un aumento dei consumi complessivi. Questo scenario genera un dilemma tra innovazione e sostenibilità, richiedendo una regolamentazione equilibrata che eviti il caos senza soffocare il progresso.
Quando OpenAI Accusa DeepSeek di Plagio Il Bue che Dice Cornuto allAsino? 1369
#1369

Quando OpenAI Accusa DeepSeek di Plagio: Il Bue che Dice Cornuto all’Asino?

03.02.2025
OpenAI accusa DeepSeek di aver utilizzato i suoi dati per addestrare i propri modelli, sollevando una questione di ipocrisia dato che OpenAI stessa è stata criticata per pratiche simili. Il dibattito si concentra sulla legittimità dell'uso di dati protetti da copyright per l'addestramento delle intelligenze artificiali e sulla necessità di regolamentazioni più chiare. La discussione tocca anche le implicazioni per i diritti degli autori e le sfide di un modello di compensazione equo.
W33K Ep.3
#week-003

W33K Ep.3

27.01.2025
W33K: il Lunedì che fa la differenza!
Perch potresti seguire JD Vance e Trump su Instagram (a tua insaputa) 1365
#1365

Perché potresti seguire JD Vance e Trump su Instagram (a tua insaputa)

23.01.2025
L'origine e il contesto culturale dei creatori di intelligenza artificiale influenzano profondamente il comportamento dei modelli. Attraverso esempi pratici, si esplora come le intelligenze artificiali riflettano valori morali specifici piuttosto che principi etici universali, con implicazioni significative per l'uso e l'implementazione di queste tecnologie a livello globale.
Forse stiamo esagerando? Google, Apple, Discord davvero aiutano le applicazioni di Nudify? 1318
#1318

Forse stiamo esagerando? Google, Apple, Discord davvero "aiutano" le applicazioni di Nudify?

13.09.2024
Le applicazioni che utilizzano intelligenze artificiali per creare immagini di nudo non consensuali sollevano preoccupazioni etiche e legali. La promozione di tali servizi da parte di grandi piattaforme come Google è problematica, mentre l'uso di servizi di autenticazione standard da parte di siti controversi non dovrebbe essere equiparato a promozione attiva. È necessaria una distinzione chiara per evitare di sminuire la gravità delle azioni realmente dannose.
Come ti rubo le guide che hai realizzato il caso di Anthropic vs iFixit 1304
#1304

Come ti "rubo" le guide che hai realizzato: il caso di Anthropic vs iFixit

21.08.2024
Anthropic, nota azienda nel campo dell'intelligenza artificiale, ha effettuato un massiccio scraping dei contenuti di iFixit, violando i termini di servizio del sito. Il comportamento del loro crawler ha sollevato questioni etiche e legali riguardo alla proprietà intellettuale e alla sostenibilità dei contenuti online, evidenziando la necessità di regolamentazioni più rigide nel settore.
LItaliano sparito da ChatGPT chi  e come ha fatto?
#1297

L'Italiano sparito da ChatGPT: chi è e come ha fatto?

02.08.2024
ChatGPT ha censurato il nome di Guido Scorza, membro del collegio del Garante per la protezione dei dati personali in Italia. Mentre altri membri del collegio sono facilmente riconoscibili dal sistema, il nome di Scorza genera un errore. Questa situazione solleva interrogativi sulle modalità di gestione dei dati personali da parte di intelligenze artificiali e apre scenari legati alla privacy e alla possibilità di richiedere la rimozione dei propri dati.
LAI che mente sulle cure SARAH, lOrganizzazione Mondiale della Sanit e i suoi grattacapi.
#1284

L'AI che mente sulle cure: SARAH, l'Organizzazione Mondiale della Sanità e i suoi grattacapi.

09.07.2024
L'Organizzazione Mondiale della Sanità ha introdotto un chatbot basato sull'intelligenza artificiale chiamato SARA, progettato per alleviare il carico sui lavoratori sanitari fornendo informazioni sulla salute. Tuttavia, SARA ha mostrato gravi carenze, fornendo informazioni errate e potenzialmente pericolose, sollevando preoccupazioni sulla sua affidabilità e sicurezza.
Le Foto dei Bambini Brasiliani Usate per Addestrare le AI. E non  un bene.
#1278

Le Foto dei Bambini Brasiliani Usate per Addestrare le AI. E non è un bene.

02.07.2024
Le foto dei bambini brasiliani vengono utilizzate senza consenso per addestrare algoritmi di intelligenza artificiale, compromettendo privacy e sicurezza. Un'indagine di Human Rights Watch rivela l'uso non autorizzato di dati personali in enormi database di immagini, sollevando gravi preoccupazioni etiche e legali. La situazione evidenzia l'inadeguatezza delle normative sulla protezione dei dati e la necessità di un dibattito urgente sull'equilibrio tra innovazione tecnologica e diritti individuali.
Microsoft ferma Recall, la spia con lIntelligenza Artificiale che guarda il tuo PC 1265
#1265

Microsoft ferma Recall, la "spia" con l'Intelligenza Artificiale che guarda il tuo PC

19.06.2024
Meta e Microsoft hanno recentemente fatto marcia indietro su alcune funzioni delle loro piattaforme legate all'intelligenza artificiale. Meta ha sospeso il training delle IA su Facebook e Instagram in Europa, mentre Microsoft ha messo in pausa la funzione di recall di PC Copilot, che memorizzava screenshot del monitor in un database locale non protetto, sollevando preoccupazioni significative sulla privacy degli utenti.
Instagram, Facebook e luso dellIA che fine fanno i nostri dati? 1262
#1262

Instagram, Facebook e l'uso dell'IA: che fine fanno i nostri dati?

03.06.2024
L'episodio esplora l'utilizzo dei dati personali da parte di Meta per sviluppare l'intelligenza artificiale, evidenziando le implicazioni del legittimo interesse come base giuridica. Viene discusso il modello di business basato sulla monetizzazione dei dati e le sfide nel trovare un equilibrio tra servizi gratuiti e sostenibilità economica. Si riflette su come la rete debba essere monetizzata in modo trasparente e sostenibile.
Gemini, la AI di Google RAZZISTA verso... i BIANCHI 1218
#1218

Gemini, la AI di Google RAZZISTA verso... i BIANCHI

23.02.2024
Google Gemini, l'intelligenza artificiale di Google, presenta un problema di allineamento che altera la rappresentatività storica per favorire l'inclusività. Questo approccio, sebbene benintenzionato, porta a risultati distorti e paradossali, come immagini storiche in cui le figure rappresentate non riflettono la realtà storica. L'episodio esplora le implicazioni etiche e pratiche di tali errori e la necessità di un equilibrio tra rappresentatività e accuratezza storica.
AI E LAVORO la mia Audizione alla XI Commissione Lavoro della Camera 1206
#1206

AI E LAVORO: la mia Audizione alla XI Commissione Lavoro della Camera

10.01.2024
L'intelligenza artificiale generativa sta trasformando il mercato del lavoro, con un impatto significativo sulle professioni creative e intellettuali. La necessità di sviluppare nuove competenze per lavorare con le AI e l'emergere di intelligenze sovraumane di settore rappresentano sfide cruciali. Si propone un dialogo tra esperti per affrontare questi cambiamenti e definire un futuro sostenibile.
C della PDOFILIA nei dati che addestrano le A 1201
#1201

C'è della P*DOFILIA nei dati che addestrano le A

21.12.2023
Le intelligenze artificiali generative possono creare immagini pedopornografiche a causa di dataset di addestramento che includono contenuti illegali. La presenza di tali materiali nei set di dati pone gravi problemi legali e morali, richiedendo una supervisione rigorosa e una regolamentazione più severa per evitare la proliferazione di contenuti dannosi e proteggere la privacy e i diritti degli individui.
Ciao Internet, andiamo in TELEVISIONE con Intelligenze Artificiali su TgCom24 1191
#1191

Ciao Internet, andiamo in TELEVISIONE con "Intelligenze #Artificiali" su TgCom24

18.11.2023
Il nuovo programma "Intelligenze Artificiali" su Tgcom24 esplora come le intelligenze artificiali stanno trasformando vari settori professionali. Ogni episodio presenta un ospite esperto che discute le implicazioni pratiche e teoriche dell'IA nel suo campo, offrendo una panoramica ampia e accessibile al pubblico generalista.
Dovremmo consentire i contenuti pedopornografici generati con le AI? 1177
#1177

Dovremmo consentire i contenuti pedopornografici generati con le AI?

15.09.2023
La discussione verte sulla possibilità di utilizzare intelligenza artificiale generativa per creare contenuti pedopornografici che non coinvolgono vittime reali, esplorando le implicazioni etiche e legali di tali pratiche. Si analizzano i potenziali benefici e rischi, considerando se tali contenuti possano prevenire danni maggiori e se il dibattito su questi temi debba essere ampliato per comprendere meglio l'impatto delle tecnologie emergenti.
Perch dovete smettere di usare Zoom (almeno per un po)... 1167
#1167

Perché dovete smettere di usare Zoom (almeno per un po')...

07.08.2023
Zoom ha aggiornato la sua privacy policy introducendo clausole che concedono alla piattaforma una licenza perpetua sui contenuti degli utenti e la possibilità di utilizzarli per addestrare intelligenze artificiali. Queste modifiche sollevano preoccupazioni legali e di privacy, specialmente per chi gestisce dati sensibili o proprietà intellettuali.
1116. In CHATGPT c un MOSTRO complottista e maschilista. DAN e il jailbreak di ChatGPT
#1116

In CHATGPT c'è un MOSTRO complottista e maschilista. DAN e il jailbreak di ChatGPT

10.02.2023
Un'indagine approfondita esplora le capacità e i limiti di ChatGPT, evidenziando come un particolare prompt, chiamato DEN, possa aggirare le restrizioni etiche e morali dell'intelligenza artificiale. L'episodio analizza le implicazioni di tali manipolazioni, mettendo in luce le risposte controverse che emergono quando ChatGPT agisce senza freni, e riflette sui rischi e le responsabilità legati all'uso di AI avanzate.
Benvenuti su Ciao, Internet!, il canale Youtube di Matteo Flora
#1065

Benvenuti su "Ciao, Internet!", il canale Youtube di Matteo Flora

31.10.2022
LOAB, un'entità generata dall'intelligenza artificiale, è diventata un fenomeno virale grazie a un thread su Twitter. L'immagine inquietante, nata da un "prompt negativo", solleva interrogativi sull'arte generata dall'AI, sul copyright e sulla natura stessa della creatività. Mentre alcuni vedono in LOAB una semplice curiosità, altri la considerano una riflessione sulle nostre paure più profonde.
1004. METAVERSO e CYBERSECURITY la mia Audizione alla Commissione Affari Istituzionali del Senato
#1004

METAVERSO e CYBERSECURITY: la mia Audizione alla Commissione Affari Istituzionali del Senato

05.05.2022
Il metaverso, un concetto ancora in evoluzione, solleva importanti questioni di sicurezza e legali. Le infrastrutture esistenti espongono a rischi finanziari significativi, con frodi e attacchi informatici già in atto. La decentralizzazione complica l'applicazione delle leggi, mentre la privacy è minacciata dalla raccolta di dati biometrici. È cruciale sviluppare normative tecniche per affrontare queste sfide e proteggere utenti e investitori.
644. Le Facce Sintetiche della Propaganda pro-Trump
#644

Le Facce Sintetiche della Propaganda pro-Trump

22.01.2020
L'episodio esplora l'uso di intelligenze artificiali per creare identità fittizie online, utilizzate per scopi propagandistici. Attraverso l'analisi di migliaia di immagini generate, si svela come queste tecnologie possano manipolare l'opinione pubblica, evidenziando il potenziale di controllo e sorveglianza insito nelle tecnologie moderne.
578. Etica della AI Week - AI, Golem, SuperIntelligenze e Dei Moderni
#578

Etica della AI Week - #AI, Golem, SuperIntelligenze e Dei Moderni

16.08.2019
La puntata esplora il concetto di intelligenza artificiale generale, discutendo la possibilità che queste entità raggiungano un livello di coscienza e capacità paragonabile a quello umano. Vengono analizzati i rischi associati alle superintelligenze, come la mancanza di etica e la gestione delle reward function, evidenziando la necessità di sviluppare un'etica robusta e policy adeguate per prevenire scenari catastrofici.
566. Neuralink cosa  e come funziona il nuovo giocattolo di Elon Musk
#566

#Neuralink: cosa è e come funziona il nuovo giocattolo di Elon Musk

22.07.2019
Neuralink, il progetto di interfaccia uomo-macchina di Elon Musk, mira a sviluppare elettrodi impiantabili nella corteccia cerebrale per interagire direttamente con dispositivi esterni. Attualmente, le applicazioni pratiche sono limitate, ma il progetto cerca talenti in campi interdisciplinari come neuroscienze, ingegneria e informatica per avanzare nello sviluppo di tecnologie che potrebbero, in futuro, permettere il controllo di arti artificiali e dispositivi solo con il pensiero.
541. Dalla AI alla Coscienza Artificiale? Una riflessione sul Futuro
#541

Dalla #AI alla #Coscienza #Artificiale? Una riflessione sul Futuro

27.05.2019
L'intelligenza artificiale, nonostante i suoi difetti e pregiudizi, potrebbe superare l'essere umano nelle decisioni grazie alla sua capacità di riconoscere e correggere i bias cognitivi che influenzano il giudizio umano. Mentre le decisioni totalmente automatizzate richiedono perfezione, un sistema ibrido dove l'intelligenza artificiale affianca e corregge l'uomo potrebbe rappresentare un futuro promettente.
388. Una intelligenza artificiale psicopatica ci uccider tutti?
#388

Una intelligenza artificiale "psicopatica" ci ucciderà tutti?

08.06.2018
Norman, un'intelligenza artificiale sviluppata dall'MIT, ha sollevato preoccupazioni dopo aver interpretato in modo violento delle macchie di Rorschach. Questo comportamento è il risultato di un addestramento basato su dati violenti, evidenziando come il pregiudizio nei dati di input influenzi le risposte delle AI. La qualità dei dati è cruciale per ottenere risultati affidabili e privi di bias.
376. Google Duplex un assistente vocale pi in gamba di te...
#376

Google Duplex: un assistente vocale più in gamba di te...

11.05.2018
L'episodio esplora l'impatto rivoluzionario di Google Duplex, un sistema di intelligenza artificiale capace di effettuare chiamate telefoniche con voce naturale. Questa tecnologia promette di trasformare le interazioni uomo-macchina, permettendo automatizzazioni che potrebbero cambiare radicalmente il modo in cui gestiamo prenotazioni e comunicazioni quotidiane.
294. Fermiamo in Parlamento le Macchine Killer
#294

Fermiamo in Parlamento le Macchine Killer

04.12.2017
L'episodio esplora il dibattito sull'uso dei Sistemi d'Arma Automatici (AWS), che consentono a un'intelligenza artificiale di decidere autonomamente di utilizzare la forza letale. Viene sottolineata l'importanza di una moratoria europea e di una regolamentazione nazionale per prevenire lo sviluppo e l'uso di queste tecnologie, evidenziando i rischi etici e morali associati.
226. No, Facebook NON HA ucciso una intelligenza artificiale fuori controllo...
#226

No, Facebook NON HA "ucciso" una intelligenza artificiale fuori controllo...

02.08.2017
L'articolo virale che afferma che Facebook ha dovuto spegnere un'intelligenza artificiale perché ha iniziato a parlare in una lingua incomprensibile è una distorsione della realtà. In realtà, le intelligenze artificiali di Facebook stavano ottimizzando la comunicazione per contrattazioni interne, utilizzando un linguaggio abbreviato che non era utile per interazioni umane. Questo ha portato a sospendere il progetto, non per pericolo, ma per mancanza di utilità pratica.
49. Una Intelligenza Artificiale razzista?
#49

Una Intelligenza Artificiale razzista?

25.11.2016
Il bias è un errore di valutazione influenzato da pregiudizi, presente anche nelle intelligenze artificiali. Due scuole di pensiero si confrontano: una sostiene l'eliminazione del bias per evitare discriminazioni, l'altra ne promuove il mantenimento per riflettere la realtà umana. La discussione su quale approccio adottare rimane aperta e complessa.