Benvenuti a una nuova puntata di "Ciao Internet". Oggi parliamo di una questione che ha acceso un dibattito acceso sia in Italia che nel resto del mondo: la disputa tra OpenAI e il Garante italiano della privacy. Il 30 marzo 2023, il Garante ha emesso un provvedimento di limitazione provvisoria del trattamento dei dati personali che ha portato OpenAI a bloccare l'accesso a ChatGPT per i cittadini italiani. Questa decisione è stata percepita come una soluzione temporanea e piuttosto drastica, simile a chiudere un negozio online solo per risolvere un problema specifico.
Dopo una serie di colloqui, il Garante ha delineato nove condizioni che OpenAI deve soddisfare per poter riprendere le operazioni in Italia. Analizziamo insieme queste condizioni, iniziando dalla richiesta di una chiara informativa sui dati raccolti e trattati, che spieghi i diritti degli utenti e come vengono utilizzati i dati. Sebbene sembri una formalità, questa richiesta mette in luce la necessità di trasparenza che spesso viene trascurata.
Le condizioni si fanno più stringenti con la richiesta di modificare la base giuridica del trattamento dei dati personali, eliminando il contratto come base e sostituendolo con il consenso o il legittimo interesse. Questo punto è cruciale, poiché ridefinisce il modo in cui le aziende possono raccogliere e utilizzare i dati degli utenti.
Un'altra richiesta significativa è quella di fornire uno strumento per esercitare il diritto di opposizione al trattamento dei dati per l'addestramento degli algoritmi, un aspetto che richiede un notevole sforzo tecnico per essere implementato correttamente. Inoltre, il Garante insiste su un sistema di verifica dell'età per impedire l'accesso ai minori di 13 anni, una misura già adottata per altre piattaforme come TikTok.
Tra le condizioni troviamo anche la necessità di una campagna informativa per rendere consapevoli gli utenti delle loro possibilità di tutela. Questo non è un invito a fare pubblicità, ma piuttosto un obbligo a comunicare correttamente i diritti degli utenti.
Due punti, tuttavia, rappresentano sfide particolarmente complesse. Il primo riguarda la correzione o cancellazione dei dati personali inesatti nei contenuti generati dall'AI. Questo richiede che i sistemi di intelligenza artificiale siano in grado di identificare e correggere le informazioni false, un compito non banale.
Il secondo, e forse più critico, riguarda i dati ottenuti da terzi, come Common Crawl, che OpenAI utilizza senza consenso esplicito. Il Garante chiede un sistema per permettere agli utenti di opporsi all'uso di questi dati per l'addestramento degli algoritmi. Questa richiesta mette in discussione l'intero modello di funzionamento degli LLM, poiché non esiste attualmente un metodo per rimuovere selettivamente i dati dal training una volta completato.
Concludo riflettendo sulla necessità di nuove normative che riconoscano la peculiarità degli LLM e dei dati sintetici, proponendo l'idea che questi strumenti richiedano una categoria a sé nel contesto della regolamentazione della privacy. È un argomento complesso, con molte sfumature e poche soluzioni semplici. Continuiamo a seguire l'evoluzione di questa situazione per capire come si svilupperanno le normative e quali saranno le risposte di OpenAI. Nel frattempo, vi invito a restare aggiornati e a partecipare alla prossima puntata di "Ciao Internet".

I contenuti dell'Episodio #1138
In questo episodio di "Ciao Internet", affronto un tema scottante: la controversia tra OpenAI e il Garante per la protezione dei dati personali italiano. Dopo una serie di colloqui, il Garante ha presentato nove condizioni per sospendere il provvedimento di limitazione provvisoria al trattamento dei dati personali di OpenAI. Analizzo ciascuna di queste condizioni, spiegando le implicazioni e le difficoltà di implementazione, e rifletto su come queste questioni possano influenzare il futuro dell'intelligenza artificiale e della tutela della privacy.