LinkedIn sta per implementare una modifica significativa alla sua privacy policy, che entrerà in vigore il 3 novembre 2025. Di default, i dati degli utenti verranno utilizzati per addestrare i modelli di intelligenza artificiale della piattaforma. Il consenso è implicito, a meno che gli utenti non scelgano manualmente di optare fuori, un processo che richiede di navigare attraverso le impostazioni della privacy. Questo approccio solleva interrogativi cruciali sulla privacy e sul bilanciamento dei poteri tra utenti e piattaforme.
La decisione di LinkedIn di utilizzare un modello di opt-out per il consenso all'utilizzo dei dati per l'intelligenza artificiale sfida le normative del GDPR, che promuovono un consenso esplicito e informato. L'azienda si appella al "legittimo interesse" per giustificare questa scelta, un argomento già al centro di controversie legali simili, come quella che coinvolge Meta e l'attivista Max Schrems. L'uso dell'opt-out mette in luce una strategia di manipolazione del consenso, sfruttando l'inerzia degli utenti e garantendo un flusso di dati senza un consenso attivo.
Questa situazione rappresenta un test cruciale per le leggi europee e per la consapevolezza digitale degli utenti. Le grandi aziende tecnologiche stanno sistematicamente esplorando i limiti delle normative sulla privacy, sfidando il GDPR per vedere fino a che punto possono spingersi prima di incorrere in sanzioni. La questione centrale non è solo l'utilizzo dei dati per l'AI, ma come viene chiesto il permesso agli utenti, e se il legittimo interesse possa essere usato come passepartout per l'innovazione basata sui dati.
In questa Puntata
LinkedIn usa i tuoi dati per l'AI senza chiedere: sei d'accordo?