L'operazione Metafile ha rivelato una realtà inquietante: un account Instagram di una presunta tredicenne, creato dalla procura del New Mexico, ha accumulato migliaia di follower adulti in pochi giorni, sollevando dubbi sulla sicurezza dei minori online. Meta, invece di intervenire, ha suggerito di trasformare l'account in un profilo professionale. Questa operazione ha portato alla luce come gli algoritmi di Meta non solo non proteggano i minori, ma li espongano a contenuti sessuali espliciti.
Il caso legale che ne è seguito sfida la protezione offerta dalla Section 230, sostenendo che non si tratta di responsabilità editoriale, ma di un design del prodotto difettoso che attivamente promuove contenuti dannosi. Le accuse indicano che gli algoritmi di Meta non sono neutrali, ma progettati per massimizzare l'engagement, anche a costo di esporre i minori a rischi significativi. I dati interni mostrano che Meta era consapevole dei problemi, ma ha preferito metriche che minimizzavano la portata del problema.
La difesa di Meta si basa sull'assumption of risk, sostenendo che gli utenti erano stati avvisati dei rischi, ma questo argomento vacilla quando si considera che i minori non hanno la maturità per comprendere appieno tali avvertimenti. Il caso del New Mexico potrebbe diventare un precedente per future azioni legali, mettendo in discussione l'immunità delle piattaforme digitali e spingendo verso una maggiore responsabilità nei confronti dei loro algoritmi di raccomandazione.
In questa Puntata
Meta sapeva dei rischi per i minori su Instagram, ma ha scelto di ignorarli? Scopri le accuse scioccanti del New Mexico.