Inizio raccontando la storia di Target, una grande catena di distribuzione negli Stati Uniti, dove un algoritmo ha predetto la gravidanza di una ragazza minorenne analizzando i suoi acquisti. Questo ha portato a una reazione furiosa del padre, che ha accusato l'azienda di inviare prodotti per neomamme a sua figlia. Dopo le scuse formali di Target, il padre ha scoperto che l'algoritmo aveva ragione: la figlia era effettivamente incinta, ma non lo aveva ancora rivelato alla famiglia. Questo episodio mette in luce come gli algoritmi possano profilare le persone in modo molto preciso, talvolta più dei loro stessi familiari.
La discussione si amplia con un altro esempio, quello di una neomamma che ha perso il bambino ma continua a ricevere annunci di prodotti per neonati dai social network, causando un dolore continuo. Anche bloccando alcuni annunci, ne appaiono sempre di nuovi, dimostrando l'inefficacia dei tentativi di sfuggire a questa profilazione. Un'amica mi ha raccontato di esperienze simili, dove donne tra i 30 e i 40 anni ricevono annunci che suggeriscono problemi di fertilità o opzioni di inseminazione artificiale, semplicemente perché non sono state classificate come madri dagli algoritmi.
Queste situazioni evidenziano un problema fondamentale dei social network: l'impossibilità di uscire dalla bolla di profilazione. I dati personali vengono utilizzati per creare profili che possono causare sofferenza gratuita, e questo solleva una questione etica importante: esiste il diritto a non soffrire? Sostengo che sia necessario trovare un modo per evitare che le bolle di profilazione ci danneggino, anche se potrebbe sembrare un'idea utopistica. Invito gli ascoltatori a riflettere su questo tema e a condividere le loro opinioni.
In questa Puntata
Gli algoritmi di profilazione possono anticipare informazioni personali con conseguenze inaspettate e talvolta dolorose. Un caso emblematico riguarda una minorenne incinta scoperta da un algoritmo prima che dai suoi genitori. La puntata esplora le implicazioni di tali tecnologie, evidenziando situazioni in cui la profilazione algoritmica può causare sofferenza gratuita, sollevando interrogativi etici sulla necessità di proteggere il diritto a non soffrire.