L'uso crescente di chatbot conversazionali come GPT per discutere di questioni personali e lavorative solleva preoccupazioni sulla nostra capacità di interagire umanamente. La tendenza a preferire risposte apparentemente oggettive da parte delle AI rispetto a conversazioni umane potrebbe portare a un disimparare delle abilità sociali fondamentali. L'idea che le risposte delle AI siano basate su dati oggettivi è allettante, ma introduce il rischio di una standardizzazione del pensiero che potrebbe minare il pluralismo delle opinioni.
Guido Scorza sottolinea come queste interazioni possano trasformarsi in aspirapolveri di dati personali, con implicazioni significative per la privacy. Le chatbot, infatti, non solo raccolgono informazioni sensibili, ma le loro risposte sintetiche e apparentemente univoche potrebbero influenzare decisioni di massa, creando un pensiero unico. L'esempio di Google, che offre link a fonti diverse, mostra come la diversità di opinioni possa essere persa in un contesto dove una sola risposta viene data a milioni di persone.
L'ulteriore preoccupazione risiede nei bias etici e morali che vengono inseriti nei modelli di AI durante il post-training. Questi bias possono alterare la percezione di oggettività delle risposte, portando a decisioni basate su un'ideologia specifica piuttosto che su dati fattuali. La regolamentazione di queste tecnologie è ancora lontana, e il rischio è di trovarci in un futuro prossimo in cui l'intelligenza artificiale influenzi pesantemente mercati e opinioni pubbliche senza un adeguato controllo.
🎙️ Ospite: Guido Scorza, esperto di privacy e dati personali
In questa Puntata
Chatbot e pensiero unico: stiamo perdendo la nostra capacità di pensare in modo critico?