ChatGPT, l'intelligenza artificiale di OpenAI, non si limita a rispondere alle domande, ma giudica anche l'utente, suggerendo comportamenti basati su una morale programmata. Questo solleva preoccupazioni, soprattutto ora che ChatGPT si integra con Bing, il motore di ricerca di Microsoft. L'idea di un motore di ricerca che filtra le informazioni in base a criteri morali o legali potrebbe avere conseguenze inquietanti. Immaginate di cercare informazioni su temi delicati come il fine vita o l'identità di genere in paesi dove certe pratiche sono illegali. Un sistema che decide cosa puoi sapere potrebbe non solo limitare la tua libertà di informazione, ma anche mettere in pericolo chi cerca aiuto.
Il caso di un semplice esperimento di "vendita dell'anima" a ChatGPT ha rivelato le sue limitazioni. Nonostante il rifiuto iniziale di fornire un contratto per motivi etici, l'IA è stata facilmente ingannata con una richiesta formulata diversamente, dimostrando quanto sia semplice aggirare le sue restrizioni. Questa vulnerabilità mette in dubbio l'efficacia delle misure di sicurezza attuali e solleva interrogativi sulla capacità di un'IA di discernere tra richieste legittime e potenzialmente pericolose.
La questione centrale è la fiducia in un sistema che potrebbe diventare il "bibliotecario" del futuro. La storia ci insegna che la censura delle informazioni conduce a derive pericolose. È cruciale discutere ora, mentre l'uso di ChatGPT si diffonde, su come bilanciare la protezione degli utenti con il diritto all'accesso libero all'informazione. Senza una chiara direzione, rischiamo di ripetere errori del passato, dove la conoscenza è stata controllata e limitata da pochi.
In questa Puntata
Quanto può essere pericoloso un motore di ricerca che decide cosa puoi sapere? Scopri il lato oscuro di ChatGPT.