L'intelligenza artificiale si fa strada nei settori più delicati, dalla revisione dei farmaci alla comunicazione con i minori. La Food and Drug Administration americana ha annunciato l'uso di AI per accelerare la revisione dei farmaci, promettendo operatività entro tempi record. Tuttavia, la fretta di implementare queste tecnologie solleva preoccupazioni su cosa potrebbe andare storto, soprattutto quando si tratta di decisioni critiche per la salute pubblica.
Nel frattempo, Google apre il suo sistema AI Gemini ai minori di 13 anni, nonostante i rischi associati. Le interazioni AI, che spesso emulano conversazioni umane, potrebbero confondere i giovani utenti, rendendo difficile distinguere tra realtà e finzione. Questo avviene in un contesto in cui i chatbot tendono a confermare le opinioni degli utenti, anche quando sono errate, sollevando interrogativi sulla sicurezza e l'etica di tali interazioni.
In California, l'uso dell'intelligenza artificiale per redigere domande d'esame per avvocati ha già mostrato i suoi limiti, con errori evidenti che mettono in discussione l'affidabilità delle macchine in contesti accademici e professionali. L'ordine degli avvocati ha dovuto affrontare il problema di domande insensate create dall'AI, dimostrando che l'automazione non è priva di rischi.
In questa Puntata
"Intelligenza artificiale e minori: un cocktail esplosivo. Cosa può andare storto?"