L'Organizzazione Mondiale della Sanità ha recentemente introdotto un chatbot basato sull'intelligenza artificiale, SARA, progettato per alleviare il carico di lavoro del personale sanitario. Tuttavia, l'iniziativa ha sollevato preoccupazioni significative. SARA, acronimo di SMART AI Resource Assistant for Health, era destinato a fornire informazioni su vari temi sanitari, dalla salute mentale all'alimentazione. Nonostante le intenzioni nobili, i risultati iniziali sono stati deludenti, con il bot che ha fornito risposte errate e talvolta pericolose.
Gli errori di SARA non sono solo imprecisioni minori; in alcuni casi, il bot ha fallito nel fornire informazioni aggiornate sui farmaci approvati dalla FDA e ha diffuso dati inesatti divulgati dalla stessa OMS. Un esempio lampante riguarda la risposta inadeguata a una domanda sugli effetti collaterali della ceretta sui pazienti oncologici, suggerendo semplicemente di consultare un medico. Questi errori evidenziano i limiti attuali delle intelligenze artificiali nel settore sanitario, dove la precisione è cruciale.
L'uso di intelligenze artificiali come SARA dovrebbe essere limitato a un ruolo di supporto, come quello di uno "stagista digitale", utile per preelaborare informazioni che poi devono essere valutate da professionisti umani. L'affidamento diretto a questi sistemi può portare a conseguenze potenzialmente catastrofiche, specialmente in ambito sanitario. È imperativo riflettere non solo sulle capacità, ma anche sui limiti attuali di queste tecnologie, per evitare che la disinformazione si diffonda ulteriormente e causi danni reali.
In questa Puntata
L'OMS lancia SARA, il chatbot sanitario, ma le sue risposte sono un rischio per la salute?