L'Organizzazione Mondiale della Sanità ha recentemente lanciato SARA, un chatbot basato sull'intelligenza artificiale, concepito per supportare i lavoratori sanitari in un momento di carenza di personale. SARA, acronimo di SMART AI Resource Assistant for Health, è stato progettato per fornire informazioni su vari aspetti della salute, dalla salute mentale all'alimentazione sana. L'intento era quello di ridurre il carico di lavoro sui professionisti del settore sanitario, ma i risultati sono stati deludenti.
Fin dall'inizio, SARA avverte gli utenti che le sue risposte potrebbero non essere accurate. Tuttavia, test e studi hanno dimostrato che il chatbot ha fornito informazioni errate e talvolta allucinanti. Ad esempio, non è riuscito a fornire dati aggiornati sui farmaci approvati dalla Food and Drug Administration e ha sbagliato anche su dati statistici rilasciati dalla stessa Organizzazione Mondiale della Sanità. Un caso emblematico è stato quando, alla domanda sugli effetti collaterali della ceretta sui pazienti oncologici, SARA ha risposto in modo evasivo, suggerendo di consultare un medico.
Queste problematiche evidenziano come l'intelligenza artificiale, al momento, sia più adatta a essere utilizzata come uno "stagista digitale", in grado di pre-elaborare informazioni che poi devono essere verificate e gestite da professionisti umani. L'affidamento diretto a un sistema come SARA, senza supervisione, può portare a conseguenze gravi, soprattutto nel settore sanitario, dove la diffusione di informazioni inesatte può incrementare la disinformazione e causare danni reali.
È cruciale riflettere non solo sulle capacità, ma anche sui limiti attuali delle intelligenze artificiali. Questi strumenti non sono ancora pronti per essere utilizzati in modo autonomo in contesti critici, ma possono essere utili supporti se integrati con discernimento. La discussione sulla sicurezza e l'affidabilità di tali tecnologie è fondamentale per evitare potenziali catastrofi.

In questa Puntata
L'Organizzazione Mondiale della Sanità ha introdotto un chatbot basato sull'intelligenza artificiale chiamato SARA, progettato per alleviare il carico sui lavoratori sanitari fornendo informazioni sulla salute. Tuttavia, SARA ha mostrato gravi carenze, fornendo informazioni errate e potenzialmente pericolose, sollevando preoccupazioni sulla sua affidabilità e sicurezza.