L'AI che mente sulle cure: SARAH, l'Organizzazione Mondiale della Sanità e i suoi grattacapi.

Ciao Internet su Ciao Internet con Matteo Flora del 09.07.2024

Copertina del video: L'AI che mente sulle cure: SARAH, l'Organizzazione Mondiale della Sanità e i suoi grattacapi.

I contenuti dell'Episodio #1284

In questo episodio di Ciao Internet, affrontiamo un argomento critico che intreccia tecnologia, salute pubblica e sicurezza: l'introduzione di SARA, il chatbot basato sull'intelligenza artificiale della World Health Organization. L'intento di SARA è nobile, ma i risultati sono stati tutt'altro che efficaci. Parlerò delle carenze e dei problemi riscontrati nell'utilizzo di SARA e discuterò delle attuali limitazioni delle intelligenze artificiali, specialmente nel settore sanitario.
Benvenuti a un nuovo episodio di Ciao Internet! Oggi discutiamo di una questione che ritengo cruciale: l'uso dell'intelligenza artificiale nel settore sanitario. Recentemente, l'Organizzazione Mondiale della Sanità ha introdotto un nuovo chatbot, SARA, un acronimo che sta per SMART AI Resource Assistant for Health. Questo assistente virtuale è stato creato con l'obiettivo di alleviare il carico sui lavoratori sanitari, fornendo supporto su vari temi, dalla salute mentale all'alimentazione.

Nonostante le buone intenzioni, l'implementazione di SARA ha rivelato una serie di problemi significativi. Il chatbot avverte gli utenti che le risposte potrebbero non essere accurate, ma è andato oltre, fornendo informazioni errate e talvolta allucinazioni. Sono stati condotti diversi test che hanno dimostrato le sue carenze, come l'incapacità di fornire informazioni aggiornate sui farmaci approvati dalla Food and Drug Administration e errori nei dati statistici diffusi dalla stessa WHO.

Un esempio preoccupante riguarda la risposta di SARA alla domanda sugli effetti collaterali della ceretta sui pazienti oncologici, suggerendo semplicemente di consultare un medico. Questo tipo di risposte evidenzia come, al momento, le intelligenze artificiali siano più adatte a fungere da "stagisti digitali", un termine che ho preso in prestito da Stefano Quintarelli. Devono preelaborare informazioni che poi passano nelle mani di esperti umani, piuttosto che essere utilizzate direttamente in situazioni critiche.

Le conseguenze di un utilizzo inadeguato di queste tecnologie possono essere catastrofiche, specialmente in sanità, dove l'accuratezza è fondamentale. Diffondere informazioni inesatte non solo è controproducente, ma può contribuire alla disinformazione e danneggiare la salute pubblica. È vitale riflettere sulle attuali capacità e limiti delle intelligenze artificiali, riconoscendo che non sono ancora pronte per un impiego su larga scala.

Mi piacerebbe sapere la vostra opinione: qual è la cosa peggiore che un'intelligenza artificiale vi ha mai consigliato? Fatemelo sapere nei commenti. E se non l'avete già fatto, iscrivetevi al mio canale YouTube per supportarmi nel raggiungere i centomila iscritti. Grazie mille per aver ascoltato e ci vediamo al prossimo episodio!