L'intelligenza artificiale ha confuso Luca Bizzarri con una serie di risposte inventate da GPT, mettendo in luce una delle caratteristiche più discusse dei modelli di linguaggio: le allucinazioni. Questi modelli, infatti, non sono progettati per distinguere tra verità e menzogna, ma per generare testi realistici. L'errore di GPT nel fornire una citazione inesistente solleva il velo sulle modalità con cui l'intelligenza artificiale elabora le informazioni, basandosi su ciò che viene definito "spazio latente", una sorta di mappa mentale che organizza concetti simili in prossimità.
Il fenomeno delle allucinazioni si manifesta quando il modello, in mancanza di dati concreti, riempie i vuoti con risposte statisticamente probabili ma non necessariamente corrette. Questo processo può portare a risposte sbagliate ma convincenti, note come "confident wrong responses". Tuttavia, anziché considerare queste allucinazioni come un difetto, potrebbero essere viste come un'opportunità per la creatività. La capacità di inventare risposte plausibili consente a GPT di simulare uno stile o di generare contenuti creativi, un aspetto che potrebbe rivoluzionare il modo in cui concepiamo la creatività stessa.
Evitare le allucinazioni è possibile attraverso tecniche di prompting che limitano le fonti a quelle più affidabili o che incoraggiano il modello a dichiarare quando non è sicuro delle risposte. Tuttavia, l'idea che l'intelligenza artificiale possa essere utilizzata in modo indiscriminato in settori critici come la medicina è un fraintendimento. Gli LLM settoriali, come quelli sviluppati per la diagnostica medica, dimostrano che l'intelligenza artificiale può superare le capacità umane in contesti specifici, purché venga utilizzata nel modo corretto e con i giusti strumenti.
In questa Puntata
L'intelligenza artificiale mente o crea? Scopri perché le "allucinazioni" di GPT potrebbero essere la chiave della creatività.