È possibile evitare le Allucinazioni dell’Intelligenza Artificiale Generativa?

È noto che i modelli di Intelligenza Artificiale Generativa presentano il problema della generazione casuale di contenuti che si allontanano dalla realtà fattuale o includono informazioni non vere prodotte dal modello. Questo problema, chiamato Allucinazione del Modello rappresenta un ostacolo critico all’adozione dell’intelligenza artificiale nelle applicazioni aziendali e in applicazioni dove l’errore non può essere tollerato. In questo articolo esaminiamo le principali cause delle allucinazioni per i Modelli Linguistici di grandi dimensioni (LLM), le soluzioni proposte per mitigare il fenomeno e le ricerche scientifiche più recenti che promettono di eliminare il problema.