Survey of Hallucination in Natural Language Generation
Survey of Hallucination in Natural Language Generation | |
---|---|
Data | 2021 |
Autori | Ziwei Ji, Nayeon Lee, Rita Frieske, Tiezheng Yu, D. Su, Yan Xu, Etsuko Ishii, Yejin Bang, Delong Chen, Wenliang Dai, Andrea Madotto, Pascale Fung |
URL | https://www.semanticscholar.org/paper/3def68bd0f856886d34272840a7f81588f2bc082 |
Topic | Hallucination in Natural Language Generation |
Citazioni | 1394 |
Questo articolo offre una panoramica completa del problema dell'allucinazione nei modelli di linguaggio di grandi dimensioni, ovvero la tendenza a generare testo non veritiero o non supportato dai dati di addestramento. Gli autori analizzano le cause di questo fenomeno, le metriche per misurarlo e le diverse strategie di mitigazione proposte in letteratura. L'articolo approfondisce anche l'impatto specifico dell'allucinazione in diversi compiti di generazione del linguaggio naturale, come la scrittura di riassunti, la generazione di dialoghi e la traduzione automatica.