Survey of Hallucination in Natural Language Generation

Da Wiki AI.
Versione del 6 set 2024 alle 11:29 di Alesaccoia (discussione | contributi)
(diff) ← Versione meno recente | Versione attuale (diff) | Versione più recente → (diff)
Survey of Hallucination in Natural Language Generation
Data 2021
Autori Ziwei Ji, Nayeon Lee, Rita Frieske, Tiezheng Yu, D. Su, Yan Xu, Etsuko Ishii, Yejin Bang, Delong Chen, Wenliang Dai, Andrea Madotto, Pascale Fung
URL https://www.semanticscholar.org/paper/3def68bd0f856886d34272840a7f81588f2bc082
Topic Hallucination in Natural Language Generation
Citazioni 1394


Questo articolo offre una panoramica completa del problema dell'allucinazione nei modelli di linguaggio di grandi dimensioni, ovvero la tendenza a generare testo non veritiero o non supportato dai dati di addestramento. Gli autori analizzano le cause di questo fenomeno, le metriche per misurarlo e le diverse strategie di mitigazione proposte in letteratura. L'articolo approfondisce anche l'impatto specifico dell'allucinazione in diversi compiti di generazione del linguaggio naturale, come la scrittura di riassunti, la generazione di dialoghi e la traduzione automatica.