Survey of Hallucination in Natural Language Generation: differenze tra le versioni
(Creata pagina con "Categoria:Pubblicazione") |
Nessun oggetto della modifica |
||
Riga 1: | Riga 1: | ||
{{template pubblicazione | |||
|data=2021 | |||
|autori=Ziwei Ji, Nayeon Lee, Rita Frieske, Tiezheng Yu, D. Su, Yan Xu, Etsuko Ishii, Yejin Bang, Delong Chen, Wenliang Dai, Andrea Madotto, Pascale Fung | |||
|URL=https://www.semanticscholar.org/paper/3def68bd0f856886d34272840a7f81588f2bc082 | |||
|topic=Hallucination in Natural Language Generation | |||
|citazioni=1394 | |||
}} | |||
Questo articolo offre una panoramica completa del problema dell'allucinazione nei modelli di linguaggio di grandi dimensioni, ovvero la tendenza a generare testo non veritiero o non supportato dai dati di addestramento. Gli autori analizzano le cause di questo fenomeno, le metriche per misurarlo e le diverse strategie di mitigazione proposte in letteratura. L'articolo approfondisce anche l'impatto specifico dell'allucinazione in diversi compiti di generazione del linguaggio naturale, come la scrittura di riassunti, la generazione di dialoghi e la traduzione automatica. | |||
{{#seo: | |||
|title=Survey of Hallucination in Natural Language Generation | |||
|title_mode=append | |||
|keywords=modelli linguistici, allucinazione, generazione del linguaggio naturale, intelligenza artificiale, elaborazione del linguaggio naturale, deep learning, apprendimento automatico, reti neurali, disinformazione, affidabilità | |||
|description=Questa pubblicazione offre una panoramica completa del problema dell'allucinazione nei modelli linguistici di grandi dimensioni, analizzando le cause, le metriche di misurazione e le strategie di mitigazione. Vengono approfonditi gli impatti specifici dell'allucinazione in diversi compiti di generazione del linguaggio naturale, come la scrittura di riassunti, la generazione di dialoghi e la traduzione automatica. | |||
}} |
Versione delle 11:05, 6 set 2024
Survey of Hallucination in Natural Language Generation | |
---|---|
Data | 2021 |
Autori | Ziwei Ji, Nayeon Lee, Rita Frieske, Tiezheng Yu, D. Su, Yan Xu, Etsuko Ishii, Yejin Bang, Delong Chen, Wenliang Dai, Andrea Madotto, Pascale Fung |
URL | https://www.semanticscholar.org/paper/3def68bd0f856886d34272840a7f81588f2bc082 |
Topic | Hallucination in Natural Language Generation |
Citazioni | 1394 |
Questo articolo offre una panoramica completa del problema dell'allucinazione nei modelli di linguaggio di grandi dimensioni, ovvero la tendenza a generare testo non veritiero o non supportato dai dati di addestramento. Gli autori analizzano le cause di questo fenomeno, le metriche per misurarlo e le diverse strategie di mitigazione proposte in letteratura. L'articolo approfondisce anche l'impatto specifico dell'allucinazione in diversi compiti di generazione del linguaggio naturale, come la scrittura di riassunti, la generazione di dialoghi e la traduzione automatica.