Survey of Hallucination in Natural Language Generation: differenze tra le versioni

Da Wiki AI.
(Creata pagina con "Categoria:Pubblicazione")
 
Nessun oggetto della modifica
Riga 1: Riga 1:
[[Categoria:Pubblicazione]]
{{template pubblicazione
|data=2021
|autori=Ziwei Ji, Nayeon Lee, Rita Frieske, Tiezheng Yu, D. Su, Yan Xu, Etsuko Ishii, Yejin Bang, Delong Chen, Wenliang Dai, Andrea Madotto, Pascale Fung
|URL=https://www.semanticscholar.org/paper/3def68bd0f856886d34272840a7f81588f2bc082
|topic=Hallucination in Natural Language Generation
|citazioni=1394
}}
 
Questo articolo offre una panoramica completa del problema dell'allucinazione nei modelli di linguaggio di grandi dimensioni, ovvero la tendenza a generare testo non veritiero o non supportato dai dati di addestramento. Gli autori analizzano le cause di questo fenomeno, le metriche per misurarlo e le diverse strategie di mitigazione proposte in letteratura. L'articolo approfondisce anche l'impatto specifico dell'allucinazione in diversi compiti di generazione del linguaggio naturale, come la scrittura di riassunti, la generazione di dialoghi e la traduzione automatica.
 
{{#seo:
            |title=Survey of Hallucination in Natural Language Generation
            |title_mode=append
            |keywords=modelli linguistici, allucinazione, generazione del linguaggio naturale, intelligenza artificiale, elaborazione del linguaggio naturale, deep learning, apprendimento automatico, reti neurali, disinformazione, affidabilità
            |description=Questa pubblicazione offre una panoramica completa del problema dell'allucinazione nei modelli linguistici di grandi dimensioni, analizzando le cause, le metriche di misurazione e le strategie di mitigazione. Vengono approfonditi gli impatti specifici dell'allucinazione in diversi compiti di generazione del linguaggio naturale, come la scrittura di riassunti, la generazione di dialoghi e la traduzione automatica.
           
            }}

Versione delle 11:05, 6 set 2024

Survey of Hallucination in Natural Language Generation
Data 2021
Autori Ziwei Ji, Nayeon Lee, Rita Frieske, Tiezheng Yu, D. Su, Yan Xu, Etsuko Ishii, Yejin Bang, Delong Chen, Wenliang Dai, Andrea Madotto, Pascale Fung
URL https://www.semanticscholar.org/paper/3def68bd0f856886d34272840a7f81588f2bc082
Topic Hallucination in Natural Language Generation
Citazioni 1394


Questo articolo offre una panoramica completa del problema dell'allucinazione nei modelli di linguaggio di grandi dimensioni, ovvero la tendenza a generare testo non veritiero o non supportato dai dati di addestramento. Gli autori analizzano le cause di questo fenomeno, le metriche per misurarlo e le diverse strategie di mitigazione proposte in letteratura. L'articolo approfondisce anche l'impatto specifico dell'allucinazione in diversi compiti di generazione del linguaggio naturale, come la scrittura di riassunti, la generazione di dialoghi e la traduzione automatica.