Chain of Thought Prompting Elicits Reasoning in Large Language Models
Chain of Thought Prompting Elicits Reasoning in Large Language Models | |
---|---|
Data | 2022 |
Autori | Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, E. Chi, F. Xia, Quoc Le, Denny Zhou |
URL | https://www.semanticscholar.org/paper/1b6e810ce0afd0dd093f789d2b2742d047e316d5 |
Topic | Reasoning in Large Language Models |
Citazioni | 4960 |
Questo articolo esplora come la generazione di una catena di pensiero (Chain of Thought) -- una serie di passaggi di ragionamento intermedi -- migliori significativamente la capacità dei modelli linguistici di grandi dimensioni di eseguire ragionamenti complessi. In particolare, gli autori dimostrano come tali capacità di ragionamento emergano naturalmente in modelli linguistici sufficientemente grandi attraverso un metodo semplice chiamato "chain of thought prompting", in cui vengono forniti alcuni esempi di catene di pensiero come esempi nel prompting. Gli esperimenti su tre modelli linguistici di grandi dimensioni dimostrano che il "chain of thought prompting" migliora le prestazioni su una serie di compiti di ragionamento aritmetico, di senso comune e simbolico. I guadagni empirici possono essere sorprendenti. Ad esempio, il prompting di un modello linguistico a 540 miliardi di parametri con solo otto esempi di catene di pensiero consente di ottenere un'accuratezza all'avanguardia sul benchmark GSM8K di problemi di matematica, superando persino GPT-3 ottimizzato con un verificatore.