Chain of Thought Prompting Elicits Reasoning in Large Language Models

Da Wiki AI.
Chain of Thought Prompting Elicits Reasoning in Large Language Models
Data 2022
Autori Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, E. Chi, F. Xia, Quoc Le, Denny Zhou
URL https://www.semanticscholar.org/paper/1b6e810ce0afd0dd093f789d2b2742d047e316d5
Topic Reasoning in Large Language Models
Citazioni 4960


Questo articolo esplora come la generazione di una catena di pensiero (Chain of Thought) -- una serie di passaggi di ragionamento intermedi -- migliori significativamente la capacità dei modelli linguistici di grandi dimensioni di eseguire ragionamenti complessi. In particolare, gli autori dimostrano come tali capacità di ragionamento emergano naturalmente in modelli linguistici sufficientemente grandi attraverso un metodo semplice chiamato "chain of thought prompting", in cui vengono forniti alcuni esempi di catene di pensiero come esempi nel prompting. Gli esperimenti su tre modelli linguistici di grandi dimensioni dimostrano che il "chain of thought prompting" migliora le prestazioni su una serie di compiti di ragionamento aritmetico, di senso comune e simbolico. I guadagni empirici possono essere sorprendenti. Ad esempio, il prompting di un modello linguistico a 540 miliardi di parametri con solo otto esempi di catene di pensiero consente di ottenere un'accuratezza all'avanguardia sul benchmark GSM8K di problemi di matematica, superando persino GPT-3 ottimizzato con un verificatore.