直达「 通往AGI之路 」飞书知识库 →
Self-Consistency Improves Chain of Thought Reasoning in Language Modelsb
|最后更新: 2023-8-27
Date
Mar 21, 2022
Institution
Google
Publication
ICLR
摘要:思维链提示与预训练的大型语言模型相结合,在复杂推理任务中取得了令人鼓舞的成果。在本文中,我们提出了一种新的解码策略--自我一致性,以取代思维链提示中使用的天真贪婪解码。它首先对不同的推理路径进行采样,而不是只选择贪婪的推理路径,然后通过将采样的推理路径边缘化来选择最一致的答案。自我一致性利用了这样一种直觉,即一个复杂的推理问题通常可以通过多种不同的思维方式得出唯一的正确答案。我们广泛的实证评估表明,在一系列流行的算术和常识推理基准测试中,自我一致性显著提高了思维链提示的性能,包括 GSM8K(+17.9%)、SVAMP(+11.0%)、AQuA(+12.2%)、StrategyQA(+6.4%)和 ARC-challenge(+3.9%)。
notion image
方法:不仅仅生成一个思路链,而是生成多个思路链,然后取多数答案作为最终答案。
Loading...