📄️ 🟢 思维链提示过程
思维链(CoT)提示过程(@wei2022chain)是一种最近开发的提示方法,它鼓励大语言模型解释其推理过程。下图(@wei2022chain) 显示了 %%few shot standard prompt|few shot standard prompt%%(左)与链式思维提示过程(右)的比较。
📄️ 🟢 零样本思维链
零样本思维链(Zero Shot Chain of Thought,Zero-shot-CoT)提示过程(@kojima2022large)是对 %%CoT prompting|CoT prompting%% (@wei2022chain) 的后续研究,引入了一种非常简单的零样本提示。他们发现,通过在问题的结尾附加“让我们一步步思考。”这几个词,大语言模型能够生成一个回答问题的思维链。从这个思维链中,他们能够提取更准确的答案。
📄️ 🟡 自洽性
自洽性(Self-consistency)(@wang2022selfconsistency)是对 %%CoT|CoT prompting%% 的一个补充,它不仅仅生成一个思路链,而是生成多个思路链,然后取多数答案作为最终答案。
📄️ 🟡 知识生成
生成的知识方法(Generated Knowledge Approach)(@liu2021generated)要求 %%LLM|LLM%% 在生成响应之前生成与问题相关的可能有用的信息。该方法由两个中间步骤组成,即知识生成和知识集成。
📄️ 🟡 Least to Most Prompting
Least to Most prompting (LtM)(@zhou2022leasttomost) takes %%CoT prompting|CoT prompting%% a step further by first breaking a problem into sub problems then solving each one. It is a technique inspired by real-world educational strategies for children.
📄️ 🟢 提示的关键要素
在之前的页面中,我们已经讨论了几种不同的提示策略。本页将提供一般建议,这些建议对于提示的实际编写很重要。