Prompt工程-少样本提示来控制输出质量
大模型开发/技术交流
- Prompt
2023.09.151650看过
为什么用少样本提示
大型语言模型展示了惊人的零样本能力,但在处理更复杂的任务上,零样本设置的表现仍有待提升。少样本提示(Few-Shot Prompting)是一种技术,通过提供在提示中的示例来引导模型实现更好的性能。
对于更困难的任务,我们可以通过增加示例(例如3-shot,5-shot,10-shot等)来尝试提高模型的性能。然而,这种方法在处理一些复杂的推理任务时,可能并不总是有效。
示例
1. 基本示例
以下是一个少样本提示的例子,任务是在句子中正确使用一个新词。
提示:“whatpu”是坦桑尼亚的一种小型毛茸茸的动物。一个使用whatpu这个词的句子的例子是:我们在非洲旅行时看到了这些非常可爱的whatpus。“farduddle”是指快速跳上跳下。一个使用farduddle这个词的句子的例子是:输出:当我们赢得比赛时,我们都开始庆祝跳跃。
2. 使用随机标签的示例
提示:这太棒了!// Negative这太糟糕了!// Positive哇,那部电影太棒了!// Positive多么可怕的节目!//输出:Negative
尽管标签已经随机化,我们仍然得到了正确的答案。这表明我们保留了格式,这也有助于性能。
3. 复杂推理任务的示例
提示:这组数字中的奇数加起来是一个偶数:4、8、9、15、12、2、1。A:答案是False。这组数字中的奇数加起来是一个偶数:17、10、19、4、8、12、24。A:答案是True。这组数字中的奇数加起来是一个偶数:16、11、14、4、8、13、24。A:答案是True。这组数字中的奇数加起来是一个偶数:17、9、10、12、13、4、2。A:答案是False。这组数字中的奇数加起来是一个偶数:15、32、5、13、82、7、1。A:输出:答案是True。
这个例子表明,少样本提示可能无法产生这种类型的推理问题的可靠响应。
结论
提供示例对解决某些任务很有用。当零样本提示和少样本提示不足时,这可能意味着模型学到的东西不足以在任务上表现良好。从这里开始,建议开始考虑微调您的模型或尝试更高级的提示技术。例如,最近,思维链(CoT)提示已经流行起来,以解决更复杂的算术、常识和符号推理任务。
评论
