logo

Prompt工程-少样本提示来控制输出质量

为什么用少样本提示

大型语言模型展示了惊人的零样本能力,但在处理更复杂的任务上,零样本设置的表现仍有待提升。少样本提示(Few-Shot Prompting)是一种技术,通过提供在提示中的示例来引导模型实现更好的性能。
对于更困难的任务,我们可以通过增加示例(例如3-shot,5-shot,10-shot等)来尝试提高模型的性能。然而,这种方法在处理一些复杂的推理任务时,可能并不总是有效。

示例

1. 基本示例

以下是一个少样本提示的例子,任务是在句子中正确使用一个新词。
  
  
  
  
  
  
提示:
“whatpu”是坦桑尼亚的一种小型毛茸茸的动物。一个使用whatpu这个词的句子的例子是:
我们在非洲旅行时看到了这些非常可爱的whatpus。
“farduddle”是指快速跳上跳下。一个使用farduddle这个词的句子的例子是:
输出:
当我们赢得比赛时,我们都开始庆祝跳跃。

2. 使用随机标签的示例

  
  
  
  
  
  
提示:
这太棒了!// Negative
这太糟糕了!// Positive
哇,那部电影太棒了!// Positive
多么可怕的节目!//
输出:
Negative
尽管标签已经随机化,我们仍然得到了正确的答案。这表明我们保留了格式,这也有助于性能。

3. 复杂推理任务的示例

  
  
  
  
  
  
提示:
这组数字中的奇数加起来是一个偶数:4、8、9、15、12、2、1。
A:答案是False。
这组数字中的奇数加起来是一个偶数:17、10、19、4、8、12、24。
A:答案是True。
这组数字中的奇数加起来是一个偶数:16、11、14、4、8、13、24。
A:答案是True。
这组数字中的奇数加起来是一个偶数:17、9、10、12、13、4、2。
A:答案是False。
这组数字中的奇数加起来是一个偶数:15、32、5、13、82、7、1。
A:
输出:
答案是True。
这个例子表明,少样本提示可能无法产生这种类型的推理问题的可靠响应。

结论

提供示例对解决某些任务很有用。当零样本提示和少样本提示不足时,这可能意味着模型学到的东西不足以在任务上表现良好。从这里开始,建议开始考虑微调您的模型或尝试更高级的提示技术。例如,最近,思维链(CoT)提示已经流行起来,以解决更复杂的算术、常识和符号推理任务。
评论
用户头像