零样本提示是最根本的一种办法,它不须要供应任何示例,模型可以直接天生相应。
这种方法包括:

情绪提示:通过勾引模型利用特定的情绪措辞来提升准确性和相应质量。
重读提示:让模型重新阅读提示,以确保没有遗漏主要细节。
重述和回应提示:哀求模型在回答问题前先重述问题,以减少歧义。
角色提示:授予模型特定的角色,以便天生更加详细和干系的相应。
把稳力提示:让模型优化提示,筛除无关信息。
SimToM 提示:仿照人类的理解和预测行为来提升模型的相应。

虽然大型措辞模型展示了惊人的零样本能力,但在利用零样本设置时,它们在更繁芜的任务上仍旧表现不佳。

少样本提示 (Few-Shot)

这个5-shot随机标签的例子启用高下文学习,少样本提示勾引模型实现更好的性能

少样本提示通过供应少量示例来帮助模型理解任务,这类方法包括:

若何让AI模型乖乖听话揭秘高级提示词工程的六大年夜魔法技巧

K-Nearest Neighbor (KNN):选择与输入最相似的示例来赞助天生相应。
Self-Ask:将繁芜的问题拆解成子问题,从而逐步办理。
未来技能:如 SG-ICL、Prompt Mining 和 Vote-K,这些技能正在不断发展中。

标准的少样本提示对好多任务都能起浸染,可它还不是那种特殊完美的技能,特殊是在处理那些更繁芜的推理任务的时候。

思维天生 (Thought Generation)

零样本 COT 提示

这一种别匆匆使模型清晰地展示其推理过程,包括:

思维链 (Chain-of-Thought,CoT):辅导模型逐步展示其推理过程。
比拟思维链 (Contrastive CoT):通过比拟不同的推理路径来提升准确性。

链式思考(CoT)提示通过中间推理步骤实现了繁芜的推理能力

分解 (Decomposition)

分解技能将繁芜问题拆解为更大略的子任务,以便更有效地办理问题。
包括:

分解 (DECOMP) 提示:将任务拆解成多个子任务,逐步办理。

分解 (DECOMP) 提示

操持和解决 (PS) 提示:在办理问题提高行详细方案。

操持和解决 (PS) 提示

思维程序 (PoT) 提示:将推理和打算分离,通过可实行代码表达办理方案。

思维程序 (PoT) 提示

虔诚思维链 (Faithful CoT):确保推理链直接通向终极答案。

虔诚思维链 (Faithful CoT)

思维骨架 (SoT) 提示:创建基本大纲,然后扩展详细细节。

思维骨架 (SoT) 提示

思维树 (ToT) 提示:探索多个推理路径,支持回溯和灵巧问题办理。

思维树 (ToT) 提示

思维递归 (RoT) 提示:将繁芜任务分解为更小的子任务,战胜高下文长度限定。

思维递归 (RoT) 提示

示例代码

集成 (Ensembling)

集成技能通过结合多个提示的相应来得出终极答案。
这样做可以提高结果的稳定性和准确性。
只管详细技能还在不断更新,但这种方法已被证明能显著提升输出质量。

案例 1:文本分类的集成

文本分类的集成

案例 2:问答系统的集成

问答系统的集成

案例 3:图像分类的集成

图像分类的集成

案例 4:预测性掩护的集成

预测性掩护的集成

上面的四个案例展示了如何通过集成多个提示或模型的相应,结合不同模型的优点,从而提高整体结果的稳定性和准确性。

自我批评 (Self-Criticism)

自我批评技能让模型能够评估和改进自己的输出,包括:

自校准 (Self-Calibration):让模型评估自己输出的可信度。

自校准 (Self-Calibration)

自我优化 (Self-Refine):通过迭代改进初始答案。

自我优化 (Self-Refine)

反向思维链 (RCoT):比较原始问题和重构版本,检测模型的幻觉。

反向思维链 (RCoT)

自我验证 (Self-Verification):天生多个办理方案并进行测试。

自我验证 (Self-Verification)

验证链 (CoVe):通过天生验证问题来评估初始相应。

验证链 (CoVe)

累积推理 (CR):将繁芜任务分解为小步骤,逐步完善答案。

累积推理 (CR)

以上提示词工程技能不仅展示了措辞模型的强大功能,也为我们供应了丰富的工具来优化和调度模型的表现。
希望本日的案例分享能让大家对提示词工程有更深的理解和认识。