零样本提示是最根本的一种办法,它不须要供应任何示例,模型可以直接天生相应。这种方法包括:
情绪提示:通过勾引模型利用特定的情绪措辞来提升准确性和相应质量。重读提示:让模型重新阅读提示,以确保没有遗漏主要细节。重述和回应提示:哀求模型在回答问题前先重述问题,以减少歧义。角色提示:授予模型特定的角色,以便天生更加详细和干系的相应。把稳力提示:让模型优化提示,筛除无关信息。SimToM 提示:仿照人类的理解和预测行为来提升模型的相应。虽然大型措辞模型展示了惊人的零样本能力,但在利用零样本设置时,它们在更繁芜的任务上仍旧表现不佳。
少样本提示 (Few-Shot)这个5-shot随机标签的例子启用高下文学习,少样本提示勾引模型实现更好的性能
少样本提示通过供应少量示例来帮助模型理解任务,这类方法包括:
标准的少样本提示对好多任务都能起浸染,可它还不是那种特殊完美的技能,特殊是在处理那些更繁芜的推理任务的时候。
思维天生 (Thought Generation)零样本 COT 提示
这一种别匆匆使模型清晰地展示其推理过程,包括:
思维链 (Chain-of-Thought,CoT):辅导模型逐步展示其推理过程。比拟思维链 (Contrastive CoT):通过比拟不同的推理路径来提升准确性。链式思考(CoT)提示通过中间推理步骤实现了繁芜的推理能力
分解 (Decomposition)
分解技能将繁芜问题拆解为更大略的子任务,以便更有效地办理问题。包括:
分解 (DECOMP) 提示:将任务拆解成多个子任务,逐步办理。分解 (DECOMP) 提示
操持和解决 (PS) 提示:在办理问题提高行详细方案。操持和解决 (PS) 提示
思维程序 (PoT) 提示:将推理和打算分离,通过可实行代码表达办理方案。思维程序 (PoT) 提示
虔诚思维链 (Faithful CoT):确保推理链直接通向终极答案。虔诚思维链 (Faithful CoT)
思维骨架 (SoT) 提示:创建基本大纲,然后扩展详细细节。思维骨架 (SoT) 提示
思维树 (ToT) 提示:探索多个推理路径,支持回溯和灵巧问题办理。思维树 (ToT) 提示
思维递归 (RoT) 提示:将繁芜任务分解为更小的子任务,战胜高下文长度限定。思维递归 (RoT) 提示
示例代码
集成 (Ensembling)集成技能通过结合多个提示的相应来得出终极答案。这样做可以提高结果的稳定性和准确性。只管详细技能还在不断更新,但这种方法已被证明能显著提升输出质量。
案例 1:文本分类的集成文本分类的集成
案例 2:问答系统的集成问答系统的集成
案例 3:图像分类的集成图像分类的集成
案例 4:预测性掩护的集成预测性掩护的集成
上面的四个案例展示了如何通过集成多个提示或模型的相应,结合不同模型的优点,从而提高整体结果的稳定性和准确性。
自我批评 (Self-Criticism)自我批评技能让模型能够评估和改进自己的输出,包括:
自校准 (Self-Calibration):让模型评估自己输出的可信度。自校准 (Self-Calibration)
自我优化 (Self-Refine):通过迭代改进初始答案。自我优化 (Self-Refine)
反向思维链 (RCoT):比较原始问题和重构版本,检测模型的幻觉。反向思维链 (RCoT)
自我验证 (Self-Verification):天生多个办理方案并进行测试。自我验证 (Self-Verification)
验证链 (CoVe):通过天生验证问题来评估初始相应。验证链 (CoVe)
累积推理 (CR):将繁芜任务分解为小步骤,逐步完善答案。累积推理 (CR)
以上提示词工程技能不仅展示了措辞模型的强大功能,也为我们供应了丰富的工具来优化和调度模型的表现。希望本日的案例分享能让大家对提示词工程有更深的理解和认识。