可以看到 Gemini 给我们讲解了自定义 Hook 的根本用法,但是实际上我们这里可能是想再问得详细一点,比如:「自定义 React Hook 怎么写?以及如何做到让该 Hook 的可掩护性好、可读性强并且返回的值符合当前的业务场景?」

为什么会写这个问题,是由于一些新手在看完文档或者干系入门资料往后,第一反应是按照这些资料中写的 demo 原模原样写的抄一遍,这就导致写得业务大概率和实际场景不符,demo 中返回了一个函数,他也随着返回一个函数,但实际上直接返回值更合理。

看看,是不是比之前好很多了,这便是提问的聪慧!

OpenAI 官方供应的 Prompt 编写文档!

为了能让我们写出有效的、能让大模型理解的提示词,OpenAI 官方也推出了「提示词工程」解释书,也算是为利用 ChatGPT 出了一个提示词标准。

OpenAI 官方推出的 AI Prompt 提示词编写公式

访问地址:https://platform.openai.com/docs/guides/prompt-engineering

可以看到官方为我们供应了6个标准:

Write clear instructions 写下清晰的提示

问题要携带关键信息

要定义好背景角色

对付问题的不同部分,可以利用分隔符进行区分

有条理、有次序的指定完成任务所须要的步骤

供应例子,让大模型有参考工具

指定回答的长度,也便是字数

Provide reference text 供应参考笔墨

让模型利用指定的文本进行回答。
说大略点,便是类似于让 Kimi Chat 帮你读一本书,你喂它一本书,它将书中的内容给你概括起来

让模型在回答时可以引用问题中的内容。

Split complex tasks into simpler subtasks 将繁芜的任务拆分为更大略的子任务

利用意图分类来识别与用户查询最干系的指令

对付须要很长对话的内容,总结或者过滤以前的对话(更合理的办法看下一条)

分段总结长文档并递归构建完全择要(个人理解也适用于上一条)

Give the model time to "think" 给模型韶光“思考”

在做一些判断性问题时,可以让模型先在给出结论之前制订自己的办理方案

有一些勾引性场景下,模型回答问题时的推导过程可能不适宜与用户分享。
这个时候可以利用内心独白或者一系列查询的办法来隐蔽模型的推理过程

在讯问模型时检讨是否有遗漏什么内容。
也便是说,对付一些长文本的内容,大多数情形下须要我们多次提问才可以得到最准确最完全的答案

Use external tools 利用外部工具

利用基于嵌入的搜索实现高效的知识检索

利用代码实行来实行更准确的打算或调用外部API

付与模型访问特定功能的权限

Test changes systematically 系统地测试及变更优化

官方这里供应了一个:参考黄金标准答案评估模型输出

我们可以根据文档中提出的这6个原则写一个自动天生 prompt 的 AI 运用,这样也可以轻松搞定提示词了。

写在末了

提示词的编写套路实在大同小异,节制好紧张的几个关键点就可以写得大差不差。
而最便捷的办法便是花点韶光用这些方法去定制化一个自动天生 prompt 的 AI 运用,之后的事情便是润润提示词就可以了。

附思维导图: