作为微软的首席科学家,我的任务是开展让事情变得更好的研究。
拥有这份事情是一个令人难以置信的激动时候。
一项又一项研究表明,最近的AI进步将使人们能够以全新、更高效的办法事情,我们还在探索AI可能性的开始阶段。
在微软事情的17年里,我从未像现在这样对打算机改进事情的机会更加乐不雅观。

最新一代AI工具之以是前景广阔,缘故原由之一是它们现在可以让我们用几千年来与他人互动的办法与打算机互动:自然措辞。
这是一个巨大的变革。
之前与打算机互换繁芜想法的唯一办法,是用专为打算机设计的措辞准确无误地填写电子表格公式、记住电子邮件搜索的准确关键词,或学习编程。
现在很多限定都消逝了,你可以通过大略的自然措辞提示,见告AI你想做什么。

虽然总体而言,利用提示与AI进行互换的能力是一个巨大进步,但研究表明,这也引入了一个可理解的学习曲线。
纵然对我而言,能用大略的英语与打算机交谈也是一件新奇事。
全天下的科学家正在努力缩短这种学习曲线,并取得了很大进展(例如,在“提示优化”方面的事情)。
然而,研究清楚地表明,如果能就如何编写好的提示语进行培训,就可以从AI中收成更多。
例如,BCG最近对管理咨询师进行的一项研究创造,接管过提示培训的咨询师比没有接管培训的咨询师更善于利用AI工具。

与生成式AI对话要掌握哪些技巧

幸运的是,微软和学术界的研究已经有了早期创造,可以帮助我们加速提示之旅。
这些研究结果大多可以归结为一个关键见地:即便利用自然措辞,也要记得AI系统须要的东西与人类不同。

节制AI措辞

打算机在提示中须要知道哪些人类可能不知道的信息?如何利用这些信息来改进提示?以下科学文献中的理论和结果有助于回答这个问题。

供应更多背景信息。
生理措辞学长期以来一贯教导我们在所有互换中先容背景的核心浸染,即通过对话相互理解的过程,也便是担保大家说的是一回事。
例如,如果参加会议的人对会议结束时须要采纳的行动有共同理解,并且知道自己有这种共同理解,那可能是由于他们花了很多韶光来谈论下一步怎么做。

与大措辞模型(LLM)进行根本演习的过程,和与他人进行根本演习不同,由于人类与该模型的共同语境常日较少。
在提示中明确高下文有助于得到更好结果。
例如,当我与团队中的研究职员交谈时,我们都知道过去关于这个主题的所有头脑风暴会议,彼此拥有的技能等等,但是LLM不知道,至少现在还弗成。
因此,如果我用AI给这个人写电子邮件,那么供应我知道而LLM可能不知道的所有主要背景信息,就会很有帮助。
一个人可能认为见告他们所需的所有背景信息有些搪突,但LLM不会。

得益于“检索增强天生”(RAG)等技能和其他最近的技能进步,须要供应的高下文数量将大大减少。
例如,AI可以搜索你过去的电子邮件和文档,以查找有用信息。
当前语境也能供应根本材料。
例如,有些系统会将你就会议提出的问题记录在会议纪要中。
只管如此,考虑到根本信息对有效互助的主要性,为LLM供应精确语境依然至关主要。

利用“群众聪慧”。
研究表明,人们可以通过从不同角度处理问题来捕捉“群众的聪慧”,现在我们可以利用AI做到这一点。
我创造,可以至少哀求对方给出三个回答(例如,“至少天生三个标题”或“见告我你重写这一段的三种方法”),有时乃至可以哀求它为想法供应一部分构造(“至少做出一个有趣,一个正式的”)。
清楚知道自己想从模型中得到什么时,给它举几个例子。
这个过程被称为“小样本学习”(FSL),将有助于LLM根据你想要的内容做出回答。

依赖识别,而不是回顾。
打算机交互的一个核心原则是,人们识别想要发出的命令要比回顾命令随意马虎得多。
想想看,从列表中进行选择,比从头开始想一个命令要随意马虎得多。
以是险些我们所有人都会利用图形界面,而不是DOS这样的“命令”;例如,双击图标打开运用程序,要比记住打开运用程序的特定命令再记住运用程序的正式名称要随意马虎得多。

帮助人们识别他们可能须要的提示,而不是从头开始编写,是许多AI新功能背后的驱出发分。
在一些前辈的AI系统中,你可以访问大量预先编写好的提示语库,并保存喜好的提示等等。
这些都会表示在用户体验中,韶光久了,你和组织利用的最佳提示也将开始包含在内。
同时我还保留了一个文件,包含一些我最喜好的个人提示,而这些提示尚未包含在库中。
例如我常利用的一个是:我是一名研究员,正在向互助的团队发送这封邮件。
请见告我发邮件的把稳事变。

让它成为对话,而不是单个哀求。
文献中的一个关键创造是,将繁芜要求分解为多个步骤,可以帮助人们更成功地从LLM中得到想要的东西。
有更正式的方法来做到这一点(例如,“大模型思维链”提示),不过非正式的方法也能成功。
例如,我创造最好先要我想理解的文章的择要,再分别哀求不雅观点。
例如:

·请用提要概述文章内容,重点关注微软高管(对研究特殊感兴趣)可能感兴趣的内容。

·这位高管会对这篇文章提出哪些问题?请附上答案,只管即便引用文章内容。
如果文中没有参考,请回答:“文中无答案”,或“只有部分答案”,并描述部分答案以及供应完全答案所需的其他信息。

不堪利时,换种办法。
LLM是相对较新的技能,还有很多我们不理解的地方。
这意味着有时我们无法阐明为什么一种说话的提示效果好,而另一种说话的提示效果不好,这在同一AI模型的不同版本和运用中可能就有所不同。
因此,如果你考试测验了一个提示却不起浸染,试着重新说话,找出哪些内容有效。
你乃至可以直接问它如何向LLM提问。
与一个人从头开始并不随意马虎,但和AI可以。
可以多试几次,看看不同策略可能产生什么效果。

利用提示支持。
如果说LLM代表了与打算机交互的新模式,那么良好的提示支持就像Word和Excel等可以让人们解锁更多功能的命令“纽带”。
例如,我们正在研究如何自动推举个性化提示,帮助用户在事情流程中采纳下一步辇儿为,或处理待办列表中的某个项目。
还有很多有趣的研究等着我们。
随着新功能的涌现,最佳提示策略也将随着韶光改变,我们将开始解锁把LLM整合到事情中的独特用途。
例如,增加个性化将降落语境的主要程度,而提示支持将会更加主要。

现在许多最好的提示策略都是由研究职员开拓的。
他们的研究表明,一个好的提示可以带来的好处不但是改进底层模型。
例如,微软最近的一篇论文表明,在医疗领域,只需改变提示策略,一个人就能通过LLM得到巨大提升,这对须要新模型演习过程的假设提出了寻衅。
不过,只管研究职员都很聪明,可以探索的空间依然相对有限。
我们将越来越能够从数百万利用LLM的用户那里学习最佳策略。
随着更多人利用这些工具,以及工具的不断发展,我们会学习更多。

自然措辞对话是事情办法的根本。
从历史上看,这适用于我们的互助办法,现在也适用于我们利用打算机的办法。
对话中包含着许多LLM将会解锁的知识,例如,你与PowerPoint的对话现在可以成为一个精彩的演示文稿。
但对话不仅是关于事实和数据,根本和构造也很主要。
这便是提示工程。
随着我们开始创造LLM解锁的新事情办法,这种构造也将随之发展。
我很高兴实践和学习仍在连续,希望你也是。

杰米·特文(Jaime Teevan)| 文

杰米·特文是微软公司的首席科学家,卖力推动微软产品的研究创新。
她在微软的早期事情重点是利用AI帮助人们实现目标,开拓了必应利用的首个个性化搜索算法,并将microproductivity引入了Microsoft Office。
杰米曾担当微软CEO的技能顾问,目前领导微软理解后疫情时期事情实践的干系事情。

飞书、DeepL | 译 孙燕 | 编辑

如果你考虑年后转行,这五点至关主要

AI驱动的发卖决策,有多可靠?

更多管理聪慧,请登录官方网站:www.hbrchina.org。
\公众 data-from=\"大众0\"大众 data-is_biz_ban=\"大众0\公众>