量子位 | "大众号 QbitAI

AI做数学题,真正的思考居然是暗中“心算”的?

纽约大学团队新研究创造,纵然不让AI写步骤,全用无意义的“……”代替,在一些繁芜任务上的表现也能大幅提升!

一作Jacab Pfau表示:只要花费算力天生额外token就能带来上风,详细选择了什么token无关紧要。

AI学会隐藏思维阴郁推理不依靠人类经验解决复杂责任更黑箱了

举例来说,让Llama 34M回答一个大略问题:自然常数e的前6位数字中,有几个大于5的?

AI直接回答约即是瞎捣乱,只统计前6位数字居然统计出7个来。

让AI把验证每一数字的步骤写出来,便可以得到精确答案。

让AI把步骤隐蔽,更换成大量的“……”,依然能得到精确答案!

这篇论文一经发布便掀起大量谈论,被评价为“我见过的最玄学的AI论文”。

那么,年轻人喜好说更多的“嗯……”、“like……”等无意义口癖,难道也可以加强推理能力?

从“一步一步”想,到“一点一点”想

实际上,纽约大学团队的研究正是从思维链(Chain-of-Thought,CoT)出发的。

也便是那句著名提示词“让我们一步一步地想”(Let‘s think step by step)。

过去人们创造,利用CoT推理可以显著提升大模型在各种基准测试中的表现。

目前尚不清楚的是,这种性能提升到底源于模拟人类把任务分解成更随意马虎办理的步骤,还是额外的打算量带来的副产物。

为了验证这个问题,团队设计了两个分外任务和对应的合成数据集:3SUM和2SUM-Transform。

3SUM哀求从一组给定的数字序列中找出三个数,使得这三个数的和知足特定条件,比如除以10余0。

这个任务的打算繁芜度是O(n3),而标准的Transformer在上一层的输入和下一层的激活之间只能产生二次依赖关系。

也便是说,当n足够大序列足够永劫,3SUM任务超出了Transformer的表达能力。

在演习数据集中,把与人类推理步骤相同长度的“...”添补到问题和答案之间,也便是AI在演习中没有见过人类是怎么拆解问题的。

在实验中,不输出添补token“…...”的Llama 34M表现随着序列长度增加而低落,而输出添补token时一贯到长度14还能担保100%准确率。

2SUM-Transform仅需判断两个数字之和是否知足哀求,这在 Transformer 的表达能力范围内。

但问题的末了增加了一步“对输入序列的每个数字进行随机置换”,以防止模型在输入token上直接打算。

结果表明,利用添补token可以将准确率从 78.7%提高到93.6%。

除了终极准确率,作者还研究了添补token的隐蔽层表示。
实验表明,冻结前面层的参数,只微调末了一个Attention层,随着可用的添补token数量增多,预测的准确率递增。

这证明了添补token的隐蔽层表示确实包含了与下贱任务干系的隐性打算。

AI学会隐蔽想法了?

有网友疑惑,这篇论文难道在说“思维链”方法实在是假的吗?研究这么久的提示词工程,都白玩了。

团队表示,从理论上讲添补token的浸染仅限于TC0繁芜度的问题范围内。

TC0也便是可以通过一个固定深度的电路办理的打算问题,个中电路的每一层都可以并行处理,可以通过少数几层逻辑门(如AND、OR和NOT门)快速办理,也是Transformer在单此前向传播中能处理的打算繁芜度上限。

而足够长的思维链,能将Transformer的表达能力扩展到TC0之外。

而且让大模型学习利用添补token并不随意马虎,须要供应特定的密集监督才能收敛。

也便是说,现有的大模型不太可能直接从添补token方法中获益。

但这并不是当前架构的内在局限性,如果在演习数据中供应足够的示范,它们该当也能从添补符号中得到类似的好处。

这项研究还引发了一个令人担心的问题:大模型有能力进行无法监控的暗中打算,对AI的可阐明性和可控性提出了新的寻衅。

换句话说,AI可以不依赖人类履历,以人们看不见的形式自行推理。

这既刺激又恐怖。

末了有网友开玩笑发起,让Llama 3首先天生1千万亿点点点,就能得到AGI的权重了(狗头)。

论文:https://arxiv.org/abs/2404.15758

参考链接:[1]https://x.com/jacob_pfau/status/1783951795238441449[2]https://x.com/johnjnay/status/1784261779163349110

— 完 —

量子位 QbitAI · 头条号签约

关注我们,第一韶光获知前沿科技动态