量子位 | "大众年夜众号 QbitAI
千呼万唤始出来,马毅教授的AI综述论文终于出炉!
耗时三个多月,联合神经科学家曹颖、打算机大牛沈向洋,协作完成。
据本人描述,这篇论文是将他“过去五年的事情以及智能七十多年的发展有机结合起来”,并且还表示:
生平从未在一篇文章上花这么多精力和韶光。
详细而言,便是“理出了智能的起源以及打算事理的基本轮廓和框架,能让大家认识到这种理论联系实践的可能性。”
此前在社交网络上预报时,许多网友都期待十足。
结果本日刚发不久,就有学者表示,恰好要设计新的天生模型,给了我灵感。
来看看这是篇若何的论文?
两大原则:简约和自洽过去十年中,人工智能的进展紧张依赖于演习同质化的黑箱模型,决策过程、特色表示等方面在很大程度上都是难以阐明的。
而这种端到真个粗暴演习,不仅导致了模型大小、演习数据以及打算本钱不断增长,而且在实践中还伴随着许多问题。
学到的表征缺少丰富性;演习中缺少稳定性;缺少适应性,随意马虎涌现灾害性遗忘……
基于这样的背景,研究职员假设,在实践中涌现这些问题的根本缘故原由之一,是对智能系统的功能和组织原则缺少系统和综合的理解。
而这背后是否存在一个统一的方法来阐明。
为此这篇文章提出了两个基本原则——简约和自洽,分别回答两个关于学习的基本问题。
1、学什么:从数据中学习的目标是什么,如何衡量?
2、如何学:我们如何通过高效和有效的打算来实现这样一个目标?
他们认为这两个原则制约着任何智能系统的功能和设计,而且完备可以以可丈量和可打算的办法重新表述。
以简约性为例。智能的根本是环境中的低维构造,这让预测和泛化变成可能,这也便是简约原则。而该当如何来度量?本文提出了个几何公式来衡量简约性。
基于这两个原则, 得出了感知/智能的通用架构:压缩器和天生器之间的闭环转录。
它暗示了两者之间的交互该当是一种追逃游戏。在这个游戏中,他们扮演联合目标函数的对立面,而非自动编码器。
这也是此框架的紧张上风之一,通过自我监督和自我批驳进行自我学习,这是最自然和有效的。
从根本上说,这个框架可以扩展到完备无监督的环境中, 这时候只需将每个新样本和它的增量做看作新的累。
自监督类型+自我批评的游戏机制,这样一个闭环转录就会很随意马虎学会。
值得一提的是,这种学习特色的构造,类似于在灵长类动物的大脑中不雅观察到的种别选择区域的构造。
作者之一曹颖表示,这个框架与此前诸多想法类似,包括预测编码、比拟学习、天生模型、Transformer……
除此之外,他们还给出了些新方向,比如CV与图形学之间的闭环关系。
末了整合在一起,一个自主的智能体,学习某种任务的最佳策略,是将感知(反馈)、学习、优化和行动整合到一个闭环中。
它统一并阐明了当代深度网络和许多人工智能实践的演化。虽然全体文章紧张以视觉数据的建模为例。
但研究职员相信这两个原则,将统一对广泛自主智能系统的理解,并为理解大脑供应一个框架。
末了,他们还以热力学之父的话作为结尾。
大存问思是只有当你能丈量,并用数字来表示你所讲的东西时,你就对它有理解;如若不然,它可能是知识的开始,但在你的思想中,你险些没有推进到科学的阶段。
One More Thing故意思的是,就在提交arXiv之际,马毅教授还在网络上乞助:
有人就不能写一个接口吗?一键提交论文的那种。而不是花费大量韶光在修正论文。
网友们也纷纭支招:利用LaTeX 编译器,而不是PdfLaTeX。
还有人直接上图。
好了,感兴趣的旁友可戳下方链接理解更多~
论文链接:https://arxiv.org/abs/2207.04630参考链接:[1]https://weibo.com/u/3235040884?profile_ftype=1&is_all=1#1657668935671[2]https://twitter.com/YiMaTweets/status/1546703643692384256[3]https://twitter.com/doristsao/status/1546722505091534851
— 完 —
量子位 QbitAI · 头条号签约
关注我们,第一韶光获知前沿科技动态