作者:RAM SAGAR

机器之心编译

编辑:蛋酱、魔王

盘点 AI 十年来取得的主冲要破。

人工智能十年回忆CNNAlphaGo…它们曾这样改变世界

过去十年间,人工智能技能突飞年夜进,最猖獗的科幻小说场景现在已经成为我们生活中不可或缺的一部分。
十年前,人们在评论辩论 AI 的理论化和实验,但这些年来,AI 变得更加切实了,也变成了主流。
无论是国际标准课程、平台、库、框架、硬件,统统都顺理成章。
就算说这十年里取得的成绩奠定了未来的根本,也不为过。

这篇文章将盘点 AI 十年来取得的主冲要破。

卷积

2012 年是深度学习历史上主要的一年。
那一年,卷积神经网络(CNN)在著名的 ImageNet 寻衅赛中大放异彩。
由 Alex Krizhevsky 等人设计的卷积神经网络「Alexnet」以远超第二名的成绩夺冠,在 ImageNet 数据集上的视觉识别缺点率为 15.3%,降落了一半。
该神经网络对猫的检测准确度达到了 74.8%,在 YouTube 视频中检测人脸的准确率为 81.7%。

现在,手机和阛阓中的人脸识别运用都该当归功于 2012 年的这项事情,识别准确率的提升使研究者能够进行医学成像模型的支配,这些模型具备高置信度。

与 AI 对话

Vaswani 等人 2017 年揭橥的《Attention Is All You Need》带来了级联效应,使得机器能够以前所未有的办法去理解措辞。
得益于 Transformer 架构,AI 现在能够撰写假的新闻、推文,乃至可能引起政治动荡。
继 Transformer 之后,谷歌又推出了 BERT 模型,将其用于关键字预测和 SEO 排名等。
BERT 如今已经变成了自然措辞处理领域的实际标准,诸如 Microsoft 和 NVIDIA 之类的公司开始堆积更多参数来追赶该模型。

NVIDIA 的 Megatron 具有 80 亿个参数,而 Microsoft 的 Turing NLG 模型具有 170 亿个参数。
OpenAI 的 GPT 模型后来居上,1750 亿参数的 GPT-3 目前是历史记录的保持者。

GPT-3 也是 Transformer 的扩展,是目前最大的模型,它可以编码、写散文、天生商业创意,只有人类想不到,没有它做不到。

将人类一军

AI 早已在国际象棋中击败了人类。
而更加繁芜的人类游戏,如 Jeopardy! 游戏、围棋、德州扑克等,也没有挡住算法的脚步。
人工智能近几年来最广为人知的事宜便是 AlphaGo 在最繁芜棋类游戏——「围棋」上击败了人类顶级选手。
与此同时,在这个十年中,IBM 的 Watson 也在 Jeopardy! 决赛中击败了两位人类,终极 Watson 得到了 77147 美元奖金,而两位人类分别得到了 24000 和 21600 美元。

Facebook 和卡耐基梅隆大学共同开拓的德扑 AI Pluribus 降服了五名专家级人类玩家,实现了前辈 Libratus(冷扑大师)未能完成的任务,该研究还登上了 2019 年的《科学》杂志。
2020 年 12 月,DeepMind 提出的 MuZero 让一种人工智能模型节制多种游戏,包括将棋、国际象棋和围棋。

解码生命

每一个生物体的行为都可以在其蛋白质中寻踪溯源。
蛋白质承载着秘密,破解蛋白质或许有助于击败新冠大盛行。
但蛋白质构造非常繁芜,须要不断地运行仿照。
DeepMind 考试测验办理这一难题,其开拓的深度学习算法「Alphafold」破解了涌现五十年之久的蛋白质分子折叠问题。
打算机视觉被证明可以帮助诊断,而办理蛋白质折叠问题乃至能够帮助研发职员开拓新药。

AI:是艺术家,也是骗子

去年,在一则视频中,比利时首相评论辩论着办理经济和气候危急的紧急需求,后来人们创造这实在是 Deepfake 视频。
在机器学习和 AI 比拟利时首相声音和表达办法的操纵下,这则假视频让首相揭橥了一场关于环球变暖影响的演讲。

这些假造内容的背后是精心设计的算法——天生对抗网络(GAN)。
该算法在 2014 年提出,并得到广泛运用,乃至已经侵入了人类事情的末了一道壁垒:创作。
这种网络可以天生从未存在的人脸、互换人脸,让一国总统胡言乱语。
GAN 天生的一幅画乃至在佳士得拍卖会上以破记录的价格——40 万美元成交了。
GAN 的另一壁是被用于恶意目的,甚至于像 Adobe 这种公司不得不研究新技能来鉴别假造内容。
GAN 不才一个十年里仍将是被广泛谈论的工具。

秘密武器——硅

神经网络的观点出身了半个世纪,本日盛行的反向传播方法也涌现三十年了。
但是,我们仍旧短缺能够运行这些打算的硬件。
过去十年,我们见证了十多家公司研究专门的机器学习芯片。
这些年来,芯片技能得到了极大发展,我们可以在手掌大小的设备上实行百万次运算。
这些芯片被用到数据中央,用户可以不雅观看自己喜好的 Netflix 电影、利用智好手机等。
接下来,专为边缘设备定制的 AI 芯片蕴含着代价数十亿美元的商机。

苹果等公司已经开拓了定制化机器学习芯片(如 A14 Bionic)来供应智能做事。
纵然是依赖英伟达和英特尔的 AWS,也正在逐步进入芯片行业。
随着芯片变得越来越小,这一趋势只会更加明显:例如利用英伟达 Jetson AGX Xavier 开拓者套件,你可以轻松创建和支配端到端 AI 机器人运用,用于制造、零售、智能城市等等。
谷歌的 Coral 工具包可将机器学习带到边缘设备上。
安全、实时输出是目前的主题。

开源文化逐渐成熟

图源:MIT Tech Review

2015 年,TensorFlow 开源。
一年后,Facebook AI 又开源了基于 Python 的深度学习框架 PyTorch。
本日,TensorFlow 和 PyTorch 已经成为利用最广泛的框架。
通过不断的版本更新,谷歌和 Facebook 为机器学习社区带来了极大便利。
自定义库、软件包、框架和工具的爆发式增长,使得更多人进入了 AI 领域,也为 AI 研究带来了更多人才。

开源是近几年的一个紧张特性。
开源工具和越来越多的可用资源(如 arxiv 或 Coursera)促进了 AI 变革。
另一个催化剂是盛行的竞赛平台——Kaggle。
Kaggle 和 GitHub 滋养了一批高质量 AI 开拓者。

更多学习,更少规则

Schmidhuber 教授上世纪 90 年代初提出的元学习观点,最近才逐渐得到关注。
元学习指在有限演习示例的根本上,使机器学习模型学习新技能并适应不断变革的环境。
通过操纵超参数对特界说务优化机器学习模型须要大量用户输入的话,过程会较为繁琐,而利用元学习后,这一包袱将得到极大缓解,由于元学习将优化部分自动化了。
自动优化带来了一个新的行业 MLaaS(机器学习即做事)。

未来方向

关于一些专家预测以下领域或许将发挥紧张浸染:

可复现性差分隐私几何深度学习神经形态打算强化学习

只管 AI 已经进入许多我们未曾想象的领域,但它仍需运用到更盛行的运用中,如自动驾驶汽车。
然而,寻衅更多地在于数学层面:目前已有能够做出准确决策的算法,也有能够处理这些算法的处理器,但何时能够支配到运用上仍未可知。
不管是医疗还是自动驾驶汽车,AI 仍须要连续进展,而这只有在透明性和可复现性得到建立时才会发生。

原文链接:https://analyticsindiamag.com/ai-top-decade-2010-2020-breakthroughs/