量子位 出品 | "大众号 QbitAI

昨天,OpenAI发布了逆天的GPT-2,全球皆惊。

这个拥有15亿参数的措辞AI,写起文章来文思泉涌毫无违和感,无需针对性演习就能横扫各种特定领域的措辞建模任务,还具备阅读理解、问答、天生文章择要、翻译等等能力。

但,这还不是全部。

OpenAI宣告的逆天AI居然还会写代码

各路研究者创造,GPT-2实在还学了好几种编程措辞。

比方,JavaScript。

纽约大学工程学院的助理教授Brendan Dolan-Gavitt创造,GPT-2在学会写英文的同时,还悄悄学了一些js脚本措辞。

证据:

以及sample 195证明,GPT-2貌似还懂一点PHP措辞……

Facebook AI研究院的Tim Rocktäschel以及Nantas Nardelli,自从看到GPT-2就一贯费尽心机让这个AI写代码。

求仁得仁,没想到GPT-2真给写出来了。

Tim Rocktäschel赶紧发推特说,人类有麻烦了……

不过,上述各类GPT-2写的代码都不是很严谨。
Nantas Nardelli也补充说,他俩考试测验过很多次,贴出来的这次只是效果最好的一次,而且这个AI写代码,彷佛很随意马虎把js、C++、Python等措辞混到一起写。

当然,这里还有个问题。

便是大家考试测验的模型,都是OpenAI放出的缩小版模型,参数只有1.17亿个参数。
大概利用完全版的GPT-2,AI能够写出更俊秀的代码。

完全版和缩小版差距有那么大么?

有的。

MIT Tech Review的作者will knight试用GPT-2写了一个故事。
他在开头给了一句话:猫和企鹅起了争执(The cat and the penguin had an argument),然后剩下的故事便是AI自己编写完成,包括它们由于一片面包起争执,还打起来如斯。

GPT-2编的有模有样。

不过,有人用OpenAI放出来的模型试了一下,创造同样的开头,故事却编的奇奇怪怪、不成样子,完备不知所云的觉得。

末了大家一谈论,明白了:

原来那个有模有样的故事,用的完全版是用15亿参数的完全版GPT-2天生的,而不知所云的故事,利用缩小版GPT-2天生的。

差距真的很明显。

还记得昨天OpenAI怎么说的么?GPT-2太厉害了,我们不敢放出完全模型。
结果大家要想试用,只能得到不厉害的结果。

也正是OpenAI这个辞吐,引发一堆网友猖獗吐槽。

这两天在reddit上,有两个高赞的谈论。

有一个网友说,我演习了一个23064层的ResNet,在MNIST上的准确率达到99.6%,我该把这个模型分享出来么?我有点害怕它被恶意利用。

嗯,这么明显的指鸡骂犬,大家一看就知道在说谁。

还有更明显的。

另一个网友说,OpenAI是不是该改名了,我看叫ClosedAI吧。

:)

— 完 —

诚挚招聘

量子位正在招募编辑/,事情地点在北京中关村落。
期待有才华、有激情亲切的同学加入我们!
干系细节,请在量子位"大众年夜众号(QbitAI)对话界面,回答“招聘”两个字。

量子位 QbitAI · 头条号签约作者

վ'ᴗ' ի 追踪AI技能和产品新动态