4月20日,拉尼尔在《纽约客》揭橥标题为“没有人工智能(There Is No AI)”的文章,提出应停滞对人工智能的神化,而将其作为一种创新的社会协作形式来看待。他反对最近呼吁停滞演习更高等人工智能的联署信,并再次提出“数据肃静”观点:结束人工智能黑箱,记录比特的来源,“人们可以为他们创造的东西得到报酬,纵然这些东西是通过大模型过滤和重新组合的”,“当一个大模型供应有代价的输出时,数据肃静的方法将追踪最独特和有影响力的贡献者。”
拉尼尔认为,每一个新的人工智能或机器人运用的成功引入,都可能涉及一种新的创造性事情的开始。无论大小,这可以帮助缓和向整合了大模型的经济的过渡。
杰伦·拉尼尔被认为是虚拟现实领域的首创者,2014年,他被Prospect杂志评为天下前50名思想家之一。2018年,他被《连线》评为过去25年技能史上最具影响力的25人之一。以下为《纽约客》上述文章的翻译,为方便阅读和理解已做少量删减。
杰伦·拉尼尔1985年离开雅达利公司,成立了第一家发卖VR眼镜和有线手套的公司VPL Research。2006年,他开始在微软事情,从2009年起作为跨学科科学家在微软研究院事情。
作为一名打算机科学家,我不喜好“人工智能”这个词。事实上,我认为它具有误导性——大概乃至有点危险。每个人都已经在利用这个词,而现在辩论这个问题可能显得有点晚。但我们正处于一个新技能时期的开端——误解很随意马虎导致误导。
“人工智能”这个术语有着悠久的历史——它是在1950年代打算机早期时期被创造出来的。更近的韶光里,打算机科学家随着《闭幕者》和《黑客帝国》等电影、《星际迷航:下一代》中Data指挥官这样的人物发展起来。这些文化试金石已经成为科技文化中一个近乎宗教的神话。打算机科学家渴望创造人工智能并实现一个长期的梦想,是很自然的。
但令人震荡的是,许多追求人工智能梦想的人也担心,这可能意味着人类的末日。人们普遍认为,纵然是处于当今事情中央的科学家也认为,人工智能研究职员正在做的事可能会导致我们这个物种毁灭,或者至少会对人类造成巨大侵害,而且会很快发生。在最近的民意调查中,有一半的人工智能科学家赞许,人类至少有10%的可能性会被人工智能所毁灭。纵然我的同行、经营OpenAI的山姆·奥特曼(Sam Altman)也揭橥了类似的评论。走进任何一家硅谷的咖啡馆,你都能听到同样的辩论:一个人说,新的代码只是代码,统统都在人的掌控中,但另一个人认为,任何持这种不雅观点的人只是没有理解新技能的深刻性而已。这些辩论并不完备是理性的:当我哀求感到最害怕的科学家朋友说出人工智能末日可能发生的情形时,他们说:“加速的进步将从我们身边飞过,我们将无法想象正在发生的事。”
我不同意这种说话办法。我的许多朋友和同行对最新的大模型的体验印象深刻,比如GPT-4,而且像守夜一样等待更深层次的智能涌现。我的态度不是说他们错了,而是说我们不能确定;我们保留以不同办法对软件进行分类的选择。
最务实的态度是将人工智能视为一种工具,而不是一种生物。我的态度并没有肃清危险的可能性:无论怎么想,我们仍旧可能以侵害我们乃至导致我们灭绝的办法,糟糕地设计和操作新技能。将技能神化更可能使我们无法很好地操作它,这种思维限定了我们的想象力,将其捆绑在昨天的梦想中。我们可以在没有人工智能这种东西的假设下更好地事情,我们越早理解这一点,就可以越早开始智能地管理新技能。
如果新技能不是真正的人工智能,那么它是什么?在我看来,理解我们本日正在建造的东西的最准确办法,是将其作为一种创新的社会协作形式。
像OpenAI的GPT-4这样的程序,可以按顺序写出句子,就像维基百科的一个版本,包括更多数据,用统计学的方法混在一起。按顺序创建图片的程序就像在线图片搜索的一个版本,但有一个别系来组合图片。在这两种情形下,都是由人来撰写文本和供应图片的。这些新的程序将人类的事情以人类大脑的办法完成。创新之处在于,混搭过程变得有辅导性和约束性,因此,结果是可用的,而且每每是引人瞩目的。这是一项主要的造诣,值得庆祝——但它可以被认为是照亮了人类创造物之间曾被隐蔽的同等性,而不是发明了一种新的思想。
就我所知,我的不雅观点是在赞颂技能。毕竟,除了社会协作,文明是什么?把人工智能看作是一种互助的办法,而不是一种创造独立、智能生物的技能,可能会使它不那么神秘,不像HAL 9000(《2001:漫游太空》里的机器人)或Data指挥官那样。但这是好事,由于神秘感只会使管理不善的可能性变大。
很随意马虎将智能归为新的系统,它们具有我们常日不会与打算机技能联系到一起的灵巧性和不可预测性。但这种灵巧性产生于大略的数学。像GPT-4这样的大型措辞模型,包含了程序处理过的大量文本中特定词汇如何重合的累积记录。这个弘大的表格使系统内在地靠近许多语法模式,以及所谓的作者风格等各个方面。当你输入一个由某些词按一定顺序组成的查询时,你的输入会与模型中的内容干系联。由于关联数十亿条款标繁芜性,每次的结果都可能有些不同。
这个过程的非重复性可以使它觉得很生动。而且在某种意义上,它可以使新系统更加以人为中央。当你用人工智能工具合成一个新图像时,你可能会得到一堆类似的选项,然后不得不从中选择;如果你是一个利用LLM(大型措辞模型)作弊的学生,你可能会阅读由模型天生的选项并选择一个。一个产生非重复内容的技能哀求有一点人的选择。
我喜好的人工智能的许多用场,都是打算机不那么僵硬时给予我们的上风。数字的东西有一种脆性,迫使人们顺着它,而不是先评估一下。顺应数字设计的须要,创造了一种哀求人类屈服的期望。人工智能的一个积极方面是,如果我们能很好地利用它,可能意味着这种折磨会结束。我们现在可以想象,一个网站为色盲重新制订自己的方案,或者一个网站根据一个人的分外认知能力和风格来定制自己的方案。像我这样的人文主义者希望人们有更多的掌握权,而不是被技能过度影响或勾引。灵巧性可以让我们重新得到一些代理权。
然而,只管有这些可能的好处,担心新技能会以我们不喜好或不理解的办法驱赶我们,也是非常合理的。最近,我的一些朋友散发了一份请愿书,哀求停息最年夜志勃勃的人工智能开拓。他们的想法是,在停息期间,我们将研究政策。请愿书得到了我们圈子中一些人的署名,但其他人没签。我创造这个观点太模糊了——什么程度的进展意味着停息可以结束?每周,我都会收到模糊不清的新任务声明,这些组织都在寻求启动制订人工智能政策的进程。
这些努力的初衷是好的,但在我看来是没有希望的。多年来,我一贯从事欧盟隐私政策事情,我逐渐意识到,我们不知道什么是隐私。这是一个我们每天都在利用的术语,它在高下文中是故意义的,但我们不能很好地把它确定下来,以便归纳。我们对隐私最靠近的定义可能是“独处的权利”,但在我们不断依赖数字做事的时期,这彷佛很古怪。在人工智能的背景下,“不被打算机操纵的权利”彷佛肯定是精确的,但并没有完备说出我们想要的统统。
AI政策对话被“同等”(AI“想要”的东西与人类想要的东西同等吗?)、“安全”(我们能预见护栏,阻挡坏的AI吗?)、“公正”(我们能阻挡一个程序可能对某些人不友好吗?)这样的术语统治。通过追求这些想法当然圈子里已经得到了很多好处,但这并没有肃清我们的恐怖。
最近,我给同行们打电话,问他们是否有什么能达成同等的东西。我创造,有一个达成同等的根本。我们彷佛都赞许深度假象——虚假但看起来很真实的图像、视频等,该当由创造者标明。来自虚拟人的通信,以及旨在操纵人类思维或行动的自动化互动,也该当被贴上标签。人们该当理解他们所看到的东西,并且该当有合理的选择作为回报。
如何才能做到这统统呢?我创造,人们险些同等认为,目前人工智能工具的黑箱性子必须结束。这些系统必须变得更加透明。我们须要更好地说出系统内发生了什么以及为什么。这并不随意马虎。问题是,我们正在评论辩论的大模型人工智能系统并不是由明确的想法构成的。系统“想要什么”没有明确的表述,它在做一件特定的事情时没有标签,比如操纵一个人。只有一个巨大的果冻海洋——一个弘大的数学稠浊体。一个作家权利团体发起,当GPT等工具被用于剧本创作时,真正的人类作者应得到全额报酬,毕竟,系统是在借鉴真实人物的剧本。但是,当我们利用人工智能来制作电影片段,乃至可能是整部电影时,不一定会有一个编剧阶段。一部电影被制作出来,可能看起来有剧本、配乐等,但它将作为一个整体被打算出来。试图通过让系统吐出脚本、草图或意图等不必要的项目来打开黑匣子,将涉及建立另一个黑匣子来阐明第一个黑匣子——一个无限的倒退。
同时,也不是说大模型内部一定是一个人迹罕至的荒野。在过去的某个时候,一个真实的人创造了一幅插图,作为数据输入到模型中,再加上其他人的贡献,这就变成了一幅新鲜的图像。大模型人工智能是由人组成的,而打开黑盒子的方法便是揭示它们。
我参与提出的一个观点,常日被称为“数据肃静”。早在大模型“人工智能”兴起之前,它就涌现了,即人们免费供应他们的数据以换取免费做事,如互联网搜索或社交网络。这种熟习的安排被证明有阴郁的一壁:由于“网络效应”,少数平台接管了,淘汰了较小的参与者,如地方报纸。更糟糕的是,由于直接的在线体验是免费的,剩下的唯一买卖便是兜售影响力。用户体验到的彷佛是一个集体主义的天国,但他们却被隐秘的、令人上瘾的算法盯上,使人们变得虚荣、烦躁和偏执。
在一个有数据肃静的天下里,数字的东西常日会与那些希望因制造它而有名的人联系起来。在这个想法的某些版本中,人们可以为他们创造的东西得到报酬,纵然这些东西是通过大模型过滤和重新组合的,而技能中央将因促进人们想要做的事而赢利。有些人对网上成本主义的想法感到恐怖,但这将是一个更老实的成本主义。人们熟习的“免费”安排已经是一场灾害。
科技界担心人工智能可能成为生存威胁的缘故原由之一是,它可能被用来玩弄人类,就像前一波数字技能那样。考虑到这些新系统的力量和潜在影响,担心可能灭绝也不是没有道理的。由于这种危险已得到了广泛的认识,大模型人工智能的到来可能是一个为改进科技行业而进行改革的机会。
落实数据肃静将须要技能研究和政策创新。在这个意义上,作为一个科学家,这个主题让我感到愉快。打开黑匣子只会让模型更有趣。而且它可能会帮助我们更多地理解措辞,这是真正令人印象深刻的人类发明,也是我们在这几十万年后仍在探索的发明。
数据肃静能否办理人们对人工智能常常表达的经济忧虑?紧张的担忧是,工人会被贬低或取代。在公开场合,技能职员有时候会说,在未来几年,从事人工智能事情的人将会有更高的生产力,并会在一个更有生产力的经济中找到新的事情类型。(例如,可能成为人工智能程序的提示工程师——一些与人工智能互助或掌握人工智能的人)然而,在私下里,同样的人常常会说,“不,人工智能将超越这种互助的想法”。本日的司帐师、放射科年夜夫、卡车司机、作家、电影导演或音乐家再也赚不到钱。
当一个大模型供应有代价的输出时,数据肃静的方法将追踪最独特和有影响力的贡献者。例如,如果你哀求一个模型制作一部动画电影:我的孩子们在油彩天下中冒险,有会说话的猫。那么起关键浸染的油画家、猫的肖像画家、配音演员和作家——或者他们的遗产——可能被打算为对新创作有独特的主要性。他们将得到认可和勉励,乃至可能得到报酬。
起初,数据肃静可能只关注在特定情形下涌现的少数分外贡献者。不过,随着韶光的推移,更多人可能会被包括进来,由于中间的权利组织——工会、行会、专业团体等开始发挥浸染了。数据肃静圈子的人们有时称这些团体为个人数据的调度人(MIDs)或数据相信。人们须要集领会谈的力量,以便在网络天下中拥有代价——特殊是当他们可能在巨大的人工智能模型中迷失落时。当人们在一个群体等分担任务时,他们会自我监督,减少政府和公司审查或掌握的须要或诱惑。承认大模型的人类实质,可能会导致积极的新社会机构着花结果。
数据肃静不仅仅针对白领角色。考虑一下,如果引入人工智能驱动的修剪树木的机器人会发生什么。修剪树木的人可能会创造自己的代价被贬低,乃至失落去事情。但是,机器人终极可能利用一种新型的景不雅观美化艺术。一些工人可能会发明具有创造性的方法,比如从不同角度看都不一样的全息图案,这些方法会进入修剪树木的模型。有了数据肃静,这些模型可能会创造新的收入来源,通过集体组织分配。随着韶光的推移,树木修剪将变得功能更多和更有趣;将有一个社区被勉励出代价。每一个新的人工智能或机器人运用的成功引入,都可能涉及一种新的创造性事情的开始。无论大小,这可以帮助缓和向整合大模型的经济的过渡。
硅谷的许多人将全民基本收入视为办理人工智能造成的潜在经济问题的办法,但全民基本收入相称于让每个人都依赖救援金,以掩护黑箱人工智能的想法。我认为这是一个恐怖的想法,部分缘故原由是不良行为者会想在一个全体福利制度中攫取权力中央。我疑惑数据肃静是否能增长到足以支撑全体社会,但我也疑惑任何社会或经济原则都会变得完全。只要有可能,目标该当是至少建立一个新的创造阶层,而不是一个新的依赖阶层。
模型的好坏取决于其输入。只有通过像数据肃静这样的系统,我们才能将模型扩展到新的领域。现在,让大型措辞模型写一篇文章比让程序天生一个互动的虚拟天下要随意马虎得多,由于已有的虚拟天下非常少。为什么不通过给开拓更多虚拟天下的人一个得到声誉和收入的机会来办理这个问题?
数据肃静可以帮助办理任何一种人类灭亡的情形吗?一个大模型可以让我们变得无能,或者让我们非常困惑,以至于社汇合体走火入魔;一个强大、恶意的人可以利用人工智能对我们所有人造成巨大侵害;有些人还认为模型本身可以“越狱”,掌握我们的机器或武器,用它们来对付我们。
我们不仅可以在科幻小说中找到个中一些情景的先例,还可以在更普通的市场和技能失落败中找到。一个例子是2019年波音737 MAX飞机的空难。这种飞机有翱翔路径校正功能,在某些情形下会与翱翔员对抗,导致两次涌现大规模伤亡的坠机。问题不是伶仃的技能,而是它被整合到发卖周期、培训课程、用户界面和文件中的办法。翱翔员认为他们在某些情形下试图抵制该系统是精确的,但他们的做法正是缺点的,而且他们无从知晓。波音公司未能清楚地沟通技能的运作办法,由此产生的混乱导致了灾害。
任何工程设计——汽车、桥梁、建筑——都可能对人造成侵害,但我们却在工程上建立了一个文明。正是通过提高和扩大人类的意识、任务和参与,我们才能使自动化变得安全;反之,如果我们把我们的发明当作神秘物品,我们就很难成为好的工程师。把人工智能看作是一种社会协作的形式更具有可操作性:它使我们能够进入机房,机房是由人组成的。
让我们考虑一来世界末日的情景,即人工智能使我们的社会分开轨道。可能发生的一种办法是通过深度假造。假设一个邪恶的人,大概在一个处于战役状态的敌对政府事情,决定通过向所有人发送我们所爱的人被折磨或被绑架的令人信服的视频,来鞭策大众的惶恐。(在许多情形下,制作这种视频所需的数据很随意马虎通过社交媒体或其他渠道得到)。混乱会相继而来,纵然很快就会创造这些视频是假造的。我们如何才能防止这种情形的发生?答案很明显:确保数字信息有背景(context)。
网络的最初设计并没有记录比特的来源,可能是为了使网络更随意马虎快速发展。(一开始打算机和带宽都很差。)为什么当记住比特的来源(或近似于来源)变得更可行时,我们不开始记录?在我看来,我们总是希望网络比它须要的更神秘。不管是什么缘故原由,网络生来是为了记住统统,同时忘却来源。
本日,大多数人天经地义地认为,网络,以及它所建立的互联网,就其性子而言,是反背景、没有出处的。我们认为,去背景化是数字网络观点本身所固有的。然而,事实并非如此。不朽的科学家范尼瓦尔·布什(Vannevar Bush)在1945年、打算机科学家泰德·纳尔逊(Ted Nelson)在1960年提出的数字网络架构的最初建议,就保护了出处。现在,人工智能正在揭示忽略这种方法的真正代价。没有出处,我们就没有办法掌握我们的人工智能,也没有办法使它们在经济上公正。而这有可能将我们的社会推到边缘。
如果一个谈天机器人涌现了操纵性、刻薄、怪异或欺骗性的行为,当我们问及缘故原由时,我们想要什么样的答案?揭示机器人学习其行为时的来源,将供应一个阐明:我们会理解到它借鉴了一部特定的小说,或者一部肥皂剧。我们可以对这种输出作出不同的反应,并调度模型的输入以改进它。为什么不一直供应这种类型的阐明?在某些情形下,可能不应该透露出处,以便优先考虑隐私,但出处常日比对隐私的独家承诺更有利于个人和社会。
数据肃静的技能寻衅是真实的,必须引发严明的科学志向。政策上的寻衅也将是本色性的。但我们须要改变思维办法,并接管艰巨的改造事情。如果坚持过去的想法——包括对人工智能独立可能性的迷恋——我们就有可能以使天下变得更糟的办法利用新技能。如果社会、经济、文化、技能或任何其他活动领域要为人做事,那只能是由于我们决定人享有被做事的分外地位。
这是我对所有同行的哀求。想想人。人是办理比特问题的答案。