但在一个大的共识背后,还有太多问题,一方面是切实的——在事情上的替代、虚假内容的泛滥以及不平等的利用门槛等等,另一方面则是长期以来人类艺术作品里表达的「文明的威胁」。根据《连线》杂志宣布,OpenAI 在一份财务文件乃至规定了当 AI 摧毁人类经济体系时的退出机制。
今年 7 月,在 IBM 总部举办的一次活动上,美国参议院多数党魁脑查克·舒默(Chuck Schumer)表示,他将召开一系列人工智能会议,「让最精良的人坐在桌前,互相交流,回答问题,努力达成一些共识和解决方案,参议员和我们的事情职员以及其他人只是谛听。」终极,舒默希望基于会议上的互换,「为人工智能政策立法奠定根本」。
两个月后,会议开始了,包括来自顶级科技公司的 22 位与会者都参加了闭门会议,他们个中有 OpenAI CEO 山姆·阿尔特曼、英伟达 CEO 黄仁勋、谷歌 CEO 桑达尔·皮查伊、Meta CEO 马克·扎克伯格等人,也有上一代互联网的科技领袖微软创始人比尔·盖茨和谷歌前 CEO 埃里克·施密特。
AI 一定要被「管」起来
没有人会否认人工智能的巨大潜力,但关于人工智能的风险、安全方法、监管以及未来,我们还短缺很多共识,唯一可以肯定的是,人类不可能完备放任人工智能的野蛮成长。
图/ Wikimedia Commons
在离开第一次闭门会议后,特斯拉、SpaceX、Neuralink CEO 伊隆·马斯克就公开表示,这次聚会是「历史性的」,他赞许成立一个新的机构来监管人工智能的想法,并重新强调了人工智能构成的巨大风险。
「人工智能出错的后果是严重的,以是我们必须积极主动而不是被动反应,」马斯克说,「问题实际上是一个文明风险的问题,这对天下各地的所有人类都有潜在的风险。」
马斯克没有深入阐述所谓人工智能对人类文明的详细危害,但当人工智能更多地参与到电网、供水系统以及车辆系统的管理掌握之中,一旦出错就会带来大量的问题。打算机科学家、人工智能研究职员 Deb Raji 也提到了,人工智能的偏见性决定就影响社会的方方面面。
更何况,还有长久以来人类的对人工智能的担忧。
但要如何减少和防止人工智能带来的风险?微软总裁布拉德·史密斯(Brad Smith)提出,我们须要为人工智能可能形成的巨大风险建立「紧急制动器」,尤其是在管理电网和供水系统等关键根本举动步伐的人工智能系统之中,「这样我们才能确保许多人担心的威胁仍旧只存在在科幻小说里,不会成为新的现实。」
布拉德·史密斯,图/ Web Summit
史密斯认为,就像每一栋建筑和家庭中都有的断路器,如果须要的话,可以立即阻挡电力系统运行,人工智能系统也须要类似的「紧急制动器」,确保人类不会受到此类系统的大规模侵害。
不足为奇,英伟达首席科学家兼高等副总裁威廉·达利(William Dally)也指出了,人工智能作为一个打算机程序出错的可能和造成的严重侵害,关键在于「人类的参与」,即将人类置于人工智能事情的关键环节中,制约人工智能的一些决策权力。
威廉·达利,图/英伟达
「以是我认为,只要我们对如何支配人工智能保持谨慎,让人类处于关键环节中,从而可以确保人工智能不会接管并关闭我们的电网或导致飞机从天而降,」达利说。
AI 开源会是潘多拉盒吗?
去年年底,ChatGPT 在科技圈内第一次火起来的时候,就有人表达了对 AI 模型被用于诱骗等恶性行为的担忧。开源彷佛在加剧了「被滥用」的风险。
在会议上,个中一个辩论便是环绕着可供"大众年夜众下载和修正的「开源」AI 模型展开。这些模型的开放代码能让企业和研究职员得以利用类似于 ChatGPT 背后的 AI 技能,无需投入巨量的资金和资源演习。
但坏人也可能会滥用开源 AI 系统,包括 OpenAI 从 GPT-3.5 开始就停滞了开源行为,OpenAI 联合创始人兼首席科学家 Ilya Sutskever 就表示,「几年后,每个人都会清楚地看到,开源人工智能是不明智的。」
Ilya Sutskever 与黄仁勋在 GDC 上的对谈,图/英伟达
被问及缘故原由时,他谈到,「这些模型非常强,而且会变得越来越强,在某个时候,如果有人想的话,很随意马虎用这些模型造成很大侵害。」
其余,DeepMind 联合创始人、Inflection AI CEO Mustafa Suleyman 不久前也提到开源的风险,他指出 AI 开源的关键问题在于,「权力的迅速扩散」将使得单一个体就能对天下造成前所未有的侵害和影响,「在未来 20 年内,天真的开源,险些肯定会造成灾害」。
Mustafa Suleyman,图/DeepMind
不过 Meta 显然并不同意这些说法,Meta CEO 扎克伯格回嘴说,开源将「AI 变得民主化,有助于公正竞争,促进个人和企业创新」。但同时他也表示,开源模式大概会带来危险,然而 Meta 正在尽可能安全地构建这项技能。
当 AI 遇见开源,这依然是一个悬而待决的问题。
写在末了
距今 2104 年前,汉武帝去世七年后,汉廷召开了一场亘古未有的策问,个中一个紧张的问题是武帝期间实施的盐铁酒国营专卖政策的废立修正,为此调集了「贤良、文学六十余人」以及御史大夫桑弘羊等政府官员,后世称之为「盐铁会议」。不过这场盐铁会议,根本上谈论的实在是汉王朝的经济政策走向。
只管主题不同,年代环境更是大相径庭,但不论两千多年前的盐铁会议,还是现在人工智能见地论坛,都是面对一个巨大的问题,希望通过「群贤」互换辩问,以此作为立法之根本。
图/谷歌
在前不久谷歌 25 周年的纪念文章中,现任谷歌 CEO 桑达尔·皮查伊(Sundar Pichai)写到:
(谷歌)参与有关这些技能将如何塑造我们社会的主要辩论,然后共同探求答案。人工智能是个中的关键部分。只管我们对人工智能造福人类和社会的潜力感到愉快,但我们知道人工智能与任何早期技能一样,也带来繁芜性和风险。我们对人工智能的开拓和利用必须办理这些风险,并帮助负任务地开拓技能。
几天后,包括 Adobe、Cohere、IBM、英伟达、Palantir、赛富时、Scale AI 和 Stability 八家成为第二批签署「负任务地开拓人工智能(AI)技能」协议的公司。很多时候,面对单个个体或者单个公司/政府无法的办理的问题,我们必须意识到「共同努力」的代价。