文/福布斯中国
数千名科技界专家联合签署了一份由生命未来研究所(Future of Life)发起的“停息巨型人工智能实验”的公开信。
相应名单包括特斯拉和推特的首席实行官埃隆·马斯克 (Elon Musk) 、苹果联合创始人斯蒂夫·沃兹尼亚克 (Stephen Wozniak) 、蒙特利尔学习算法研究所所长约书亚·本吉奥 (Yoshua Bengio) 等业界大佬。
这封公开信呼吁所有人工智能实验室立即停息比GPT-4更强大的人工智能系统的演习,停息韶光至少为6个月,并建议如果不停息,该当政府逼迫停息。
在经历了9个月指数级进步后,人工智能行业选择主动刹车,或许并非是由于它已经创造了社会抵牾,而是它在商业化遍及后可能会带来的更大未知。
该公开信署名的发起方,生命未来研究所(Future of Life Institute,FLI)是一家位于美国波士顿地区的研究与推广机构,创立于2014年3月,以“勾引变革性技能造福生活,阔别极度的大规模风险”为义务。FLI致力于降落人类所面临的风险,目前紧张关注人工智能、生物技能、核武器以及景象变革这四个议题。
该机构创始人包含麻省理工学院宇宙学家马克斯·泰格马克,Skype联合创始人让·塔林,哈佛大学博士生维多利亚·克拉科夫那(Viktoriya Krakovna),波士顿大学博士生、泰格马克之妻美雅·赤塔-泰格马克(Meia Chita-Tegmark)与加州大学圣克鲁兹分校宇宙学家安东尼·阿吉雷等。
FLI的外部顾问,图源:futureoflife.org
在本份倡议之前,生命未来研究所已经对美国国家标准技能研究院 (NIST) 人工智能风险管理框架初稿进行过反馈。“AI 风险管理框架” (AI RMF) 是2020 年美国国会已哀求美国国家标准与技能研究院 (NIST) “为可信赖的人工智能系统开拓志愿风险管理框架。”
生命未来研究所在对该项管理框架反馈中强调:在人工智能技能参与后,信息供应者与信息吸收者的新利益冲突。他们认为通过人工智能技能,信息供应者有更大的机会和动机,以操纵信息接管者行为。同时其在该份反馈中也明确表达了人工智能监管缺少风险预警的方法论。
截至发稿,生命未来研究所的这份公开信已有1125人签署。
值得一提的是,提交公开信署名须要经由人工审核,但这次的签署人中短暂地涌现了Open AI首席实行官山姆·阿尔特曼 (Sam Altman) 的名字,后来又很快被移除。本周也有传出,GPT-5已经完成研发。山姆·阿尔特曼本人也并未对此事揭橥任何意见。
部分相应者名单
Yoshua Bengio
图灵奖得到者,人工智能深度学习发展的奠基人
Steve Wozniak
苹果联合创始人
Andrew Yang
2020年美国总统大选候选人,脱销书作家
John Hopfield
普林斯顿大学教授,关联神经网络的发明者
Yuval Noah Harari
以色列未来学家
《人类简史》系列脱销书的作者
Yoshua Bengio作为AI界的顶级专家在该份倡议书中第一位具名,此外他也是图灵奖三巨子中唯一一位至今仍旧留在学术界的AI老炮。其余两位分别为Geoffrey Hinton和Yann LeCun。这三位是目前公认的多层构建深层网络(之后被业界称为“深度学习”)的主要推动者。
这样的倡议并非FLI的首个。早在《AI Magazine》2015年冬季号上,Stuart Russell, Daniel Dewey, Max Tegmark等“生命未来研究所”的研究者公布了一份题为《迈向稳健和有益人工智能的优先考量研究方案》(Research Priorities for Robust and Benefcial Artifcial Intelligence) 的文章,旨在提倡就朝阳东升的人工智能技能对社会所造成的影响做负责的调研。
《迈向稳健和有益人工智能的优先考量研究方案》,图源:futureoflife.org
据生命未来研究所网站先容,英国物理学家斯蒂芬·霍金和美国高科技企业家埃隆·马斯克,以及许多其他的人工智能专家等八千多人在当时签署了这份关于人工智能的公开信。
但本次公开信的倡议更加尖锐,其所强调的重点终于落在了,人工智能系统具有与人类竞争的智能,这可能对社会和人类造成深远的风险。
根据阿西洛马人工智能原则指出,前辈的 AI 可能代表着地球生命历史上的深刻变革,该当以相应的关注和资源来操持和管理。但随着最近几个月 AI 实验室陷入一场无法掌握的竞赛,试图开拓和支配越来越强大的数字智能,这种方案和管理并未实现,乃至连它们的创造者也无法理解、预测或可靠地掌握这些智能。
本次倡议的核心不雅观点
1. 我们是否该当让机器用宣扬和谎话充斥我们的信息渠道?
2. 我们该当自动化所有的事情?
3. 我们是否该当发展终极可能超越我们、取代我们的非人类思维?我们该当冒险失落去对我们文明的掌握吗?
对付这些主要的决定,公开信表示,当代AI系统正逐渐在通用任务上实现与人类竞争的水平,只有当我们确信AI系统的影响是积极的,风险是可控的时候,才该当开拓强大的AI系统。
此外,AI实验室和独立专家该当利用这个停息期共同制订和履行一套共享的AI设计和开拓安全协议,这些协议应由独立的外部专家严格审核和监督,应确保遵守它们的系统在合理疑惑范围之外是安全的。这并不虞味着停息全体AI领域的发展,而仅仅是从危险的竞赛中退一步,避免研究更大、更难以预测、具有突现性能力的黑箱模型。
附公开信原文翻译
原文链接:https://futureoflife.org/open-letter/pause-giant-ai-experiments/
正如广泛的研究和顶级人工智能实验室所承认的那样,具有与人类媲美的智能的AI系统可能对社会和人类构成深刻的风险。也正如被广泛认可的阿西洛马人工智能原则所指出的那样,前辈的AI可能代表着地球生命历史上的深刻变革,该当以相应的关注和资源来操持和管理。不幸的是,只管最近几个月AI实验室正陷入一场无法掌握的竞赛,试图开拓和支配越来越强大的数字智能,但这种方案和管理并未实现,乃至连它们的创造者也无法理解、预测或可靠地掌握这些智能。
随着当代AI系统正逐渐在一样平常任务上实现与人类竞争的水平,我们必须问自己:我们该当让机器充斥我们的信息渠道,散布宣扬和不实信息吗?我们该当自动化所有事情,包括那些令人有造诣感的事情吗?我们该当发展可能终极比我们更多、更聪明、更前辈、能取代我们的非人类智能吗?我们该当冒着失落去对文明的掌握的风险吗?这些决定不应该被委托给未经选举的技能领袖。只有当我们确信AI系统的影响是积极的,其风险是可控的时候,才该当开拓强大的AI系统。这种信心必须有充分的情由,并随着系统潜在影响的增加而增加。OpenAI最近关于人工智能的声明指出:“在某个时候,可能须要在开始演习未来系统之前得到独立审查,并哀求最前辈的努力赞许限定用于创建新模型的打算增长。”我们对此表示赞许。现在便是那个时候。
因此,我们呼吁所有AI实验室立即停息至少6个月的韶光,停滞演习比GPT-4更强大的AI系统。这个停息该当是公开和可验证的,并包括所有关键参与者。如果这样的停息无法迅速履行,政府该当参与并实施一个停息令。
AI实验室和独立专家该当利用这个停息期共同制订和履行一套共享的AI设计和开拓安全协议,这些协议应由独立的外部专家严格审核和监督。这些协议应确保遵守它们的系统在合理疑惑范围之外是安全的。这并不虞味着停息全体AI领域的发展,而仅仅是从危险的竞赛中退后一步,避免研究更大、更难以预测、具有突现性能力的黑箱模型。
AI研究和发展该当重新聚焦于使现有的强大、最前辈的系统更加准确、安全、可阐明、透明、稳健、同等、可信和忠实。
同时,AI开拓职员必须与政策制订者互助,大力加速AI管理系统的发展。这些管理系统至少应包括:专门卖力AI的新型和有能力的监管机构;对高能力AI系统和大量打算能力的监督和跟踪;用于区分真实与合成内容并跟踪模型泄露的来源和水印系统;强大的审计和认证生态系统;对AI造成的危害承担任务;对技能AI安全研究的强大公共资金支持;以及应对AI带来的剧变(尤其是对民主制度)的经济和政治毁坏的资源充足的机构。
人类可以与AI共享一个美好的未来。在成功创建强大的AI系统之后,我们现在可以享受一个“AI的夏天”,在这个夏天里,我们可以收成成果,为所有人明确地造福,并给社会一个适应的机会。我们的社会已经在其他可能对社会产生灾害性影响的技能上按下了停息键。我们在这里也可以做到。让我们享受一个漫长的AI之夏吧,而不是毫无准备地冲进秋日。