专家和科技企业高层警告人工智能可能导致人类灭亡

在“AI安全中央”网站上发布的一份关于AI风险的声明中,开放AI的首席实行官萨姆·阿尔特曼、Google DeepMind的首席实行官德米斯·哈萨比斯、Analogic的首席实行官达里奥·阿莫代等科技公司的高层都签署了这份声明。

声明呼吁将通过减少AI引发的灭绝风险作为环球优先事变,就像应对大盛行病和核战役等社会规模风险一样。

然而,也有人认为这种担忧浮夸了。

AI危机专家与科技巨擘合营发出警告

“AI安全中央”提出了几种灾害情景的假设。

AI武器化:开拓的新药工具可能被用于制造化学武器。

AI天生的虚假信息可能会不稳定社会并“对集体决策造成侵害”。

AI的力量可能集中在更少的人手中,国家可能通过“监视和压制性审查”来逼迫施加狭窄的代价不雅观。

人类可能会依赖AI而衰退,就像电影《机器人总动员》中描述的情景。

早在此前,乔夫里·辛顿博士和蒙特利尔大学的约书亚·本吉奥教授(打算机科学)就指出了超智能AI带来的风险,并支持这份声明。

辛顿博士、本吉奥教授以及纽约大学的杨·拉卡恩教授被誉为该领域的先驱者,被称为“AI之父”。
他们曾在2018年得到图灵奖,以表彰他们对打算机科学的精彩贡献。

然而,作为Meta旗下的Facebook和Instagram的成员之一,拉卡恩教授表示这些末日般的警告浮夸了,“对付这些预言,AI研究者最常见的反应便是摇头嗟叹”。

许多专家认为,AI毁灭人类的担忧是不现实的,而且转移了对已经存在的问题,如系统偏见等的把稳力。

美国普林斯顿大学的阿文德·纳拉亚南师长西席曾在接管BBC采访时表示,类似科幻小说中发生灾害的情节是不现实的。

“当前的AI能力远远无法实现这些风险。
结果是,人们对短期内由AI造成的侵害不感兴趣。

英国牛津大学AI伦理研究所的伊丽莎白·雷尼艾莉斯女士也表示,更令人担忧的是与现实更靠近的风险。

“随着AI的进步,偏见、歧视、排斥或其他不公道的自动决策的规模将扩大,这些过程将变得不可理解和无法证明。

雷尼艾莉斯女士还表示,AI将“加速虚假信息的数量和传播,导致现实分裂,毁坏"大众年夜众的信赖。
特殊是数字分裂将加速缺点一方的人们所面临的不平等”。

据雷尼艾莉斯女士先容,许多AI工具是在“乘车”人类的履历中开拓的。
许多AI是通过对人类创作的内容、文章、艺术和音乐进行演习和模拟而创建的。
结果是,AI的创建者“将巨大财富和权力转交给了少数几个私营企业”。

然而,“AI安全中央”的主任丹·亨德里克斯在接管BBC新闻采访时表示,未来的风险和当前的担忧不应视为抵牾的事物。

“办理本日的问题也有助于办理许多未来的风险。

专家们和科技公司的高层,包括特斯拉的埃隆·马斯克,今年3月也揭橥了一封公开信,呼吁停滞开拓下一代人工智能。

自那以来,关于AI“灭绝”的威胁的宣布一贯在加速。

这封公开信提出了一个问题:“我们是否该当开拓出一种超越我们的数量和能力,将我们变得陈腐无用,并可能代替我们的非人类智能?”

与此相应,这份声明非常简短,旨在“扩大对话”。

声明将AI风险与核战役进行了比较。
开放AI最近在其博客文章中暗示,超级智能可能以类似核能的办法受到监管。

“我们可能会须要像国际原子能机构(IAEA)那样的机构来监管超级智能的发展。

开放AI的阿尔特曼首席实行官和Google的CEO桑达尔·皮查伊先前与英国首相里希·苏纳克谈论了AI监管的问题。

苏纳克首相强调了与AI风险干系的经济和社会利益。

“最近,AI帮助瘫痪人士行走或创造新的抗生素。
我们须要确保这些事情能够以安全可靠的办法实现。

“我希望国民能够放心,政府正在非常谨慎地考虑这个问题。

苏纳克首相还在最近在广岛举行的七国集团峰会(G7峰会)上谈论了AI问题,并操持在不久后访问美国谈论这个问题。

最近,G7成立了与AI干系的事情组。