专家和科技企业高层警告人工智能可能导致人类灭亡
在“AI安全中央”网站上发布的一份关于AI风险的声明中,开放AI的首席实行官萨姆·阿尔特曼、Google DeepMind的首席实行官德米斯·哈萨比斯、Analogic的首席实行官达里奥·阿莫代等科技公司的高层都签署了这份声明。
声明呼吁将通过减少AI引发的灭绝风险作为环球优先事变,就像应对大盛行病和核战役等社会规模风险一样。
然而,也有人认为这种担忧浮夸了。
“AI安全中央”提出了几种灾害情景的假设。
AI武器化:开拓的新药工具可能被用于制造化学武器。
AI天生的虚假信息可能会不稳定社会并“对集体决策造成侵害”。
AI的力量可能集中在更少的人手中,国家可能通过“监视和压制性审查”来逼迫施加狭窄的代价不雅观。
人类可能会依赖AI而衰退,就像电影《机器人总动员》中描述的情景。
早在此前,乔夫里·辛顿博士和蒙特利尔大学的约书亚·本吉奥教授(打算机科学)就指出了超智能AI带来的风险,并支持这份声明。
辛顿博士、本吉奥教授以及纽约大学的杨·拉卡恩教授被誉为该领域的先驱者,被称为“AI之父”。他们曾在2018年得到图灵奖,以表彰他们对打算机科学的精彩贡献。
然而,作为Meta旗下的Facebook和Instagram的成员之一,拉卡恩教授表示这些末日般的警告浮夸了,“对付这些预言,AI研究者最常见的反应便是摇头嗟叹”。
许多专家认为,AI毁灭人类的担忧是不现实的,而且转移了对已经存在的问题,如系统偏见等的把稳力。
美国普林斯顿大学的阿文德·纳拉亚南师长西席曾在接管BBC采访时表示,类似科幻小说中发生灾害的情节是不现实的。
“当前的AI能力远远无法实现这些风险。结果是,人们对短期内由AI造成的侵害不感兴趣。”
英国牛津大学AI伦理研究所的伊丽莎白·雷尼艾莉斯女士也表示,更令人担忧的是与现实更靠近的风险。
“随着AI的进步,偏见、歧视、排斥或其他不公道的自动决策的规模将扩大,这些过程将变得不可理解和无法证明。”
雷尼艾莉斯女士还表示,AI将“加速虚假信息的数量和传播,导致现实分裂,毁坏"大众年夜众的信赖。特殊是数字分裂将加速缺点一方的人们所面临的不平等”。
据雷尼艾莉斯女士先容,许多AI工具是在“乘车”人类的履历中开拓的。许多AI是通过对人类创作的内容、文章、艺术和音乐进行演习和模拟而创建的。结果是,AI的创建者“将巨大财富和权力转交给了少数几个私营企业”。
然而,“AI安全中央”的主任丹·亨德里克斯在接管BBC新闻采访时表示,未来的风险和当前的担忧不应视为抵牾的事物。
“办理本日的问题也有助于办理许多未来的风险。”
专家们和科技公司的高层,包括特斯拉的埃隆·马斯克,今年3月也揭橥了一封公开信,呼吁停滞开拓下一代人工智能。
自那以来,关于AI“灭绝”的威胁的宣布一贯在加速。
这封公开信提出了一个问题:“我们是否该当开拓出一种超越我们的数量和能力,将我们变得陈腐无用,并可能代替我们的非人类智能?”
与此相应,这份声明非常简短,旨在“扩大对话”。
声明将AI风险与核战役进行了比较。开放AI最近在其博客文章中暗示,超级智能可能以类似核能的办法受到监管。
“我们可能会须要像国际原子能机构(IAEA)那样的机构来监管超级智能的发展。”
开放AI的阿尔特曼首席实行官和Google的CEO桑达尔·皮查伊先前与英国首相里希·苏纳克谈论了AI监管的问题。
苏纳克首相强调了与AI风险干系的经济和社会利益。
“最近,AI帮助瘫痪人士行走或创造新的抗生素。我们须要确保这些事情能够以安全可靠的办法实现。”
“我希望国民能够放心,政府正在非常谨慎地考虑这个问题。”
苏纳克首相还在最近在广岛举行的七国集团峰会(G7峰会)上谈论了AI问题,并操持在不久后访问美国谈论这个问题。
最近,G7成立了与AI干系的事情组。