在一些人工智能研究专家的眼中,当古人类对人工智能技能的研发,就像小孩子在玩弄炸弹一样危险。
在这一方面,拥有特斯拉、OpenAI、SpaceX等多家企业的美国企业家埃隆·马斯克,便是这方面的范例。
其公司OpenAI最近联合牛津大学、剑桥大学等多家机构发布了一份报告,该报告调查了恶意利用人工智能的潜在安全威胁图景,并提出了多种预测、预防和缓解威胁的办法。

人工智能的不愿定性让人恐怖

概括来说,报告认为未来人工智能对人类造成的威胁紧张包括三种类型,一是扩展或升级了人类面临的现有威胁,使这些威胁的实现手段更加随意马虎,本钱更低;二是制造出新的威胁,这些威胁因人工智能的涌现才产生;三是威胁的范例特色发生改变。

毫无疑问,人类当前正处于人工智能黄金时期来临前的黎明,诸如Siri、Alexa等数字私人助理的涌现,自动驾驶车辆以及诸多故意义的、超越人类能力的算法都在帮助人类在社会、经济等多个领域内更好地实现目标。

人工智能时代的技能也应有价值不雅观

但与其他许多科技行业不同,这一领域的研究不受正式安全法规或标准的约束,导致人们担心人工智能终极可能分开人类掌握的轨道,成为包袱而不是利益。
常见的恐怖包括人工智能取代人类事情者,剥夺我们的权利,并对我们的生存构成威胁。
后者是马斯克成立OpenAI、SpaceX等公司的主要缘故原由。

从这份报告的内容来看,人工智能对人类带来的威胁,可以简化为两种。
一种是对现在威胁的扩展与升级。
这种威胁事实上并不是最大的威胁。
它的攻击属性和目标仍旧是清晰的,只是借助于人工智能技能,使它实现的办法和手段更为高等、有效以及精准。
这种可预测的威胁,只要通过升级或研发相应的技能和防御办法,基本上可以被办理。

但人工智能真正令人恐怖的,在于其不愿定性。
从目前已有的人工智能技能来看,人工智能技能彷佛只是对过去其他科学技能的升级。
但实际上显然并非如此,它并不像电力对烛炬之类的替代一样,乃至它可以实现更多的自主决策。
并且这种决策的过程,可能是人类无法掌握的。
目前被广泛运用的深度学习算法即是一例。
因此,为理解决深度学习的“黑箱”决策过程,许多研究者也试图借助其他手段来打开这个“黑箱”。
但人工智能存在的“黑幕”远不止于此。

而这也是OpenAI报告中提出的应对策略并不那么让人信服的地方。
面对许多不愿定性的存在,任何过于详细的应对戒备方法都将可能显得过于狭隘、无效。
但即便如此,我们却也不得不积极地寻求潜在的办理办法,而不是被动地等待变革。

以“代价对齐”戒备AI潜在威胁

值得重视和关注的是,过去几次再三被提及的“技能没有代价不雅观”的中立原则,在人工智能技能上并不可行。
由于人工智能产生不愿定性风险的可能性过高,因此任何研究、开拓人工智能技能的人,都该当对其研发负起干系任务,而不因此诸如“我只是在制造工具,好坏由利用的人决定”来推脱任务。

虽然目前环球各国、企业及研究者对付人工智能该如何掌握、如何发展并未达成共识,但“代价对齐”是一条被普遍认可的标准,即人工智能的发展不能与人类的代价不雅观相悖。

无论如何,纵然上述的剖析在面对充满不愿定性风险的人工智能令人感到沮丧,这却是当古人类面对人工智能的现实。
因此,在产生更加有效和令人信服的策略来办理人工智能潜在威胁之前,保持人类掌握,明确研发人工智能技能的任务,代价不雅观同等,确保人工智能对人类的发展与繁荣有益,通过多次迭代人工智能技能而非一挥而就的开拓,持续谈论、关注各种人工智能发展,是目前戒备人工智能潜在不利一壁的最基本方法。

而这也就哀求,人类须要为此成立相应的管理机构,深入节制环球人工智能的活动并及时制订干系的政策,确保人类安全和现有秩序的稳定。
在这一方面,哀求各国政府官员,加深对人工智能的理解,不能仅仅局限于人工智能可能对人类事情岗位的取代等诸如此类的大略议题。

□郑伟彬(互联网从业者)