一份新的报告建议,为了确保一个日益依赖人工智能的社会的安全,我们须要确保它节制在少数人手中。但终极,这个决定不见得是精确的,极有可能会弊大于利。
在这份报告中,来自多个关注未来组织的20名研究职员,包括OpenAI、Endplay、电子前沿基金会、牛津人类未来研究所和新美国安全中央,表达了对人工智能可能会导致社会走向危险的担忧。
这份报告概述了几种尚未发生的情景:比如更高等的网络钓鱼骗局、恶意软件盛行和机器人黑客,而这,彷佛离到来并不太远。
究其缘故原由,他们认为,人工智能的内部运作可能须要保持私密的特性,从而使技能阔别坏人。报告建议,监管机构,或者人工智能研究机构,可以通过考虑“不同的开放模式”来实现这一目标。
这些模型将使人工智能研究社区阔别当前日益透明的环境,发布算法或使其开源变得越来越普遍。相反,研究职员建议放弃或推迟人工智能研究结果的发布,以限定其传播给那些意图不那么明朗的缔约方。
我们可能会赞许,阻挡恶意行为者利用人工智能的上述极度办法并不是一个好主张,最近环球范围内的一系列网络攻击无疑表明,他们确实存在,并乐意利用任何可用的工具。
但是限定人工智能的利用并不能阻挡邪恶的人们利用人工智能。而事实上,它可能会抑制真正的研究职员试图利用它的好处。
首先,英国剖析师乔恩·柯林斯(JonCollins)在Gigaom的博客中指出,研究职员并没有过多评论辩论他们的“黑镜”(Black Mirror)式场景的可能性有多大。
“我们都能想象灾害的情景,但只有利用我们的专业知识和履历来评估风险,我们才能优先考虑并减轻涌现的任何风险。”柯林斯写道。
此外,人工智能研究已经笼罩在封闭环境之中。从谷歌到微软,再到亚马逊,很多公司都把自己的算法笼罩在专有信息的保护层之下。本日,大多数人工智能研究职员已经无法复制人工智能研究,这使得研究职员很难确定他们在科学上是多么值得相信。
有很多令人信服的情由可以让人们理解AI的事情办法,而不是少开放。 研究职员创造,机器学习与他们的创作者的偏见相呼应,例如将一个人的种族与更多的犯罪活动潜力或性别联系起来,并在职业生涯中取获胜利。
专家们认为,该办理方案实际上可能与本报告作者所建议的相反 - 公司该当在人工智能的核心打开这个“黑匣子”。 让研究职员检讨彼此的代码是AI系统变得更加公道的唯一方法。
人工智能算法的更开放也可以使人工智能系统更安全,更不随意马虎被黑客攻击或被胆怯分子反向设计,这可以通过一个制衡系统来实现。
在这个别系中,人工智能在发布前由“算法安全委员会”(Algorithm SafetyBoard)的专家进行测试,类似将临床试验中向"大众年夜众开放之提高行了测试。
正如报告所建议的那样,研究职员在默认情形下开放所有人工智能信息时,该当三思而后行。这有点像在与黑客和恶意行为者的比赛中自嘲。
但与其躲在专利盾牌后面,公司还可以通过共同努力构建更强大的系统。报告还建议“积极寻求扩大参与谈论这些寻衅的利益干系者和领域专家的范围”。人工智能算法本身可能从同样的互助中受益。