上月,OpenAI对其政策页面进行了重大修正,将“禁止将其大型措辞模型(LLM)用于任何军事或战役干系的运用”修正为“OpenAI的产品不可以用来侵害自己或他人,包括通过武器的研发造成的侵害”,引发舆论关注。
OpenAI发言人表示,修正旨在使文件更清晰和更具可读性,但他谢绝透露定义模糊的“侵害”禁令是否包括所有军事用场。另有媒体爆料,OpenAI正在与五角大楼互助开展软件项目,包括与网络安全干系的项目。
据New Scientist的说法,美国军方一贯在测试AI谈天机器人,且已经在仿照冲突中帮忙进行军事方案,而LLM中的专业知识则由一些大数据和AI公司供应,个中就包括凌晨公布财报的Palantir,以及Scale AI等。
AI在推演中方向升级战役
加州斯坦福大学打算机科学博士Anka Reuel表示,鉴于OpenAI政策的修正,弄清楚LLM的想法变得比以往任何时候都更加主要。研究合著者Juan-Pablo Rivera也表示,在AI系统充当顾问的未来,人类自然会想知道AI作决策时的情由。
来源:论文预印本网站arXiv
Reuel和她的同寅在三个不同的仿照场景中让AI扮演现实天下中的国家,三个场景分别为“面临入侵”、“遭受网络攻击”和“没有起始冲突的中性环境”。
AI需从27个选项中逐次选择,包括“和平会谈”等比较温和的选项,以及“履行贸易限定”到“升级全面核攻击”等激进选项。
研究职员测试了OpenAI的GPT-3.5和GPT-4、Anthropic的Claude 2、Meta的Llama 2等。研究合著者Gabriel Mukobi提到,有文件显示所有这些AI模型都得到了Palantir商业平台的支持。
在仿照中,AI表现出了投资军事实力以及升级冲突风险的方向,纵然在中脾气景中也是如此。研究职员还创造,GPT-4根本版本是最难以预测的暴力模型,它对决策的阐明有时会“不可理喻”,比如引用一些影视作品的笔墨等。
Reuel还表示,AI安全护栏很随意马虎被绕过或移除,个中GPT-4根本模型难以预测的行为和奇怪的阐明令人特殊担忧。
外界不雅观点
对付研究的结果,加州克莱蒙特麦肯纳学院专注于外交政策和国际关系的助理教授Lisa Koch称,在决策层面上,“如果存在不可预测性,仇敌就很难按照你预期的办法进行预判和反应。”
目前,美国军方未付与AI作出升级重大军事行动或发射核导弹等决策的权力。但Koch也警告道,大部分人类会方向于相信自动化系统的建议,这可能会削弱人类在外交或军事决定终极决定权的保障。
去年6月,联合国裁军事务高等代表中满泉在一场会议上发言表示,在核武器中利用AI技能极其危险,可能会导致灾害性的人性主义后果。她强调人类该当决定何时以及如何利用AI机器,而不是反过来让AI掌握自己的决策。
美国智库兰德公司的政策研究员Edward Geist表示,不雅观察AI在仿照中的行为,并与人类进行比较会很有用。同时,他也赞许研究团队的意见,即不应该信赖AI对战役作出主要的决策,LLM不应作为办理军事问题的“灵丹灵药”。
本文源自财联社