新发布的工具名为Dioptra,它是一个开源软件包,许可开拓职员确定哪种类型的攻击会使AI模型的性能降落。
这款工具为AI系统的安全性和鲁棒性供应了有力的技能支撑,帮助开拓者更好地理解和改进模型在面对对抗性攻击时的表现。

与此同时,NIST还发布了两份辅导文件,以进一步加强AI的安全性和风险管理。
这两份文件分别名为《AI RMF天生AI配置文件》和《天生性人工智能和双用场根本模型的安全软件开拓实践》,它们将作为NIST的人工智能风险管理框架(AI RMF)和安全软件开拓框架(SSDF)的配套资源。

《AI RMF天生AI配置文件》详细列出了天生式AI可能面临的12个紧张风险,包括网络安全威胁、缺点信息传播、有害内容天生等,并为开拓者供应了近200项详细的风险管理方法。
这些建议行动旨在帮助开拓者有效地应对这些风险,确保AI系统的安全稳定运行。

另一份文件《天生性人工智能和双用场根本模型的安全软件开拓实践》则与安全软件开拓框架(SSDF)共同利用,为开拓者供应了更加详细的实践辅导。
该文件特殊关注到了恶意演习数据对AI系统性能的潜在威胁,并供应了相应的办理方案。
通过这份文件,NIST旨在帮助开拓者在实际操作中更好地运用SSDF,从而提升AI系统的安全性。

AI模型安然性怎么担保看看NIST的指导文件

此外,NIST还宣告了一项与环球利益干系者互助的操持,以共同制订人工智能标准。
这一举措显示了NIST在推动环球AI安全发展方面的决心和领导力。
通过与国际社会的广泛互助,NIST期望能够建立起更加统一、完善的AI安全标准体系。

值得一提的是,NIST的这些新举措与去年11月签署的《布莱切利宣言》的精神高度契合。
该宣言由中国、美国及其他至少25个国家在英国人工智能安全峰会上共同签署,旨在形成共同思路,监督人工智能的演化,并确保该技能的安全发展。
NIST通过发布新工具和配套文件,不仅为开拓者供应了实用的风险管理指南和技能支持,还为环球AI安全发展做出了积极贡献。