目前,AI技能在人脸支付、人脸安防、语音识别、机器翻译等浩瀚场景得到了广 泛的利用,AI系统的安全性问题也引起了业界越来越多的关注。
例如,攻击者可能通过特制的攻击贴纸来欺骗人脸识 别系统,从而带来生命财产丢失。
为了应对AI模型各个环节可能存在的安全风险,并给出相应的防 御建议,本日腾讯正式发布业内首个AI安全攻击矩阵。
△ AI安全的威胁风险矩阵
该矩阵由腾讯两大实验室腾讯AI lab和朱雀实验室联合编纂,并借鉴了网络攻防领域中较为成熟的ATT&CK开源安全研究框架,全面剖析了攻击者视角下的战术、技能和流程。
腾讯AI安全攻击矩阵从以下7个维度展开了21种AI安全攻击与防御方法。
AI模型开拓前碰着的攻击办法有:
环境依赖:依赖软件攻击、Docker恶意访问、硬件后门攻击、供应链攻击
数据搜集整理:数据投毒、数据后门攻击
模型演习:梯度中数据规复、初始权重修改、代码攻击、演习后门攻击、非集中式场景
模型支配:模型数据规复、模型文件攻击
模型利用:数字对抗攻击、物理对抗攻击、模型盗取、GPU/CPU溢出毁坏
模型架构:查询式架构盗取、侧信道架构盗取
结果影响:模型误判、信息透露
这份AI安全攻防矩阵包含:从AI模型开拓前的环境搭建,到模型的演习支配,以及后期的利用掩护。席卷了全体AI产品生命周期中可能碰着的安全问题,并给出相应策略。
该矩阵能够像字典一样便捷利用。研究职员和开拓职员根据AI支配运营的基本情形,就可对照风险矩阵排查可能存在的安全问题,并根据推举的防御建议,降落已知的安全风险。
研究职员将各种攻击办法标记了较成熟、研究中、潜在威胁三种成熟度,AI开拓者可以直不雅观理解不同攻击技能对AI模型的危险程度。
据腾讯AI Lab先容,矩阵编撰的核心难点在于如何选取和梳理AI系统安全问题的剖析角度。作为一种与其他软硬件结合运作的运用程序,AI系统安全的剖析切入角度与传统互联网产品并不完备同等。
经由充分调研,团队终极选择从AI研发支配生命周期的角度切入,总结归纳出AI系统在不同阶段所面临的安全风险,从全局视角来核阅AI的自身安全。
除了聚焦机器学习、打算机视觉、语音识别及自然措辞处理等四大根本研究领域外,腾讯AI Lab也在持续关注AI领域的安全性研究,助力可信的AI系统设计与支配。
腾讯朱雀实验室则专注于实战攻击技能研究和AI安全技能研究,以攻匆匆防,守护腾讯业务及用户安全。
此前朱雀实验室就曾仿照实战中的黑客攻击路径,直接掌握AI模型的神经元,为模型“植入后门”,在险些无感的情形下,实现完全的攻击验证,这也是业内首个利用AI模型文件直接产生后门效果的攻击研究。
目前,风险矩阵的完全版本可于腾讯AI Lab官网免费下载。
附AI安全攻击矩阵全文下载地址:https://share.weiyun.com/8InYhaYZ
— 完 —
量子位 QbitAI · 头条号签约
关注我们,第一韶光获知前沿科技动态