本文约1600字,建议阅读6分钟人工智能和机器学习如何躲避网络安全的防护并且完成更快更有效的毁坏。

标签:cybersecurity

专家告诫:攻击者可以用机器学习来更快地破解密码,以及建立会藏匿的恶意软件。

图片:iStockphoto/metamorworks

三种运用AI进击收集安然的方法

三个网络安全专家在NCSA和纳斯达克网络安全峰会上阐明了人工智能和机器学习如何躲避网络安全的防护并且完成更快更有效的毁坏。

十月六日星期二,国家网络安全同盟的实行董事Kelvin Coleman,在以 “可用的安全:影响和丈量人类行为的改变”为主题的论坛中对这一部分进行了磋商。

国立标准与技能学院,员工信息技能实验室的首席Elham Tabassi,是这次“网络安全中的人工智能和机器学习:善、恶、丑”讲座中的一位高朋。

查看:

Security threats on the horizon: What IT pro's need to know (free PDF) (TechRepublic)

“攻击者能利用AI往返避检讨,藏在不能被找到的地方,并且自动开启反侦查模式。
”Tabassi说。

Digital Guardian的数字首席信息安全官Tim Bandos认为,网络安全总是须要借助人类思维来建立更强的防御方法来抵抗攻击。

“AI 是助手,安全剖析师和威胁侦查官是超级英雄”他说。

以下是3种AI和ML被用于网络安全攻击中的办法。

数据中毒

Tabsassi说,攻击者有时会瞄准用来演习机器学习模型的数据。
数据中毒是通过操纵一个演习集来掌握模型的预测能力,使模型做出错误的预测,比如标记垃圾邮件为安全内容。

数据中毒有两种类型:攻击ML算法可用性和攻击算法的完全性。
研究表明,演习集中3%的数据遭遇数据中毒会导致预测准确率低落11%。

通过后门攻击,一个入侵者能够在模型的设计者不知情的情形下,在算法中添加入参。
攻击者用这个后门使得ML系统缺点地将特定的可能携带病毒的字符串识别为良性。

Tabsssi说毒害数据的方法能够从一个模型转移到另一个模型。

“数据是机器学习的血液和燃料, 用来演习模型的数据该当被予以同模型一样的重视。
”她说,“用户信赖度是被模型和演习的质量以及个中的数据所影响的。

Tabassi 说业界须要制订一个标准和规则来担保数据的质量,NIST已经在制订国家规范以约束AI的可靠性,规范包含高阶的规则和强调准确性、安全性、偏差性、隐私性和可阐明性的技能哀求。

查看 :

Social engineering: A cheat sheet for business professionals (free PDF) (TechRepublic)

天生对抗网络

天生对抗网络(GANs)是由两个相互对抗的AI组成 -- 一个仿照原有的内容,另一个卖力挑出错误。
通过二者的对抗,他们共同创立出与原来高度拟合的内容。

Nvidia的研究者演习了一个分外的AI模型来重修吃豆人游戏。
(https://www.zdnet.com/article/nvidia-researchers-use-ai-to-recreate-pac-man-without-a-game-engine/)这个模型只是大略地不雅观察了几个小时的游戏,没有借助游戏引擎,Stephanie Condon在ZDNet中阐明道。

Bandos说攻击者利用GANs来仿照一样平常的数据传输规律,来将分散系统的把稳力,并且找到能使敏感数据迅速撤离的方法。

“由于有了这些能力,他们可以在30-40分钟内完成进出。
”他说,“一旦攻击者开始利用AI和机器学习,他们就能自动运行这些任务了。

GANs还可以用于破解密码,躲避杀毒软件和欺骗面部识别,Thomas Klimek在文章“天生对抗网络:他们是什么,为什么我们症结怕。

(https://www.cs.tufts.edu/comp/116/archive/fall2018/tklimek.pdf)中如是描述。
一个用机器学习建立的密码预测对抗网络(PassGAN system),利用行业标准密码清单上演习模型,终极该网络能够预测到比其他几个在同样数据集上演习的工具更多的密码。
除了天生数据,GANs能创造可以躲避基于机器学习检测的恶意软件。

Bandos认为用于网络安全的AI算法不得不通过频繁地重复演习才能识别新的攻击。

“恶意软件在进化,我们也要一起进化。
”他说。

他用“稠浊”作为例子,比如一个恶意软件的大部分是由合规的代码组成的(所谓用合法代码来稠浊/伪装),一个ML算法必须要能够识别个中的恶意代码。

僵尸程序

VMware Carbon Black的高等网络安全策略师Greg Foss讲道,如果AI算法被用于做决策,那么他们也能被操控做出错误的决策。

“如果攻击者理解这些模型,他们就能够用他们做坏事。
”他说。

Foss说最近的一次对加密货币交易系统的攻击便是通过僵尸程序实行的。

“攻击者进入系统并且创造打算机程序如何进行交易,然后他们用这个程序去迷惑算法。
”他说,“这个也有很多其他运用。

Foss补充说这个技能不是新的,但是现在这些算法比以更智能了,这大大提高了算法做出一个坏决策的风险。

可阅览更多干系文章

1.How to become a cybersecurity pro: A cheat sheet (TechRepublic)

2.Social engineering: A cheat sheet for business professionals (free PDF) (TechRepublic)

3.Shadow IT policy (TechRepublic Premium)

4.Online security 101: Tips for protecting your privacy from hackers and spies (ZDNet)

5.All the VPN terms you need to know (CNET)

6.Cybersecurity and cyberwar: More must-read coverage (TechRepublic on Flipboard)

原文标题:

3 ways criminals use artificial intelligence in cybersecurity attacks

原文链接:

https://www.techrepublic.com/article/3-ways-criminals-use-artificial-intelligence-in-cybersecurity-attacks/