最近关于AI的负面新闻其实有点多。
不是“合成老板声音骗走173万”,便是“过度采集信息陵犯学生隐私”……作为一个长期关注AI进展的科技媒体,我们一边替AI焦急,同时又以为心里的另一只靴子落了地——“该来的总会来”。

在很长一段韶光内,大家更乐意将目光聚焦在AI的技能进步上。
比如“AI语音合成”,干系的新闻大家一定也看过很多了,“谈天App推出变声成明星功能”,“仅用1分钟AI就能模拟你说话”,“谷歌语音克隆实现情绪表达”等等,无不伴随着对技能的乐不雅观期盼,干系技能成果也被研究者们年夜方地分享在开源平台上。

形势一片大好中,这次“AI语音诱骗”事宜正好给我们提了个醒:

技能的进步与遍及速率,已经远远走在了普通人的认知前面。
在社会高度智能化、技能运用门槛越来越低的本日,AI也一定成为诱骗者的目标和帮凶,危及个人资产安全只是迟早的事。

细思极恐AI花式诱骗的N种办法

对付个人来说,为了争取不被骗子收割,预先理解AI有哪些能力,便是必不可少的一课了本日就来说说,有哪些辨别起来难度较大的AI骗局。

难度系数一星:假造邮件钓鱼邮件

即黑客假造官网发送邮件,个中携带恶意木马或虚假内容来窃取信息,早已经不是什么新鲜的攻击手段了。
以现有的安全技能,检测并防御来自钓鱼邮件的威胁,险些不费吹灰之力,近两年类似的骗局也很少涌如今大众面前。

可是,如果邮件这一用场与人工智能相结合,使攻击者能够访问公司网络并说服员工授权转账,那带来的后果就会非常恐怖了。

2017年,美国南俄勒冈大学就被诱骗进行了190万美元的转账,他们认为自己的转账工具是卖力培植学生娱乐中央的安德森建筑公司,实际上却转到了骗子的银行账户。
该事宜导致FBI向其他大学与机构发出了风险警告。

而在此前,已经有78起类似的骗局发生,电缆制造商Leoni和科技公司 Ubiquiti Networks 之类的公司,曾被骗走了数亿美元。

这种商务电邮诱骗(BEC)到底是如何实现的呢?

首先,骗子很随意马虎找出与机构有业务联系的工程项目公司,然后伪装既定厂商向机构财务部门发送支付账单,机构信以为真之后就会将后续的款项转账到骗子的银行账户,等意识到被骗的时候,常日已经追不回来了。

之以是能够达到如此逼真的效果,除了骗子会注册一个与官方类似的域名来假冒邮件地址之外,人工智能的参与也起到了非常大的帮助。

攻击者通过Twitter、LinkedIn、Facebook等社交媒体,就能够全面理解目标的业务往来信息,有些企业和机构的官网也会公开(暴露)自己的组织机构和管理职员,而年事、性别、博文等等多维数据都可以被注入到机器学习演习模型之中。

比如一名高管在Twitter 上公开了他的日程、演讲操持、旅行操持等,系统就能分辨出他何时在参加会议或是在事情,从而调度攻击策略,然后借助AI措辞模型天生连贯的令人信服的内容。

最常见的是哀求变动付款账户或是进行紧急付款,而高管职员正在假期或长途翱翔时很难联系到本人,毫无防备的受害者很随意马虎就会因“事态紧急”而选择屈服号令。

由此产生的攻击能帮助攻击者绕过一些基于署名的检测系统,成功骗过当前的一些反垃圾邮件遥测技能。
而且,它还能不断学习,如果攻击有效,信息就会被反馈到模型中,进一步提升未来攻击的准确性;失落败的数据也会反馈回来,以便机器可以学习哪类信息是不见效的。

别以为这个套途经于大略。
联邦调查局的数据显示:2018年由假造电邮骗局造成的丢失超过了125亿元(个中最大的一笔高达50亿美元),是2017年的两倍多。
最关键的是,由于不带有钓鱼页面或文件,因此这种骗局很难通过安全软件来进行甄别,地址和内容看起来都是“合法的”。

想要不上当,只能依赖个体的警觉了。
如果节制公司财务的是一个对技能近况不甚明晰的“傻白甜”,结果可想而知。

难度系数二星:假造字迹

如果说提高当心、仔细核验,邮件诱骗在很大概率上能够戒备的话,那么AI假造字迹这种个性化特色,可能连极为熟习你本人的亲朋都随意马虎上当。

英国UCL大学研究职员就开拓出了“My text in your hand writing”人工智能算法,能够剖析一个人的字形及其分外的书写办法,天生字形、字号、颜色、笔线纹理、垂直及水平间距等完备相同的字迹,这是迄今为止对人类字迹的最精确复制。

而早在2017年上海举行的GeekPwn2017国际安全极客大赛上,就有团队通过类似的字迹模型写出了一张以假乱真的欠条。
这个自带书法字迹深度学习系统的手臂 “DeepWritting”,首先从现场一位作家的真人字迹中进行学习,节制了作家字迹的每一个细节和习气,然后很快写下了一张欠条,纵然是现场请来的专业字迹鉴定师,也无法创造有任何与真迹不符的地方。
换句话说,如果骗子利用该模型假造一张欠条,法律上也难以剖断它是假的。

当然,欠条只是小case,恐怕罪犯也不愿轻易劳心劳力地只坑一个人。
但如果是假造出具有较高精准度的法律或金融文件,比如财务条约署名、遗嘱、历史人物的手迹等等,就为法律证据的鉴定和造孽证据的打消带来了不少困难,有可能改变事实的关键走向。

历史上就曾发生过《明星》画刊编辑花费数百万购买了大量包含希特勒字迹的资料,历时数月学习和模拟,假造了一本多达62册的希特勒日记,并将之作为独家新闻公之于众,在当时引起了环球性轩然大波。
但很快历史专家通过材料鉴定,创造该日记的纸张里含有当时尚未发明的材料,才让原形大白。

但随着AI天生算法能力的提升,未来想要靠专业鉴定师来识别出字迹的真伪,恐怕就不是一件随意马虎的事了。

难度系数三星:机器人电话

当然,无论是邮件,还是手写授权,在当代人的生活场景中都在逐渐淡化。
不过,上述诱骗办法还没遭到破解,就有更难以辨别的新手段涌现了。

机器人电话,便是AI语音合成技能一种比较广泛的运用。
有些场景只是有点烦人,比如利用AI机器人进行推销。
想必大家都没少经历过,接通一个看似官方的来电,声音那头会非常自然地跟你打呼唤“你好”,停顿之后,如果你客气地回应“哪位”,对面的机器人就会将你勾引得手机短信,鼓励你办理业务。

而有些手段就涉及到诱骗犯罪了,比如用虚假借口索取金钱或个人信息。
由于电销机器人技能已经非常遍及,险些不须要高投入就能行骗,也导致此类骗局正在泛滥。

比如今年4月份郑州市公安局破获的一起诱骗,某公司便是先从网上购买AI机器人电话软件,由电话机器人自动操作。
以每天1000-1500个的速率拨打客户电话,一旦有客户没有谢绝接听并表示感兴趣;这些声音甜美、说话激情亲切的AI语音机器人就会记下该电话号码,然后由业务员主动添加该客户的微信吸引他们充值投资;一旦资金到账,就迅速拉黑对方。

2018年,美国联邦委员会还向四家在全美境内供应造孽机器人呼叫电话投放做事的运营商发起了诉讼。
这些公司会向人们推销虚假的能减免债务的做事,亦或是伪装成慈善机构欺骗大家捐赠汽车等财务,再把它们卖掉。
还有的声称自己是谷歌的“数据做事代理”,诱骗小企业主支付数百美金来优化其搜索排名。

更让人无奈的是,目前除了用户主动进行“诱骗号码”标记之外,并没有其他能真正有效阻挡造孽机器人电话的方法。

难度系数四星:语音克隆

上述技能和语音克隆比起来,还是小巫见大巫了。

由于机器人语音系统还可能存在卡顿、音色机器化、语气表现力不敷、多轮对话“鬼打墙”等问题。
但到了克隆级别, 不仅说话的声音达到了真人水准,乃至还能模拟真人的情绪和语调,自动说出全新的语句。

文章开头提到的,AI伪装成母公司“老板”电话,讲出带有德国腔的英文;哀求必须在一个小时之内给“匈牙利供应商”转账,成功骗走22万欧元,采取的便是语音克隆技能。

除了能够利用神经网络对原始音频进行建模和模拟之外,AI还能够剖析本人的社交网络,很快节制个性化的说话办法、与周围人的关系、兴趣爱好等等,从而模拟你与身边的人自然地互换。

别说是事情伙伴了,就连亲妈,可能都听不出克隆出来的语音与本人有什么差异。
Buzzfeed的科技Charlie Warzel就曾利用一款免费的语音合成软件,模拟了自己的声音,然后打电话给自己的妈妈,结果对方居然没听出来。

目前,谷歌的WaveNet、Lyrebird语音合成软件,Adobe的 Project VoCo,以及百度的Deep Voice,科大讯飞、腾讯等等都供应语音合成的开源运用。

顺着这个思路往下延伸,或许有一天,AI可以模拟我们给朋友写信、玩转社交媒体,替我们署名,乃至能够代替我们和亲朋好友谈天……这统统彷佛很美好,但如此随意马虎获取的技能,无异于将很多个人安全数据都交到诱骗罪犯手中,又会是一种多么恐怖的存在?

AI诱骗这场仗,未来该如何打?

当然,说了这么多,并不是为了让大家对AI敬而远之。
绝对的“技能安全”本身便是一个伪命题,因噎废食并不可取,也并不现实。

或许,当我们将AI作为一柄神兵利器开释出来的时候,就注定就走上一条“以子之矛攻子之盾”的道路。

如何将“安全之盾”铸造地更加强大呢?

如果说技能的发展是问题的起源,它也将成为办理问题的归宿。
最范例的,除了加强个人安全警示教诲之外,许多新的技能方法也开始被运用在戒备AI诱骗上。

比如安全公司赛门铁克,最近就提出了采取区块链技能和IP语音(VoIP)呼叫的方法,便是来辨别来电者的真实性,从而减少哪些仿照来自上级的诱骗电话。

再比如,卡迪夫大学和查尔斯三世大学的科学家通过NLP技能来判断书面谎话,通过一个名为VeriPol的工具来识别语句中的各种特色,判断出报告是否真实。
对付一些伪装真人发出的诱骗邮件或书面文件,更强大的AI模型显然能起到很好的反制的浸染。

当然,在不明确技能泛滥后果的条件下,合理地开释技能成果也成为一些科技企业的选择。
比如OpenAI前段韶光推出的性能更高的无监督措辞模型GPT-2,就没有按照行业老例进行开源,只发布了简化版,不发布数据集、演习代码以及模型权重,目的便是避免“这一技能被人恶意利用”。

除了技能职员与黑客们斗智斗勇,家当界也开始从规则培植的层面,为滥用AI的行为设立了禁区。

FTC和FCC近年来都加强了对造孽机器人电话的监管行动,向八家小型电信运营商和互联网通讯公司发出关照,敦促他们追捕并关闭可疑的敲诈电话来源。

在美国安全中央发布的《人工智能与国家安全》报告中,也明确将人工智能假造技能列为威胁国家安全的重点技能。

中国也开始通过政策管理和技能限定等路子进行布局,来应对人工智能的潜在安全风险。

这次“AI语音诱骗”事宜让环球公民真切地经受了一次以AI为名的安全教诲。

总的来说,攻击者与防御者手中的武器都在升级迭代,而环绕AI天生的网络欺骗与安全问题有着太多意想不到的可能性,这场全新的斗法,或许是时候从技能维度,走向知识、伦理、规则等更广阔的领地了。

作者:脑极体,微信公众年夜众号:脑极体

本文由 @脑极体 原创发布于大家都是产品经理。
未经容许,禁止转载。

题图来自Unsplash, 基于CC0协议