文 | 太平洋科技,作者 | 赵甜怡,编辑 | 曾宪天

当人们把2023年看作是AI元年时,2024年的目光自然地聚拢在了AI运用的落地上。
然而,在商业化之前,AI已经变成了某些灰色家当的敛财工具。

莫名其妙的电话、激情亲切的异国美女、谣言、诱骗……在你无意识的时候,AI骗局就已经来到你身边。
PConline网络整理了四大AI新骗局,来看看你最“眼熟”哪一个?

骗局一:语音求救常见范围:微信、电话目标人群:覆盖所有,个中家长居多

面对陌生的号码你可能会直接挂掉,但是如果是家人打来的“求救电话”呢?

从换脸骗钱到套壳卖课AI诱骗若何避坑

根据中国新闻网的宣布,去年11月,王欣的母亲溘然接到一通“王欣”打来的电话,声称自己被绑架,让母亲转账30万元,否则“后果自大!
”焦急的王欣母亲立马就打算给对方转钱,被同事拦了下来。
同事建议先给王欣打电话,确认情形。
结果,真实的王欣正在睡午觉,啥事也没。
而那通“求救电话”便是骗子利用王欣的AI克隆声音制作的。

近几年,AI语音合成技能有了显著的发展,一些C真个运用也逐渐成熟。
像Voice AI、剪映等运用中都供应天生AI克隆音色的功能。
只要念两个例句,大家都能轻松天生自己的AI音色。
不仅如此,现在的技能已经可以在担保声音的高保真度的同时,仿照你的音色,乃至细致到你说话时的口音、重音、换气的节奏等等,完备可以知足实时的互动需求。

先前在网络上爆火的“AI孙燕姿”就曾引得一众谈论。
Up主用孙燕姿的AI克隆音色翻唱《发如雪》《Melody》等浩瀚有名歌曲。
该视频合集得到了2000多万的播放量。
网友们都在惊叹,AI乃至会改变原曲中的部分旋律,依照孙燕姿的曲风特点进行调度,险些能做到以假乱真的水平。
同时,网友们也都开始担心,技能一旦被滥用,防诱骗的本钱就更高了。

这样的担心不无道理。
据网友分享,自己曾接到过一通莫名其妙的电话。
一接通,对方就问“你家在哪”。
一头雾水的网友回答“不知道”,径直挂断了电话。
然而就在几天后,网友的家人就接到了“网友”的求救电话——骗子仅凭一句话就能天生网友的AI克隆声音,履行诱骗。

如果你认为,耳听为虚,眼见为实。
视频信息才能确认身份,那么接下来这个骗局,将会颠覆你的想法,让你惊呼“防不胜防!

骗局二:换脸诱骗常见范围:微信、线上会议、FaceTime目标人群:覆盖所有,熟人关系居多、针对女性居多

如今,眼见为实的“铁律”也会面临意外的情形。
福州市的郭师长西席就曾由于这条“铁律”狠狠吃了亏。

“安然包头”曾公布一起案例:在去年4月份,郭师长西席的朋友溘然打来微信视频电话,说自己在外地投标,须要430万的担保金,想借郭师长西席公司的账户走一下帐。
这位“朋友”随即将钱打到了郭师长西席的账户上,并且截图让郭师长西席确认。
虽然还未等来银行的关照信息,但郭师长西席还是先把钱转了过去。
结果,跟他视频的,是用AI换了脸的骗子,佯装成郭师长西席的朋友来骗钱。

郭师长西席报警后,还专门表示:“我在视频中确认了面孔和声音,才放松了戒备。

实在,“眼见为虚”的换脸技能我们早就见过。
这种技能名叫Deepfake深度假造,是一种将图片/视频合并叠加到源图片/视频上,天生虚假的个人表情、动作的AI技能。
在2023年上映的《流浪地球2》中,便是利用这个技能,将62岁的刘德华还原到我们印象中年轻的华仔样子容貌。

据《流浪地球2》的视觉殊效徐建的分享,在电影中,Deepfake的技能方案是用要更换的目标演员的海量素材演习AI更换拍摄素材的一种办法,相对省时省力省钱。
在好莱坞电影制作中,这样的操作很常见。
漫威的年轻版钢铁侠和年轻版黑豹都是基于Deepfake和演员年轻时的2D素材演习AI得出的。

但前辈的技能每每是一把双刃剑。
落到用心叵测的人手里,就变成了伤人的利刃。

前不久,数百万网友在推特上看到了由AI天生的美国著名女歌手Taylor Swift的不雅观观照。
这一组在推特上被查看了4700万次的照片,便是由Deepfake天生的。
影响之恶劣,以至于推特直接禁止搜索#Taylor swift#的词条。
然而,Taylor并不是第一个受害的女明星。
打开某些网站,乃至会有专门的“名人明星”分类,里面充斥着各种AI换脸的女明星。

根据专注于检测Deepfake的情报公司Sensity AI的一份报告,目前网上超过 96%的Deepfake图像都具有色情性子,而且险些所有图像都针对女性。

发布在社交媒体上的照片,可能被别有用心的人拿来“喂”AI。
普通人也随时面临着被“开盒”(指网络上公开曝光他人隐私的行为)的风险。
根据奇安信集团发布的《2024人工智能安全报告》,“2023年基于AI的深度假造(Deepfake)敲诈暴增了3000%”。

利用换脸技能来招摇诱骗固然恐怖,然而更深的套路是“攻心计”。

骗局三:美女带货常见范围:视频号、抖音、小红书等多家社交媒体平台目标人群:覆盖所有,个中男性居多

一个俄罗斯大美女向你发来视频,说想嫁到中国,你会支持她吗?相信90%的人都会表示支持。

外国人的面孔、些许生硬的中文,再配上浓厚的滤镜,就组成了弘大的异国美女军队。
这些“小姐姐”来自环球各地(近两年以俄罗斯居多),#中俄友情#是她们一定会带的视频标签词。
在她们发布的视频中,首当其冲的主题便是“想要嫁到中国”。

在这一主题下,“小姐姐们”的视频叙事采纳了丰富多样的角度:

“虽然我是xx国人,但中国是我的家。

“朋友家人都不理解,但我知道我迟早是中国媳妇。

“你乐意娶一个不要彩礼的俄罗斯女生吗?”

……

如果你对美女这个赛道不感兴趣,也没紧要。
还有认知思维赛道、军事赛道、时势评论赛道等等,各式各样的“外国人”都任你选择。

这便是AI的新套路。
视频全部都是由AI合成的假人,再配上机器语音,打着“促进国际友情”的旗号,出售商品。
这些“外国人”评论辩论着中国社会的方方面面,评论区收成了许多贴心贴腹的支持。
不少粉丝评论留言:“你比中国人还理解中国!
”“为你的中文点赞!

纵然视频中,“外国朋侪”把“了(liǎo)解”念成了“le”解,仍能收成10万+的点赞,橱窗中19.9元的杂粮粥仍能卖出30万的惊人销量。

在这背后操刀的是自媒体团队。
他们的商业思路十分清晰:先通过视频来积累粉丝——到达一定粉丝量后,开橱窗带货——实现变现。
由于制作本钱低,在起号阶段,一人每每能运营数十个账号,视频的脚本也是通用的。
无所谓单个账号是否有爆款,“广撒网,多敛鱼”,商品销量才是终极目的。

纵然常有文案“撞车”的情形发生,这类视频还是吸引了大量来自三四线城市的中老年粉丝群体,纷纭为了“国际友情”下单。

如果你认为,这是对下沉市场的招数,你绝不会上当。
那么下一个骗局,便是专门针对年轻群体的AI套路。

骗局四:AI知识付费常见范围:微博、抖音、小红书等多家社交媒体平台目标人群:积极学习的年轻群体

“现在不学AI,第一波失落业的便是你!
”“AI事情年薪200万,入门方法免费教你!
”“AI是普通人逆袭的末了机会!
”你一定没少看到这样的标语。

从2022年底,OpenAI发布ChatGPT开始,学习AI就成了新风潮。
随着科技巨子们不断推陈出新,各行各业的内容创作者们也铆足了劲,在自己的账号、社群中发布越来越多的AI课程——“零根本学AI”“AI绘画教程”,乃至还有“教你如何做AI课程”的课程。

但大水漫灌的结果,一定是泥沙俱下。

不少年轻粉丝奔着学习新知识去,却领了“吃一堑,不长智”的教训。
许多内容创作者利用信息差,将国外免费开放的官方AI传授教化翻译过来,就成了自己的课件,美美卖课。
像许多“零根本AI”课程中常见的“prompt利用技巧”,实在是来自OpenAI官网发布的传授教化内容。
这些标价199、299元的课程还赠予了“免费AI体验”。
但实际上,是本就免费开放的大模型,再加上一个套壳包装罢了。

一些粗制滥造的AI课程丝毫不影响这个市场的火热程度。
不少焦虑的年轻人仍在直播间猖獗下单。
在抖音,一个4万粉丝的博主,近800元的AI录播课竟有2000+人学习,这意味着,单课程发卖额至少160万元。

这些授课人便是通过传播焦虑的办法来促进课件的下单量。
一欠妥心你就会成为“韭菜园里最靓的一棵”。

写在末了

上面四种AI骗局,你被哪个绊住了脚?

实在,现在互联网上的AI骗局远不止这些。
网络安全公司Fortinet发布的《2024环球安全威胁预测》中提到,AI已经成为“头号关注”。
假视频被频繁用于传播谣言,一张朋友圈照片也有可能被拿去换脸。
有些人借着AI技能的发展,炮制了一个又一个新骗局。
不明原形的我们,一欠妥心就会走入这“量身定制”的套路。

虽然关于AI的法制监管都在积极的推进中,但政策只是保护的一方面。
另一方面还在于我们自身。
擦亮眼睛、谨严思考,才是我们面对骗局的有效出路。

本篇文章中的案例均为真实事宜,化名。