文 | 太平洋科技,作者 | 赵甜怡,编辑 | 曾宪天
当人们把2023年看作是AI元年时,2024年的目光自然地聚拢在了AI运用的落地上。然而,在商业化之前,AI已经变成了某些灰色家当的敛财工具。
莫名其妙的电话、激情亲切的异国美女、谣言、诱骗……在你无意识的时候,AI骗局就已经来到你身边。PConline网络整理了四大AI新骗局,来看看你最“眼熟”哪一个?
骗局一:语音求救常见范围:微信、电话目标人群:覆盖所有,个中家长居多
面对陌生的号码你可能会直接挂掉,但是如果是家人打来的“求救电话”呢?
根据中国新闻网的宣布,去年11月,王欣的母亲溘然接到一通“王欣”打来的电话,声称自己被绑架,让母亲转账30万元,否则“后果自大!
”焦急的王欣母亲立马就打算给对方转钱,被同事拦了下来。同事建议先给王欣打电话,确认情形。结果,真实的王欣正在睡午觉,啥事也没。而那通“求救电话”便是骗子利用王欣的AI克隆声音制作的。
近几年,AI语音合成技能有了显著的发展,一些C真个运用也逐渐成熟。像Voice AI、剪映等运用中都供应天生AI克隆音色的功能。只要念两个例句,大家都能轻松天生自己的AI音色。不仅如此,现在的技能已经可以在担保声音的高保真度的同时,仿照你的音色,乃至细致到你说话时的口音、重音、换气的节奏等等,完备可以知足实时的互动需求。
先前在网络上爆火的“AI孙燕姿”就曾引得一众谈论。Up主用孙燕姿的AI克隆音色翻唱《发如雪》《Melody》等浩瀚有名歌曲。该视频合集得到了2000多万的播放量。网友们都在惊叹,AI乃至会改变原曲中的部分旋律,依照孙燕姿的曲风特点进行调度,险些能做到以假乱真的水平。同时,网友们也都开始担心,技能一旦被滥用,防诱骗的本钱就更高了。
这样的担心不无道理。据网友分享,自己曾接到过一通莫名其妙的电话。一接通,对方就问“你家在哪”。一头雾水的网友回答“不知道”,径直挂断了电话。然而就在几天后,网友的家人就接到了“网友”的求救电话——骗子仅凭一句话就能天生网友的AI克隆声音,履行诱骗。
如果你认为,耳听为虚,眼见为实。视频信息才能确认身份,那么接下来这个骗局,将会颠覆你的想法,让你惊呼“防不胜防!
”
骗局二:换脸诱骗常见范围:微信、线上会议、FaceTime目标人群:覆盖所有,熟人关系居多、针对女性居多
如今,眼见为实的“铁律”也会面临意外的情形。福州市的郭师长西席就曾由于这条“铁律”狠狠吃了亏。
“安然包头”曾公布一起案例:在去年4月份,郭师长西席的朋友溘然打来微信视频电话,说自己在外地投标,须要430万的担保金,想借郭师长西席公司的账户走一下帐。这位“朋友”随即将钱打到了郭师长西席的账户上,并且截图让郭师长西席确认。虽然还未等来银行的关照信息,但郭师长西席还是先把钱转了过去。结果,跟他视频的,是用AI换了脸的骗子,佯装成郭师长西席的朋友来骗钱。
郭师长西席报警后,还专门表示:“我在视频中确认了面孔和声音,才放松了戒备。”
实在,“眼见为虚”的换脸技能我们早就见过。这种技能名叫Deepfake深度假造,是一种将图片/视频合并叠加到源图片/视频上,天生虚假的个人表情、动作的AI技能。在2023年上映的《流浪地球2》中,便是利用这个技能,将62岁的刘德华还原到我们印象中年轻的华仔样子容貌。
据《流浪地球2》的视觉殊效徐建的分享,在电影中,Deepfake的技能方案是用要更换的目标演员的海量素材演习AI更换拍摄素材的一种办法,相对省时省力省钱。在好莱坞电影制作中,这样的操作很常见。漫威的年轻版钢铁侠和年轻版黑豹都是基于Deepfake和演员年轻时的2D素材演习AI得出的。
但前辈的技能每每是一把双刃剑。落到用心叵测的人手里,就变成了伤人的利刃。
前不久,数百万网友在推特上看到了由AI天生的美国著名女歌手Taylor Swift的不雅观观照。这一组在推特上被查看了4700万次的照片,便是由Deepfake天生的。影响之恶劣,以至于推特直接禁止搜索#Taylor swift#的词条。然而,Taylor并不是第一个受害的女明星。打开某些网站,乃至会有专门的“名人明星”分类,里面充斥着各种AI换脸的女明星。
根据专注于检测Deepfake的情报公司Sensity AI的一份报告,目前网上超过 96%的Deepfake图像都具有色情性子,而且险些所有图像都针对女性。
发布在社交媒体上的照片,可能被别有用心的人拿来“喂”AI。普通人也随时面临着被“开盒”(指网络上公开曝光他人隐私的行为)的风险。根据奇安信集团发布的《2024人工智能安全报告》,“2023年基于AI的深度假造(Deepfake)敲诈暴增了3000%”。
利用换脸技能来招摇诱骗固然恐怖,然而更深的套路是“攻心计”。
骗局三:美女带货常见范围:视频号、抖音、小红书等多家社交媒体平台目标人群:覆盖所有,个中男性居多
一个俄罗斯大美女向你发来视频,说想嫁到中国,你会支持她吗?相信90%的人都会表示支持。
外国人的面孔、些许生硬的中文,再配上浓厚的滤镜,就组成了弘大的异国美女军队。这些“小姐姐”来自环球各地(近两年以俄罗斯居多),#中俄友情#是她们一定会带的视频标签词。在她们发布的视频中,首当其冲的主题便是“想要嫁到中国”。
在这一主题下,“小姐姐们”的视频叙事采纳了丰富多样的角度:
“虽然我是xx国人,但中国是我的家。”
“朋友家人都不理解,但我知道我迟早是中国媳妇。”
“你乐意娶一个不要彩礼的俄罗斯女生吗?”
……
如果你对美女这个赛道不感兴趣,也没紧要。还有认知思维赛道、军事赛道、时势评论赛道等等,各式各样的“外国人”都任你选择。
这便是AI的新套路。视频全部都是由AI合成的假人,再配上机器语音,打着“促进国际友情”的旗号,出售商品。这些“外国人”评论辩论着中国社会的方方面面,评论区收成了许多贴心贴腹的支持。不少粉丝评论留言:“你比中国人还理解中国!
”“为你的中文点赞!
”
纵然视频中,“外国朋侪”把“了(liǎo)解”念成了“le”解,仍能收成10万+的点赞,橱窗中19.9元的杂粮粥仍能卖出30万的惊人销量。
在这背后操刀的是自媒体团队。他们的商业思路十分清晰:先通过视频来积累粉丝——到达一定粉丝量后,开橱窗带货——实现变现。由于制作本钱低,在起号阶段,一人每每能运营数十个账号,视频的脚本也是通用的。无所谓单个账号是否有爆款,“广撒网,多敛鱼”,商品销量才是终极目的。
纵然常有文案“撞车”的情形发生,这类视频还是吸引了大量来自三四线城市的中老年粉丝群体,纷纭为了“国际友情”下单。
如果你认为,这是对下沉市场的招数,你绝不会上当。那么下一个骗局,便是专门针对年轻群体的AI套路。
骗局四:AI知识付费常见范围:微博、抖音、小红书等多家社交媒体平台目标人群:积极学习的年轻群体
“现在不学AI,第一波失落业的便是你!
”“AI事情年薪200万,入门方法免费教你!
”“AI是普通人逆袭的末了机会!
”你一定没少看到这样的标语。
从2022年底,OpenAI发布ChatGPT开始,学习AI就成了新风潮。随着科技巨子们不断推陈出新,各行各业的内容创作者们也铆足了劲,在自己的账号、社群中发布越来越多的AI课程——“零根本学AI”“AI绘画教程”,乃至还有“教你如何做AI课程”的课程。
但大水漫灌的结果,一定是泥沙俱下。
不少年轻粉丝奔着学习新知识去,却领了“吃一堑,不长智”的教训。许多内容创作者利用信息差,将国外免费开放的官方AI传授教化翻译过来,就成了自己的课件,美美卖课。像许多“零根本AI”课程中常见的“prompt利用技巧”,实在是来自OpenAI官网发布的传授教化内容。这些标价199、299元的课程还赠予了“免费AI体验”。但实际上,是本就免费开放的大模型,再加上一个套壳包装罢了。
一些粗制滥造的AI课程丝毫不影响这个市场的火热程度。不少焦虑的年轻人仍在直播间猖獗下单。在抖音,一个4万粉丝的博主,近800元的AI录播课竟有2000+人学习,这意味着,单课程发卖额至少160万元。
这些授课人便是通过传播焦虑的办法来促进课件的下单量。一欠妥心你就会成为“韭菜园里最靓的一棵”。
写在末了
上面四种AI骗局,你被哪个绊住了脚?
实在,现在互联网上的AI骗局远不止这些。网络安全公司Fortinet发布的《2024环球安全威胁预测》中提到,AI已经成为“头号关注”。假视频被频繁用于传播谣言,一张朋友圈照片也有可能被拿去换脸。有些人借着AI技能的发展,炮制了一个又一个新骗局。不明原形的我们,一欠妥心就会走入这“量身定制”的套路。
虽然关于AI的法制监管都在积极的推进中,但政策只是保护的一方面。另一方面还在于我们自身。擦亮眼睛、谨严思考,才是我们面对骗局的有效出路。
本篇文章中的案例均为真实事宜,化名。