作者 | 阿虎

编辑 | 张洁

校正 | 卷毛

快问快答!
下面哪一张图是AI天生的?

AI还没玩明白反AI对象已经来了

先卖个关子,结尾公布答案。

如今,由AI天生的内容逐渐充斥我们的生活,随着AI技能的迭代,更是让人感到真假难辨。

今年6月,欧盟司法机构Europol的一份报告显示,到2026年,互联网上约90%的内容或由AI产生或者编辑。

为了提高内容的透明度和可信度,国内外各平台陆续上线内容创作者声明功能,给AI内容打“标签”。

9月20日,短视频平台TikTok全面启动平台AIGC内容的监管,推出了“标记AI天生内容”的新功能。
如果创作者未标记涉及的AI工具,内容可能会被删除。

9月13日,B站发布《关于“主动添加内容标识”的公告》称,将在9月20日上线“创作者声明”功能,许可UP主为其视频添加标识,比如人工智能天生、虚构内容等。

9月8日,微信发布关于规范“自媒体”创作者内容标注的公告,哀求“自媒体”创作者应主动对发布内容进行规范标注。
利用深度合成技能天生内容时,要遵守法律法规及平台规则,显著标注内容为技能天生。

图片来源:微信珊瑚安全公众年夜众号

更早一些,今年5月,抖音、小红书等平台均哀求创作者在人工智能天生的内容上显著标注,根据实际情形勾选“内容由AI天生”。
抖音发布了《关于人工智能天生内容标识的水印与元数据规范》关照,帮助用户区分虚拟内容和真实内容。

各平台对付AI天生的内容都须要进行明确的声明,无疑为内容添加了一层水印保护。

那么,为什么我们须要数字水印?AI水印该如何添加?AI泛滥的时期,或许终极还是须要科技来供应可行解法。

DeepFake造假泛滥,难辨真伪

深度假造(DeepFake)指的是一种基于人工智能合成某个人的长相或声音的技能,名人和公众年夜世人物常日是此类造假行为的受害者,比如此前的AI孙燕姿以及“时尚教皇”。

教皇穿着巴黎世家风格羽绒服,走在街道上;AI天生的虚假图像

最近,一系列利用深度假造技能制作的虚假视频在TikTok、YouTube等主流社交媒体平台上引起关注。

这些虚假视频每每由大众熟习的人物合成,例如环球首富马斯克在视频中推举自己看好的投资机会,让人难以判断其真实性。

AI不只被用来恶搞名人明星,娱乐大众,也被拿来捏造国际新闻大事,撼动股价。

5月尾,一张五角大楼着火的照片在社交平台上疯传,这张图片一度导致标普500指数明显走低,由涨转跌。
末了,有媒体宣布称该图片是由人工智能天生的。

而在互联网时期,险些每个人都可能成为AI的受害者。
(干系阅读《你的自拍照可能被收入“不雅观观图素材库”,AI作歹实在离你很近!
》)

某有名AI文生图的网站平台许可用户进行高度自定义创作模型,天生多种风格的图像,当然也包括天生一些擦边向的内容。

这些模型大多数情形下都未经当事人的赞许,在互联网上擅自抓取照片,进行模型演习,天生特定风格、乃至软色情的人物图片,以博取下载量和关注。

今年7月,德国广告代理商DDB发布了一则关于社交平台儿童数据安全的公益广告,向人们展示儿童面部数据有多大可能会被用于创作成人内容,呼吁家长只管即便少在网上分享儿童照片。

在早期,识别深度假造技能并不具有寻衅性,由于它们大多数都存在着明显的毛病,例如不自然的面部表情或眼睛不眨眼。
但随着韶光的推移,深度假造技能逐渐肃清了毛病,使造假更加靠近现实,达到“无中生有”的效果。

除了AI天生图像,让人分不清真假之外,在音视频领域的假造技能则更为泛滥。

比如近日,浙江警方侦破一起造谣牟利案,作案团伙利用AI天生1.8万余个虚假视频后发布,造孽获利4万余元。

此前发生了一系列的AI诱骗事宜,由于诱骗金额过大,速率之快,也引起了不少谈论。
安徽有受骗者接到“朋友”在开会的视频,9秒被骗245万;包头有人被换脸和拟声的亲友迷惑,10分钟内被骗430万。

可见,DeepFake技能已经深入多模态的各个方面,而水印的添加可以在“真假”、“虚实”之间构筑起一道樊篱,以防稠浊视听。

AI水印,该怎么加?

无论教皇是否真的变装走在了大街上,还是听到的歌曲并非孙燕姿演唱,我们都须要知道内容是否被AI修改过或者压根由AI天生的。

7月27日,Open AI团队悄然下线了自己推出的“AI天生内容识别器”,情由是该识别器对AI天生内容的检出成功率仅为26%,AI检测工具准确率已经无法知足实际操作中的需求。

在这个背景下,数字水印成为了平台和工具供应方同等认为可行有效的办理方法。

它是一种隐蔽在数字内容中的分外标识信息,用于标识内容的来源和真伪,类似于隐形的“防伪标记”,例如在文章中隐秘添加“由AI天生”的笔墨样式。

起初,国外创意平台Shutterstock最先宣告用C2PA协议(类似区块链的加密技能)为AI天生内容打上标签,用来区分是否为人类创作。

C2PA通过数据加密技能给每个像素进行编码,以便之后查看创作源头、历史修正记录等等,让作品可以溯源,降落天生式人工智能导致的“误传内容”。

这便是数字水印最初的表现形式,微软、Adobe、索尼等科技企业都将其集成在了自己旗下的产品中,为AI天生内容打上水印标记。

8月31日,谷歌上线了一个名为Synth ID的新工具,能够在AI天生内容中嵌入肉眼不可见的水印,并且不会影响图像本身的质量和体验。

谷歌DeepMind CEO Demis Hassabis表示,SynthID是为理解决深度假造潜藏的危急而开拓的,同样可以运用在音频、视频、文本等其他形式的AI天生内容上。

SynthID目前仅为谷歌文生图工具Imagen天生的图片添加水印,并且识别图片是否为该模型天生。

改变亮度、颜色、噪点等信息元素,水印依旧存在

该工具供应了三个程度级别来阐明水印识别的结果。
如果检测到数字水印,则图像的一部分可能是由谷歌绘图工具Imagen天生的。
和传统水印不同的是,纵然图像被裁剪、编辑、或者旋转,水印依然可以被检测到。

SynthID中水印检测的不同结果

SynthID不仅能够为图片添加防伪标记,同样也能够识别图片的真假,一定程度上提升AI产品的安全性。

同样,8月21日,商汤科技推出可信AI根本举动步伐SenseTrust,上线数字水印技能,并将其做事于旗下的“商汤秒画”等产品中。

详细运用上,用户可在AIGC干系产品发布时加入,并且只有通过特定的解码器和专属密钥才能提取,能够支持多模态数据。

不过除了暗藏的数字水印之外,商汤秒画同样在AI天生图片上加入了传统的显性水印。

除了给图像内容添加标记外,有研究团队正在为AI天生笔墨工具开拓水印版本。

此前,马里兰大学研究职员揭橥了一篇《A watermark for Large Language Models》的研究论文,详细描述了如何给文本内容加上数字水印。
Open AI 系统安全性部门卖力人Jan Leike在接管采访时曾表示,Open AI正在探索的水印方法就类似于此种。

图片来源:论文《A watermark for Large Language Models》

这个方法的大概意思是,在天生的句子中增加一些特定单词涌现的概率,就可以给句子添加一个“数字水印”,方便检测句子是否由AI天生。
值得一提的是,这种办法的“水印”只有从一开始嵌入到大措辞模型才有效。

比如,研究职员让ChatGPT天生句子“本日的景象很好,小明在_____”,为了给它加上水印,须要先随机选择一部分单词,像“公园”、“学校”、“景象”作为系统偏好词表。

有水印的版本是“本日的景象非常好,小明在公园打网球”,而无水印版本可能是“本日的景象很好,小明准备去打网球”。

天生的句子对付普通人来说看起来没有差异,但通过统计句子中涌现的偏好词汇的数量,就可以检测出这个句子是否被加上了数字水印。
当偏好词汇的数值高于一定比例,水印检测器可以剖断文本由AI天生。

当然,以上的例子只是根据事理做的大略仿照,实际论文中的系统天生词表更为繁芜。

在图像中轻微改变某些像素的颜色来嵌入信息,或是在笔墨内容中改变个别单词涌现的频率来插入信息,都是数字水印的添加办法,并且这样的隐蔽水印由AI在输出时自行添加,用户难以察觉。

除了平台为AI天生内容自动添加水印,来担保天生内容的安全性外,内容创作者还会利用水印来对抗AI复制技能的运用。

今年4月,上海交通大学研究团队上线“Mist”开源工具,通过在图像上放入看不见的“水印”,使图像无法识别,防止AI进行学习和模拟。

它能够对图像进行“噪声处理”,使得图像天生工具的算法难以辨认原始图片的特点,从而难以天生与原图风格类似的新图片。

比如,原图是莫奈的《撑伞的女人》,图二是给AI喂图后天生的AI版本。
如果我们对原图加入Mist数字水印,那么AI处理的图片效果就会如第四张图片一样平常。
这样就能避免创作者作品被拿去随意天生类似图像。

用户也可以根据实际需求对水印进行设置和调度。
在设置水印信息时,须要确保信息的唯一性,以确保水印的有效性。

社交平台上有很多创作者表示,“乐意上传图片,不代表乐意将作品献祭给AI”。

B站UP主“虚幻的生物”分享了开源软件Glaze,教网友如何防止AI“白嫖”自己的作品。
UP主“-边火-”投稿了一条“赛博偏方加噪点加水印,是否能躲过AI识别”视频,评论区“卷”起了添加AI防伪标识的办法。

打标记能防止AI“滥用”吗

在天生式AI带来的寻衅下,中国、美国、英国等各国政府都积极推出AI管理规范,不过,目前在以下五个国家或地区中,仅欧盟和中国对付天生内容AI水印等标识提出了哀求。

6月14日,欧盟正式批准通过《人工智能法案》草案,哀求AI天生的内容该当被标注,旨在提高对AI天生内容的透明度。
目前,该法案尚未正式生效。

8月15日,我国落地生效的《天生式人工智能做事管理暂行办法》,针对天生内容的准确和可靠性提出了新哀求,做事供应者须要采纳相应的技能和管理方法,以确保天生的内容符合事实,并且能够供应透明的信息来源。

对付谷歌、Adobe、微软等科技公司和平台来说,AI天生内容引发的假和假新闻的传播,相应平台须要承担起监管不当的任务。

如果一张图片显示有数字水印,那么平台可以相应地打上标记“内容由AI天生,谨慎甄别”,以便网友能够更随意马虎地将其识别为虚假内容,一定程度上降落其传播的速率。

其余,对付内容创作者来说,打上数字水印,意味着将内容版权声明为自己所有,防止被AI随意拿去演习模型。

无论是创作者声明或是隐形水印标记,都正在树立起一道保护知识版权和内容安全的数字防线。

然而,就像Open AI CEO Sam Altman所说,不存在一个完美的AI天生辨别工具。
目前,这些标记AI天生内容的新工具仍处于起步阶段,并未完备面向"大众年夜众开放。

另一方面,并非所有AI天生工具都乐意给自己的内容打上AI水印。
如何在水印的履行标准上达成共识,对付人工智能领域的企业来说还是个未知数。

不过,这些水印标识至少能够帮助降落虚假信息出身的风险,实现对内容的溯源和确认版权。

回到最初的两张图,不知道各位猜对了吗?左图是AI天生的,右图是真实拍摄的。