9月14日,国家互联网信息办公室发布《人工智能天生合成内容标识办法(搜聚见地稿)》,《搜聚见地稿》拟规定,做事供应者供应的天生合成做事,包括文本、音频、图片、视频、虚拟场景等,均应适当位置添加显著的提示标识;做事供应者供应天生合成内容下载、复制、导出等办法时,应该确保文件中含有知足哀求的显式标识。
这一规定,非常具有现实针对性、必要性。近年来,人工智能深度合成技能已在多个领域大量运用,从图文、视频天生到在线问答,各种运用更是层出不穷。毫无疑问,AI工具能让我们的内容生产、知识传播事半功倍,而且随着AI的学习能力越来越强,未来其内容“生产”能力乃至会超过人类。
但另一方面,深度合成内容的效果更加逼真、制作更加高效,也让合成内容达到了“真假难辨”的程度。当真假交融难辨,眼见不再为实,人工智能技能就像一柄双刃剑,也会给社会带来信息失落真、认知混乱等问题。
2022年11月,国家网信办出台《互联网信息做事深度合成管理规定》,对深度合成内容的用场、标记、利用范围以及滥用途罚作出了详细规定。这次《搜聚见地稿》进一步明确,不管是文本、音频、图片还是视频,都必须“在适当位置添加显著的提示标识”。这是对做事供应者的明确哀求:只假如AI工具天生的,无论是一篇文章还是一张图片,都须要添加显著标识。
这实在也是在提醒受众,网络信息鱼龙殽杂,你看到“底细”文章、“劲爆”图片或“震荡”视频时,首先要把稳是不是AI天生的,是不是该当采信,如何去辨别,一定要多加个心眼。
值得把稳的是,随着技能逐步“平民化”,不法分子可轻易利用AI造谣、生产虚假新闻。就在不久前,有媒体起底了一个MCN机构,可以利用AI每天天生4000-7000篇谣言文章,这些文章由于AI技能的加持,看上去非常“真实合理”,那些不熟习互联网技能的受众,看到此类“有图有原形”的信息内容,很随意马虎信以为真。
有媒体调查,利用一个国产AI,一篇AI文章的本钱只要0.00138元,1分钱就可以天生7篇文章。如此“无本万利”,很随意马虎被不法分子利用,“地铁行凶”“西安突发爆炸”“重庆巫溪一民房发生爆炸事件”等虚假图片、视频都曾产生恶劣的社会影响,背后实在便是AI批量制造的谣言。
标识人工智能天生合成内容,从技能上来说并不难实现。有专家就建议,平台完备可以接入AI内容天生平台的大模型系统,实时进行数据识别比拟,然后附加不可删除的数字水印,或者“此图片/视频为AI合成”等笔墨解释。
这次《搜聚见地稿》强调,“任何组织和个人不得恶意删除、修改、假造、隐匿本办法规定的天生合成内容标识”,便是在提醒AI做事供应者和平台,绝不能由于享受了AI工具带来的“流量红利”,就采纳睁一只眼、闭一只眼的姑息态度。豁亮清明的网络空间,绝不能让AI内容鱼目混珠,模糊了真实的边界;如果有信息被甄别为谣言,平台更该当急速进行标注、清理。
人工智能天生合成的能力超出了传统的认知,也让我们意识到:很多网络文章看上去很“科学”,很多网络视频看上去特殊“真实”,未必一定就可靠,先别急着相信。不妨先找一找,内容的贵显位置,到底有没有“此图片/视频为AI合成”的标识?