用户苦AI造假甚矣。熟人打电话、视频乞助,年夜方解囊后却得知对方是“AI骗子”;类似“弱势群体受到不公道对待”这样似是而非的铺天盖地,有人信以为真、仗义执言,却获知是AI“逗你玩”;有名主持人朗读美文、名家拍照师捕捉瞬间、网络公号刊发惊人不雅观点,很多要么是AI陵犯肖像权、要么陵犯著作权。很多老人不熟习AI、看不透AI,屡屡被“障眼法”蒙蔽,被骗了钱还骗了感情。
AI造假的危害,不仅在分布谣言、扰乱社会秩序,不仅在助长诱骗、陵犯用户的合法权柄,更在“眼见不一定为实”让真实变得更加稀缺,稀释了社会上难能名贵的信赖感。
为帮用户识别真假,2023年起履行的《互联网信息深度合成管理规定》中明确,深度合成做事者供应可能导致"大众稠浊或者误认的深度合成做事时,应该供应显著标识功能。在此根本上,这次见地稿对AI“专属水印”的哀求更加细致,不仅规定文本、音频、图片、视频、虚拟场景中,提示用户的显式标识应涌现的位置,还指出生成AI合成内容的文件元数据,应添加隐式标识,以记录文件的来源、属性、用场、版权等关键信息。这意味着今后AI天生内容一旦造假,溯源将更加清晰。
过去,AI标识最大的困境在于,用的人不主动标、传播的平台不主动管,一失事就扯皮,相互推诿。这次见地稿的另一个亮点便是,干系主体的任务和责任更加明确,AI做事供应者、运用商店、平台网站、用户、主管部门均为任务主体,覆盖AI全生命周期。“违反本办法规定,未对天生合成内容进行标识造成严重后果的,由网信等有关主管部门按照有关法律、行政法规、部门规章的规定予以惩罚。”各担其责、各守一摊,为的便是共同确保AI天生合成内容的真实性,掩护好豁亮清明的网络环境。
也有网友担心,AI“专属水印”在实行中可能走样。比如,用户恶意剪切“专属水印”,平台监测不到,该如何戒备;AI天生合成内容,一半来自机器一半来自人工,需不须要标识;平台、运用商店等没有尽到标识责任,该如何及时提醒,等等。但无论如何,推出“专属水印”,便是迈出了戒备天生式人工智能运用风险的第一步,为打击“换脸”等AI诱骗行为供应了有力武器。
谁不打“专属水印”,法律的板子就要打向谁。
来源 北京 | 演习 李霞
流程编辑 马晓双