事实上,照片的女主角是小红书的一名博主,而所谓的“裸照”则是她去年7月在平台分享的一张照片。
原图中她衣着正常,完备没有任何欠妥之处,但却被别有用心之人通过AI技能移花接木造黄谣,并刻意在全网分布。
目前当事人已在社交平台表示会进行维权。

用AI“一键脱衣”天生图片,是对女性的公开羞辱和无差别攻击,无异于“高科技作歹”。
一张图片,就可以编出无数的谣言,贬损女性的名誉。
此类图片大量传播会给当事人带来何种恶劣的影响,是不难想象的。

更令人朝气的是,被造黄谣的女性很难自证明净,就像《离骚》里的那句“众不可户说兮”,当事人很难挨家挨户地澄清事实。
何况纵然这么做,还有可能引来更多麻烦。
此类图片对付好事者只是一键天生,但给当事人带来的可能是毁灭性的打击。
因此,对此类科技作歹的行为必须严打。

所谓AI“一键脱衣”,实在早便是被封禁的技能,已成为地下黑产。
问题在于,在互联网上找到类似的替代技能并不难,好事者的获取本钱并不高。

立时评|AI一键脱衣当心黑科技被用于造黄谣

另一方面,由于互联网的信息来源繁芜,想找到当事人也并不随意马虎。
此前,有一位安徽女子在社交媒体上传了订婚照,却被曲解为某推拿会所的“技师”。
后来女子报警,并表示要依法追责,但至今尚未有公开宣布的后续。

这可能正是此类事宜层出不穷的缘故原由——别有用心之人动动手指,就能凭借“前辈”的技能手段在网络上作歹,与之形成光鲜比拟的是,受害者的维权本钱极高,让不少人只能无奈放弃。

据媒体宣布,演员刘昊然也曾遭遇“换脸”后公开打假,向警方报案;前不久,还有人利用视频合成技能,将电视剧中与某有名女星亲吻的男主角换本钱身,引发热议。
可见,不管是普通老百姓还是名人明星,所有人都有可能受到此类地下黑科技的困扰。

在被造黄谣女子的社交平台下,有这样一则留言:“底下评论区小姐姐是保护你,也是为了保护她们自己。
”确实如此,如果任由“科技作歹”泛滥,那么无论性别、职业、年事,每一个人都可能成为下一个受害者。

因此,全社会都应参与到对此类AI黑科技的管理与抵制之中,只有形成协力才能更有效地打击此类“科技作歹”的行为。
干系部门应该加大摸排巡查,封堵技能漏洞;同时各大运用、信息平台,也应该加强对上架运用和类似信息的查删,绝不给这些违规的产品留下生存空间。

当然,最主要的还是揪出始作俑者,只有让作歹之人付出肉眼可见的代价,才能真正起到震慑的效果。
前辈的科技手段给我们的日常生活带来的该当是便捷,而不是令人厌恶的黄谣。