AI鉴渣女是对某个群体大略粗暴的污名化。

最近,程序员@将影象深埋在微博上宣告其完成了一个项目:将色情网站上的公开视频和图片打标签后做匹配,以实现所谓“以图搜片”。
查询者可通过上传女性照片、视频和数据库做匹配,判断该女性是否疑似从事过色情行业。

据称,该程序借助100多TB的数据,已“在环球范围内成功识别了10多万名疑似从事色情行业的女性”。
开拓者@将影象深埋称此是为了鉴别“渣女”,避免诚笃又多金的程序员群体成为“接盘侠”。
有“热心网友”乃至给这款产品起名为“体谅宝”。

不过,迫于舆论压力,开拓者已删除了全体项目和数据库,并因辞吐不当向公众年夜众道歉。
但其引致的辩论却没有结束。

AI鉴渣女别用技能施行隐私伤害

大家皆有窥私生理,尤其涉及两性关系,那些耳鬓厮磨的情话,都是最为私密的部分。
这位程序员却将此作为公开数据进行渣女剖析与鉴定,还想公之于众,这到底和女性是有什么仇怨,难道正如其网名所言,有多少影象想深埋?

开拓者号称其数据来自1024等网站,但就算是在这些网站上高清露脸不打码的姑娘就要被公开示众?

不论是数年前震荡喷鼻香港演艺圈的艳照门事宜,还是今年差点掀翻韩国娱乐圈的“胜利事宜”,疯传的不雅观观视频受害者均为女性。
而此前宣布,一对以结婚为目的的年轻情侣,每次枕席之欢都被男方偷录,后来不欢而散时,男方竟将其性爱视频全网张贴。
如此各类“渣男”行为,难道不更值得曝光?

大概有人会说,这位程序员的初衷还是好的,但不论是将程序员作为高频被出轨工具,还是将全职妈妈认定为昼颜人妻,都是对某个群体大略粗暴的污名化。

这款程序或许已经删除数据,恐怕更该当删除的,是在技能粉饰下对个人隐私无休止的侵害,是利用科技“扒坟掘墓”挖他人黑料的窥私欲。

□白晶晶(媒体人)