最近,程序员@将记忆深埋在微博上宣布,他完成了在半年前开始准备的一个项目:将色情网站上的公开视频和图片打标签后做匹配,以实现所谓“以图搜片”。
查询者可以通过上传女性照片、视频和数据库做匹配,判断该女性是否疑似从事过色情行业。
据称,该程序借助100多tb的数据,已经“在全球范围内成功识别了 10 多万名疑似从事色情行业的女性”。同时,这款程序还可以对美颜、deepfakes 换脸等有效对抗,识别率达到99%;而对于声音语气模仿采用声纹检测对抗,识别率达到 100%。
之所以开发这款程序,@将记忆深埋称是为了鉴别“渣女”,避免老实又多金的程序员群体成为“接盘侠”。有“热心网友”甚至给这款产品起了个名字,叫“原谅宝”。
ai鉴“渣女”?脑洞开得有点大。
不过,迫于舆论压力,开发者已经删除了整个项目和数据库,并因言论不当向公众道歉。但因这款产品引致的争论却没有结束。
一、手中握有锤子的人,看谁都像钉子
1993年,彼得·施泰纳在《纽约客》上画了一幅漫画——在互联网上没人知道你是一条狗。20多年过去了,互联网上不仅人人知道你是谁,甚至连你和谁干了什么都知道。
港真,假如这个被网友戏称为“原谅宝”的项目真的上线,你想用来“原谅谁”?
是公司新来穿迷你超短裙的95后辣妹,是身材超正看上去有点假正经的80后女上司?还是先确定下,自己是不是“接盘侠”,头上有没有长出一片绿油油的大草原?
“单身汪”忙着替人“鉴婊”,已婚的忙着帮人捉奸,离异的忙着重新翻篇。真要上线了这种数据库,可能一些恋人真要人仰马翻;不仅大概率上演伦理剧,一不留神还可能转为刑侦剧。
人人皆有窥探隐私的心理,尤其涉及两性关系之时,那些耳鬓厮磨、听得让人脸颊潮红的情话,都是最为私密的部分。
这位程序员选择将他人的男欢女爱这种人类隐私的底线作为公开数据进行分析,还想公之于众,识别鉴定渣女,这到底和女性是有什么仇什么怨,难道正如其网名所言,有多少记忆想深埋?
手中握有锤子的人,看谁都像钉子。
二、女性是不雅视频的受害者,而非欺负老实人的“渣女”
该网友号称数据来源于1024、91等网站,这些网站到底是啥,咱也不知道咱也不敢问,咱也没登录过。
不过,就算在这些网站上高清露脸不打码的姑娘,就真得被公开示众吗?
现在就连偷拍女性裙底,都成为网络黑灰产业链了,在名为“街拍某站”“美某街拍”“八某街拍”的论坛网站充斥着偷拍照片或视频的帖子。
这些网站实行会员制,这意味着必须缴纳会员费才可获得下载视频的链接。作为一名直女,我实在无法想象裙底有什么风光,为何都会成为部分心理变态男性的yy对象。
迫于压力,这名程序员删掉了数据。
更别提在性爱过程中拍摄的小视频了。很多视频,明明应该是两个人,最后出镜的却只有女性。
不论是被偷拍还是自愿配合拍摄的女性,拍摄时都是出于对对方的信任,但事实证明很多时候,她们都要为这样的信任买单——而且成本还极其高昂。不少“渣男”拍摄两性私密视频,不过是将其作为炫耀自己性能力的资本。
不论是数年前震惊香港演艺圈的艳照门事件,还是今年差点掀翻韩国娱乐圈的“胜利事件”,疯传的不雅视频的受害者均为女性。
原因在于,从男女差异来看,女性群体较少观看色情视频,男性群体则是这一领域消费的主力。
三、更该删除的是打着科技旗号的“窥私欲”
此前看到一条新闻,有一对年轻情侣,双方都是奔着结婚的目的相处的,没想到每次床笫之欢都被男方偷偷安置的摄像头拍了下来,后来,双方不欢而散,男方竟然将两人性爱的视频全网张贴。
这种“渣男”行径,难道不更值得曝光,为世人所知?
ai“换脸”,细思恐极。图为当朱茵演的黄蓉换上了杨幂的脸。
说到“渣男”,还有专门出售性爱视频牟利的。在2018年的净网行动中,披着网红外衣的某色情网站大神就被丽江警方抓获。其通过约会不同女性,对性爱过程进行偷拍,并将视频以300元一部的价格出售,受害女性达300余人,涉案价值超过500万元。
也许有人会说,@将记忆深埋这位程序员小哥哥的初衷是好的,是在为码农谋幸福。避免让那些身体被工作掏空的程序员,再当“渣女”的接盘侠。
但这种论调,也是以偏概全。不论是将程序员作为高频被出轨对象,还是将全职妈妈认定为昼颜人妻,都是对某个群体简单粗暴的污名化。
就两性关系,尤其是夫妻关系而言,真正维系双方的应该是平等尊重、互爱互信,而绝不是对对方以往性生活的外科手术式检视。
都9102年了,还有人举着荡妇羞辱的大棒物化女性。也难怪“原谅宝”软件还没能上线,开发这款程序的小哥哥,自己就先成了最不能被原谅的那个人。
这款程序的开发者已经宣布删除所有数据,恐怕更应该删除的,是在技术掩盖下对个人隐私无休止的侵害,是利用科技“扒坟掘墓”挖他人黑料的窥私欲。
□ 白晶晶(媒体人)
编辑 王言虎 校对 李项玲