分享

老实人保护计划,了解一下

 老鄧子 2019-06-12

今天聊个有趣且严肃的话题。

说是有一个程序员,开发了一套AI系统,只要在APP中上传一张女生的照片,程序就可以自动将这个女生的样貌与成人网站中女生的照片进行比对,辨别出她是否曾是性工作者。

程序员还给他起了一个非常到位的名字《老实人保护计划》。一秒识别渣女,拒绝戴绿帽!

那么问题来了,为什么程序员要开发这一款APP呢?事情的起因是这样的:一直以来,一些性工作者或渣女、渣男,在风流多年,玩腻了之后,便会伪装成普通人,最后找个老实人嫁(娶)了。这里的老实人,也被称作接盘侠。

据说程序员就是他们最心仪的接盘侠。在人们印象中,穿着格子衬衫的程序员,成天只知敲代码,两耳不闻窗外事,心思单纯,不容易发觉别人的伪装。关键,程序员挣得还多。

那么,程序员们自然不会坐以待毙。麻痹怎么办呢,只有奋起反抗自我保护了。有道是,老实人要是被逼急了,什么事都干得出来。

这款软件最初的名字叫,原谅宝(爱她就要原谅她的过去)准备做原谅宝的人,是一个身在德国的程序员。

去年8月,他就透露出他的计划,理由是:鉴于很多人都在说程序员是各种退休小姐姐的接盘侠,自己作为一位资深程序员,实在看不下去这种言论,所以要做点事情,为各位同行的码农朋友找对象做一个初步过滤。

这位程序员说干就干,经过半年不懈的努力,搜集100多TB数据,利用1024、91、sex8、PornHub、xvideos 等网站采集的数据对比Facebook、instagram、TikTok 、抖音、微博等社交媒体。根据他的描述,在全球范围内成功识别了10多万从事不可描述行业的小姐姐。

他是怎么做到的呢?

原来他将色情网站上的公开视频和图片打标签后做匹配,以实现所谓“以图搜片”,查询者可以通过上传女性照片、视频和数据库做匹配,判断该女性是否疑似从事过色情行业。

他还宣称,该APP对视频的识别率,达到 99%;而对于声音语气模仿采用声纹检测对抗,识别率达到 100%。

尽管他吹嘘的如此牛掰,那么,让我们来分析一下,这个软件到底靠不靠谱?

首先就是合法性的问题。

根据我国的《网络安全法》,未经本人同意在社交网络收集个人信息,本身就是一种非法行为。如果有中国用户使用这个系统,开发者就会面临违反《网络安全法》的风险。简而言之,《老实人保护计划》并不合法。

其次是合理性的问题。

谁都知道,现实生活没有非黑即白。不是你拍了视频就是渣,而从没拍过的人就冰清玉洁。人工智能再智能,也没法仅靠一段视频,就还原当时的来龙去脉。哪怕是完整的视频,但拍摄的原因,上传的原因,外人可能永远也无从得知。

换句话来说,他对标的成人网站搜集的数据库。稍微大脑在线的人一想就会明白,这根本就是扯淡。因为,一般出现在成人视频网站上的人,不外乎以下几种情况。

第一,情侣间的情趣活动,伴侣自己上传到了网站。

第二,被偷拍。这种情况太多了。

第三,被威胁。如“裸贷”“裸条”等

第三,被犯罪。很多女性被不法分子下迷奸药,在毫不知情的情况下被偷拍、强奸的视频,在成人视频网站上并不少见,甚至还可能成为卖点。

因此,很多女性是以受害者的身份出现在这些视频里的。视频的再次传播对她们而言,无疑是二次伤害。老实人保护计划明明什么情况都搞不明白,却要掌握生杀大权,毁人一生。

那名程序员声称老实人保护计划对视频和声纹的识别率,分别高达99%和100%。

这个数据怎么来的?他如何测试,测试了多少样本,全是未知数。总之,在这一切的数据都不可信的前提下,老实人保护计划的AI辨渣女,根本就是天方夜谭。

其实,任何事情都怕深究,一旦你认真起来,所有的真相就会不辨自明。

如今,我们已经迈进5G时代,总有这样的人,让我们在生活中一次次感受一个浅显又深刻的道理:科技是把双刃剑。难怪马化腾提出科技向善这个概念,细思极恐啊。

洗洗睡吧,晚安。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多