【黑话连篇】 该栏目更多的是揭露事件或对事件的看法,以达到让人精神得到升华的目的。 最近互联网上最流行的一个词语是:“老实人” 。 虽然他杀女性砍女性猥亵性侵女性,但他是个老实人。 我们还要保护这些老实人,启动老实人保护计划,于是就有了 “原谅宝”。 1 文/may 原谅宝,迎合部分男性的绿帽焦虑,以一键检测是否为接盘侠为噱头,结合人脸定位、智能模拟、数据对比功能,为你呈现接盘报告。 我上传自己的证件照试了一下,得分94%,也就是说值得原谅。 原谅宝这东西有多恶臭就不说了,关键是这个产品经理有多傻逼。显示结果不直接用是/不是,还显示分数。 情侣吵架,为啥别人98,你才94?90分,这跟89有什么区别? 从匹配指数区域可以看出,原谅宝就是把你上传的照片与91porn 、x-video 、1024 这些色情视频网站上的数据进行比对。同时,为了防止漏网之鱼,还要加上探探、陌陌这类社交软件。 意思大概就是,就算你没拍过小黄片,万一你做过援交呢!很是有着一股不能证明你是个 bitch 就算我输的执着。 国产色情视频因为偷拍产业的蓬勃发展,也大有赶日超欧美之势,不管质量如何,该类偷拍视频以真实性强,代入感足,可以用心感受发生在身边的故事为卖点,数量和观看人数上都已经成功坐稳了头把交椅。 91porn 正是偷拍视频的重灾区。 91porn,国内最大的,脱胎于 Pornhub 的国产情色自拍视频分享网站。该网站以UGC(用户主动输出)为主,现存影片超过7万部,日更新超过50部。 至于1024,91porn称第一,没有别的平台跟它争第二。 在这样的形势下,还有人以查一查你是否被偷拍、隐私是否被侵犯的借口给自己开脱,将91porn 当成对比数据,自己是什么东西自己真不清楚吗? 而最先提出 “原谅宝” 概念的微博用户 “将记忆深埋” 在原谅宝app发布之后立马主动撇清关系。并将原谅宝 App 定位为灰产团队窃取用户个人信息的工具。 也有业内人士出面,对其可行性及准确性提出了质疑。
很可能,广大用户在绿帽焦虑及高科技的噱头下主动交了“智商税”。 当然,不论这个数据精确与否,不管这项技术完善与否,原谅宝这个东西带给我们的思考是:为什么有人觉得自己有权给别人贴上“bitch”的标签? 一旦被贴上这样的标签,你百口莫辩,尽管事实上你也无须自证清白。 但已经有人开始尝试用从原谅宝上得来的数据进行威胁恐吓。 面对这样的色情威胁,又有谁能真正无动于衷?这种恐吓是不需要证据的,张口就来,这个app的存在就是给了他们造谣抹黑你的理由。 随着“技术进步”,不知有多少人会成为所谓 “原谅宝” 的受害者。 2 在某些人心目中,穿的美丽性感 =“你就是在勾引我,让我犯罪”;穿的清纯= “你好欺负,在勾引我犯罪”。只要你性别女,只要你敢出门,只要你发照片(哪怕只是用女性照片当头像),都活该被骚扰。 所以,你都穿成这样到公共场合了,我偷拍你又怎么样呢?你都把照片上传网络了,我拿来测一测你是不是“bitch” 又能怎么样呢? 只要敢想敢干,给你贴上 “ bitch ” 的标签再容易不过了。 比如最近大火的 DeepNude 。 “一键脱衣” 软件,就算是“小白”,只需要上传一张女性照片,系统就能自动脱掉“衣服”,生成一张裸照。 然而,DeepNude 的使用效果却很难保障。 据一位化名 Alberto 的人透露,该应用使用伯克莱大学开放的开源算法pix2pix,并使用生成对抗网络(GANs),以1万张女性裸照训练出来的。 整个过程就是学习过程:输入图片,翻译图片元素,然后自己创造新图片。 为了保证准确度,还要不断通过考试检测是否真正掌握知识点,也就是新图片够不够逼真。 在不断的学习—检测中,技术不断成熟。 样本库训练的还远远不足,几乎只有正面泳装照才能达到正常效果。或者说,裸露的越多,越容易 P 图。如果你换上斥巨资买下的貂,可能最终效果就没有这么好。 而且,因为创始人在一开始就选择用上万张女性照片进行样本训练,软件对男女区别对待,传女不传男。 上传男性照片,得到的是一张带有女性隐私部位的照片。 而据 “量子位”的试验,就算你放上男性,甚至一个海绵宝宝的照片,也会给它“P”个大MM上去。 终于,该软件因各届人士的反对下线。 创始人声称担心用户错误使用该软件。我就不明白了,一个一键脱衣软件,它的正确打开方式是啥? 一边是对女性隐私的热衷,偷拍,一键脱衣;一边是热衷识别裸照来定义淫荡。偷拍照片,偷拍不到的一键脱衣,完了上传原谅宝来个鉴定,全员bitch。 3 事实上,一项更加“完美”的发明是一键换脸。 换脸不再难,就有人想利用这种技术轻松赚钱。 骗子用 AI 换脸技术伪装成王源,通过直播来骗取部分粉丝信任,再通过付费加入内部粉丝群的手段进行骗钱。 在行骗行径被揭穿后,骗子更是在朋友圈发布威胁言论,扬言要利用换脸变声软件制造虚假视频来污蔑王源。 从粉丝们截取的直播截图来看,仅仅换脸可能还不够,身材上的差异,还是能让了解王源的粉丝分辨出来,打假成功。 但如果再想想DeepNude,如果搭配使用,是不是更恐怖了? 但更大的担忧是,当你的照片被拿来做成AV? 有人用机器学习 AI 技术把明星的脸部与色情视频表演者的脸部进行交换,几乎可以达到以假乱真的效果,比如演员 Daisy Ridley、 Gal Gadot、Scarlett Johansson 和 Taylor Swift 等都是这种技术的早期受害者。 简单的换头可以使用 PhotoShop 来实现,但利用AI技术外加声音模拟,视频甚至直播换脸更为致命。 在某知名有色网站,搜索关键词“换脸”,知名女星的小视频比比皆是。
但却很少有平台承担责任,而是打着网友自由上传的旗号,任资源到处传播。 毕竟,网站本身就是黑色产业链上的一端。从拍摄到制作,从兜售到观看,网站是最终的收益者,也有着最无辜的面孔。 那如果你的照片被拿来制作成AV,你又该如何自证清白? 继 “ 如果你当街被陌生人当小三打如何向围观群众证明你们不认识 ” 之后,另一个难题是 “ 如何向围观群众证明那段AV上不是你 ”。 技术本为推动世界向前。 正如微博一位博主所说:“数以万计的研究者在这个领域夜以继日的工作是为了让人类变得更美好,我们的项目组用类似的技术跟踪感染细菌,旁边的项目组用这类技术处理核磁共振的影像,还有新闻报道有人用类似技术识别病变血管,所有的一切都是为了帮助别人,结果你们拿这些技术做这种事???伪造姑娘的“裸”照?识别小电影里的演员???” 技术无罪,科技向善。 |
|