分享

腾讯“鉴黄师”:系统识别率超95%,还支持“娇喘识别”

 恰恰365 2020-01-22

1 月 20 日消息 今天腾讯公众号发文《我是一名 ' 鉴黄师 ',但和你想的不一样》,介绍了腾讯安全部门内容风控天御团队一名研发负责人 Fay 的故事。

不少人可能对 ' 鉴黄师 ' 有种特别的好奇和想象,不少人会认为,Fay 的日常工作,就是盯着若干块 ' 花花绿绿 ' 的屏幕,一看一天。长期下来会不会心理扭曲?实际上并非如此。

' 传统鉴黄师靠的是肉眼,而我们更依赖技术。'Fay 说,虽然两者工作内容有交叉,但本质是有区别的。

2015 年,Fay 加入腾讯,在网络安全中心做基础平台研发。第二年因为直播乱象横生,一个 10 人的 ' 鉴黄师 ' 团队成立了,主攻审核系统研发。

为了训练 AI,Fay 和同事每周会抽检 5 万条数据,包括图片、音频、文本,进行人工审核,筛出不良内容、标注违规类型。这部分被标注的样本,将送给 AI 模型学习训练,理解其共同特征,在后续判定中 ' 智能 ' 识别不良内容。

' 现在系统的识别率达已经提升 95% 以上。'Fay 认为,相比 ' 鉴黄师 ',自己的工作,更像是 AI 人工智能的训练师。

' 色情、血腥、暴恐图片,很容易被识别,而有一些则隐藏很深,试图绕过 AI。'Fay 举例,有些音频场景,前半段很正常,' 中间突然出现女人娇喘声。' 有一些甚至是男的。

随后,技术团队开发出了 ' 娇喘识别 ' 系统,对音频场景中的违规内容进行清理。但仍需要不断推动算法模型的调优和升级,比如在嘈杂背景识别声音违规等。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多