1 月 20 日消息 今天腾讯公众号发文《我是一名 ' 鉴黄师 ',但和你想的不一样》,介绍了腾讯安全部门内容风控天御团队一名研发负责人 Fay 的故事。 ![]() 不少人可能对 ' 鉴黄师 ' 有种特别的好奇和想象,不少人会认为,Fay 的日常工作,就是盯着若干块 ' 花花绿绿 ' 的屏幕,一看一天。长期下来会不会心理扭曲?实际上并非如此。 ' 传统鉴黄师靠的是肉眼,而我们更依赖技术。'Fay 说,虽然两者工作内容有交叉,但本质是有区别的。 2015 年,Fay 加入腾讯,在网络安全中心做基础平台研发。第二年因为直播乱象横生,一个 10 人的 ' 鉴黄师 ' 团队成立了,主攻审核系统研发。 为了训练 AI,Fay 和同事每周会抽检 5 万条数据,包括图片、音频、文本,进行人工审核,筛出不良内容、标注违规类型。这部分被标注的样本,将送给 AI 模型学习训练,理解其共同特征,在后续判定中 ' 智能 ' 识别不良内容。 ' 现在系统的识别率达已经提升 95% 以上。'Fay 认为,相比 ' 鉴黄师 ',自己的工作,更像是 AI 人工智能的训练师。 ' 色情、血腥、暴恐图片,很容易被识别,而有一些则隐藏很深,试图绕过 AI。'Fay 举例,有些音频场景,前半段很正常,' 中间突然出现女人娇喘声。' 有一些甚至是男的。 随后,技术团队开发出了 ' 娇喘识别 ' 系统,对音频场景中的违规内容进行清理。但仍需要不断推动算法模型的调优和升级,比如在嘈杂背景识别声音违规等。 |
|