1. 识别率达到85%以上。虽然和专业分词系统相比有一定的差距,但对于中型搜索引擎分词需求而言足够了。 2. 对于前后歧义有较好的识别效果。如, 成都市场报刊 -- 成都 / 市场 / 报刊 中国和服装饰公司 -- 中国 / 和服 / 装饰 / 公司 我的MSN是eunge.liu@gmail.com,有事找我 -- 我 / 的 / MSN / 是 / eunge.liu@gmail.com / 有事 / 找 / 我 3. 标点符号自动过滤,包括ASCII和Unicode标点。 4. 自定义噪音词(不知道怎么翻译这个词StopWords,平时都说英语的,叫噪音词吧),可手动加入噪音词。 5. 内置13万优选的基本词库,已进行加权值整理,并提供编程接口任意扩充。 6. 轻量级的分词组件,仅1个DLL文件,无需安装注册,发布简便。开发更简单,只需要一行代码调用即可。 7.采用优化算法,加载速度非常快,13万的词库加载与分词仅需0.7秒(首次分词时需要加载词库,在我的笔记本迅驰1代1.4G上测试),之后每次分词(100字内)的速度在0.01秒以内,一般看不见用时,比如分词: 关于那些残忍图片,我不想再发了!!我是彻底愤怒了!!有网友强烈呼吁找出此人, 下面是我找到的一些资料!!!(我是新人,没有任何的道具,希望有前辈能帮忙多放气球) --分词结果-- 关于 / 那些 / 残忍 / 图片 / 我 / 不 / 想 / 再 / 发 / 了 / 我 / 是 / 彻底 / 愤怒 / 了 / 有 / 网友 / 强烈 / 呼吁 / 找出 / 此人 / 下面 / 是 / 我 / 找到 / 的 / 一些 / 资料 / 我 / 是 / 新人 / 没有 / 任何 / 的 / 道具 / 希望 / 有 / 前辈 / 能 / 帮忙 / 多 / 放 / 气球 分词用时:00:00:00 000 搜价网团队设计开发 网址:http://www./ 下载地址:http://www.cnblogs.com/Files/lovinger2000/ChineseTokenizer.zip (内附DLL和Winform示例程序,及示例程序的源码) |
|