分享

在Python里安装Jieba中文分词组件

 株野 2017-08-04

sanqima的专栏  

Jieba是一个中文分词组件,可用于中文句子/词性分割、词性标注、未登录词识别,支持用户词典等功能。该组件的分词精度达到了97%以上。下载介绍在Python里安装Jieba。
  1)下载Jieba
  官网地址:http://pypi./pypi/jieba/
  个人地址:http://download.csdn.net/detail/sanqima/9470715
  2)将其解压到D:\TDDownload,如图(1)所示:

这里写图片描述
图(1)将Jieba-0.35.zip解压

  3)点击电脑桌面的左下角的【开始】—》运行 —》输入: cmd —》切换到Jieba所在的目录,比如,D:\TDDownload\Jieba,依次使用如下命令:  

C:\Users\Administrator>D:
D:\>cd D:\TDDownload\jieba-0.35
D:\TDDownload\jieba-0.35>python setup.py install
  • 1
  • 2
  • 3
  • 1
  • 2
  • 3

  如图(2)所示:

这里写图片描述
图(2) 切换到Jieba目录,使用命令:python setup.py install 进行安装

  3)在PyCharm 里写一个中文分词的小程序: fenCi.py
  ## fenCi.py  

#encoding=utf-8
import jieba

seg_list = jieba.cut("我来到北京清华大学",cut_all=True)
print "Full Mode:", "/ ".join(seg_list) #全模式

seg_list = jieba.cut("我来到北京清华大学",cut_all=False)
print "Default Mode:", "/ ".join(seg_list) #精确模式

seg_list = jieba.cut("他来到了网易杭研大厦") #默认是精确模式
print ", ".join(seg_list)

seg_list = jieba.cut_for_search("小明硕士毕业于中国科学院计算所,后在日本京都大学深造") #搜索引擎模式
print ", ".join(seg_list)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14

  效果如下:

这里写图片描述
图(3) Jieba进行中文分词的效果

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多