jieba库的使用
1. jieba库概述 jieba是优秀的中文分词第三方库 中文文本需要通过分词获得单个的词语 jieba是优秀的中文分词第三方库,需要额外安装 jieba库提供三种分词模式,最简单只需掌握一个函数 2. jieba库的安装 (cmd命令行)pip install jieba 3. jieba的分词原理 利用一个中文词库,确定中文字符之间的关联概率 中文字符间概率大的组成词组,形成分词结果 除了分词,用户还可以添加自定义的词组 4. jieba库的使用 4.1 jieba分词的的三种模式 精确模式:把文本精确地切分开,不存在冗余单词 全模式:把文本中所有可能的词语都扫描出来,有冗余 搜索引擎模式:在精确模式的基础上,对长词再次切分 4.2 jieba库常用函数 jieba.lcut(s)★ —— 精确模式,返回一个列表类型的分词结果 >> > import jieba >> > jieba . lcut ( "中国是一个伟大的国家" ) [ '中国' , '是' , '一个' , '伟大' , '的' , '国家' ] jieba.lcut(s, cut_all=True) —— 全模式,返回一个列表类型的结果,存在冗余 >> > jieba . lcut ( "中国是一个伟大的国家" , cut_all = True ) [ '中国' , '国是' , '一个' , '伟大' ,