中文分词器
- 安装IK分词器(支持中文分词)
- IK分词器提供了源代码(maven项目), 通过打包生成zip文件
- 使用Kibana进行测试
- Kibana的使用看这个博客: Elasticsearch入门(Kibana)
{
"analyzer": "ik_max_word",
"text": "我是中国人"
}
- 测试结果
{
"tokens": [
{
"token": "我",
"start_offset": 0,
"end_offset": 1,
"type": "CN_CHAR",
"position": 0
},
{
"token": "是",
"start_offset": 1,
"end_offset": 2,
"type": "CN_CHAR",
"position": 1
},
{
"token": "中国人",
"start_offset": 2,
"end_offset": 5,
"type": "CN_WORD",
"position": 2
},
{
"token": "中国",
"start_offset": 2,
"end_offset": 4,
"type": "CN_WORD",
"position": 3
},
{
"token": "国人",
"start_offset": 3,
"end_offset": 5,
"type": "CN_WORD",
"position": 4
}
]
}
来源:oschina
链接:https://my.oschina.net/u/4284277/blog/3164859