使用KIbana测试IK分词器
打开开发工具台
ik_smart 最少分词器
分词结果比较少
GET _analyze
{
"analyzer": "ik_smart",
"text": "中国共产党"
}
ik_max_word 颗粒度最细分词器
分词结果比较多,组成各种结果,穷尽词库的可能!
GET _analyze
{
"analyzer": "ik_max_word",
"text": "中国共产党"
}
再看个例子,把我们的句子换成 超级喜欢魏一鹤学习Java
首先看最少分词
然后是最细颗粒度分词
问题来了 我们输入超级喜欢魏一鹤学习Java,发现魏一鹤被拆开了,这种需要自己加入到分词器字典中的词如何处理呢?
IK分词器自定义词汇
找到并且打开IKAnalyzer.cfg分词器配置文件
自己自定义新建一个dic文件,一个dic就算一个字典,ik自带的字典是远远不够用的,我们需要手动去创建字典
新增字典项内容并且保存
然后把我们自定义配置的字典加入到配置文件让字典生效
配置完之后保存,然后重启es,注意观察,在重启es的时候会发现黑窗口已经加载我们自定义的字典weiyihe.dic
重启kibana,再次测试使用过自定义字典之后魏一鹤是否被分割
不管是哪种分词,魏一鹤都没被分割!说明我们自定义字典配置成功!
文章来源:https://www.toymoban.com/news/detail-542466.html
以后需要什么词汇,直接在我们的weiyihe.dic字典中去定义即可使用文章来源地址https://www.toymoban.com/news/detail-542466.html
到了这里,关于ElasticSearch-使用IK分词器进行分词的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!