一、背景:
搞了elasticsearch和kibana的安装和配置,在进行分词的时候没有达到自己预想的效果,于是写一下elasticsearch的ik分词器的安装和配置(自定义分词)。
二、解决方式:
1:首先看看没有加ik分词器的效果。
POST _analyze
{
"analyzer": "standard",
"text": "我是中国人"
}
2:下载ik软件包。
https://github.com/medcl/elasticsearch-analysis-ik
3:选择自己响应版本。
文章来源:https://www.toymoban.com/news/detail-417676.html
4:将下载好的文件上传到我们elasticsearch文件夹的plugins下。文章来源地址https://www.toymoban.com/news/detail-417676.html
到了这里,关于Docker:Elasticsearch安装配置IK分词器的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!