es在索引中自定义简单的分词器 Analyzer 扩展
PUT index1
{
"settings": {
"analysis": {
"analyzer": {
"ik_max_word_expand": {
"type": "custom",
"char_filter": "html_strip",
"tokenizer": "ik_max_word"
}
}
}
}
}
文章来源地址https://www.toymoban.com/news/detail-617784.html
在索引中自定义简单的分词器 Analyzer
上面各个步骤介绍了Analyzer的构成,以及ElasticSearch为每一部分所提供的默认实现,通过组合这些默认实现,我们可以构建属于自己的 Analyzer。
自定义的 Analyzer 必须关联到一个索引上,其语法格式如下:
PUT 索引名称
{
"settings": {
"analysis": {
"analyzer": {
"自定义分词器名称":{
自定义分词器具体内部实现
}
}
}
}
}
通过组合 html strip (character filter), ik_max_word(tokernizer)来实现自己的分词器
GET index1
POST /index1/_analyze
{
"analyzer": "ik_max_word_expand",
"text": "我们是中国人<html>2</html>
}
文章来源:https://www.toymoban.com/news/detail-617784.html
到了这里,关于es在索引中自定义简单的分词器 Analyzer 扩展的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!