es在索引中自定义简单的分词器 Analyzer 扩展

这篇具有很好参考价值的文章主要介绍了es在索引中自定义简单的分词器 Analyzer 扩展。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

es在索引中自定义简单的分词器 Analyzer 扩展


PUT index1
{
  "settings": {
    "analysis": {
      "analyzer": {
        "ik_max_word_expand": {
          "type": "custom",
          "char_filter": "html_strip",
          "tokenizer": "ik_max_word"
        }
      }
    }
  }
}

es 自定义分词器,其他,elasticsearch,java,服务器

 文章来源地址https://www.toymoban.com/news/detail-617784.html

在索引中自定义简单的分词器 Analyzer

上面各个步骤介绍了Analyzer的构成,以及ElasticSearch为每一部分所提供的默认实现,通过组合这些默认实现,我们可以构建属于自己的 Analyzer。

自定义的 Analyzer 必须关联到一个索引上,其语法格式如下:

PUT 索引名称

{

"settings": {

    "analysis": {
 

      "analyzer": {
 

        "自定义分词器名称":{
 

              自定义分词器具体内部实现
 

        }
 

      }
 

    }
 

  }
}

通过组合 html strip (character filter), ik_max_word(tokernizer)来实现自己的分词器

GET index1

es 自定义分词器,其他,elasticsearch,java,服务器


POST /index1/_analyze
{
  "analyzer": "ik_max_word_expand",
  "text": "我们是中国人<html>2</html>

}

es 自定义分词器,其他,elasticsearch,java,服务器

 

 

到了这里,关于es在索引中自定义简单的分词器 Analyzer 扩展的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • ES查询索引字段的分词结果

    一、_termvectors  1、查看文档中某一个字段的分词结果 GET /{index}/{type}/{_id}/_termvectors?fields=[field] 2、样例: text的值为:https://www.b4d99.com/html/202204/45672.html 得到的结果: 二、_analyze 1、语法 2、样例: text的值为:https://www.b4d99.com/html/202204/45672.html 得到的结果:

    2024年02月11日
    浏览(49)
  • Elasticsearch分词详解:ES分词介绍、倒排索引介绍、分词器的作用、停用词

    详见:https://blog.csdn.net/weixin_40612128/article/details/123476053

    2024年02月12日
    浏览(41)
  • ES自定义分词,对数字进行分词

    需求:需要将下面类似的数据分词为:GB,T,32403,1,2015 我们使用的Unicode进行正则匹配,Unicode将字符编码分为了七类,其中 P代表标点 L 代表字母 Z 代表分隔符(空格,换行) S 代表数学符号,货币符号 M代表标记符号 N 阿拉伯数字,罗马数字 C其他字符 例如:所以pP的作用是匹配

    2024年02月15日
    浏览(31)
  • es自定义分词器对数字分词

    背景:就是一个搜索框,可以输入产品名称、产品code、产品拼音、产品缩写等内容来查询。 问题:就是像产品code这种,比如00034,分词完还是00034,直接查询00是查不到的。 一开始的方案一,就是multi_match产品名称、产品缩写这些,然后前缀查询产品code,然后再should一下。但

    2024年02月02日
    浏览(25)
  • docker-compse安装es(包括IK分词器扩展)、kibana、libreoffice

    Kibana是一个开源的分析与可视化平台,设计出来用于和Elasticsearch一起使用的。你可以用kibana搜索、查看存放在Elasticsearch中的数据。 Kibana与Elasticsearch的交互方式是各种不同的图表、表格、地图等,直观的展示数据,从而达到高级的数据分析与可视化的目的。 Elasticsearch、Log

    2024年04月22日
    浏览(32)
  • es创建索引库bug。Failed to parse mapping [_doc]: analyzer [ik_smart] has not been configured in mappings

    前提:                 出现这个bug是因为在Linux端使用docker-compose 部署好es后没有在plugins目录下配置好ik分词器,导致在es管理开发工具端,使用带有ik_smart分词的配置进行索引库创建映射导致的bug!             解决方案:                 在Linux端的es部署目录下创建plugins配件

    2024年02月04日
    浏览(37)
  • Elasticsearch分词器--空格分词器(whitespace analyzer)

      文本分析,是将全文本转换为一系列单词的过程,也叫分词。analysis是通过analyzer(分词器)来实现的,可以使用Elasticearch内置的分词器,也可以自己去定制一些分词器。除了在数据写入时将词条进行转换,那么在查询的时候也需要使用相同的分析器对语句进行分析。 分词器

    2024年02月04日
    浏览(29)
  • es 简单实现增加,查询,分词 热词

    看代码:  添加es中的表,index 表示表名 body 表示主体部分,然后执行,可以创建一个es 中的表格,相当于数据库中的数据表,现在还是空的表格,需要添加数据后在进行查询 添加: 先查询出添加数据库的数据,转为数组格式添加进es中 方便在随后的搜索中实现搜索 搜索:

    2024年02月15日
    浏览(34)
  • es elasticsearch 九 索引index 定制分词器 type结构后期弃用原因 定制动态映射 动态映射模板 零停机重建索引

    目录 索引index 定制分词器 Type底层结构及弃用原因 定制 dynamic mapping 定制dynamic mapping template 动态映射模板 零停机重建索引 生产环境应该度别名数据 索引index Put /index Stings 分片 Mapping 映射 Aliases 别名 增加 Put my_index2 {        \\\"settings\\\":{           \\\"number_of_shards\\\":3,      

    2024年02月06日
    浏览(31)
  • Elasticsearch安装中文分词器IK Analyzer

    提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 本文介绍IK Analyzer分词器的安装配置、使用以及ES数据迁移。 克隆IK分词器项目,根据README的描述选择对应版本的分支。浏览器访问ES的ip+端口就能看到版本信息,所以我需要切到master分支。 打开pom需要

    2024年02月12日
    浏览(45)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包