es 已有记录增加分词字段

这篇具有很好参考价值的文章主要介绍了es 已有记录增加分词字段。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

        项目中接入车辆的抓拍记录,接数据时车牌号直接存入es数据库中,未进行分词。现在需要对车牌号进行模糊查询,通过kibana对es的test索引进行实验。对过程进行整理。1、关闭索引test

POST test/_close

2、自定义分词器autocomplete

PUT test/_settings
{
   "settings": {
      "analysis": {
         "filter": {
            "autocomplete_filter": {
               "type":     "edge_ngram",
               "min_gram": 1,
               "max_gram": 20
            }
         },
         "analyzer": {
            "autocomplete": {
            "type":      "custom",
            "tokenizer": "standard",
            "filter": [
               "lowercase",
               "autocomplete_filter"
               ]
            }
         }
      }
   }
}

3、增加字段my_text,绑定自定义分词器

PUT test/_mapping
{
      "properties": {
        "my_text": {
         "type": "text",
         "analyzer": "autocomplete" ,
            "search_analyzer": "standard"
        }
      }
}

4、打开索引test

POST test/_open

5、将已有的字段carNum  更新到新增字段my_text。


​​​​​​ ps:es不支持对已有的字段修改分词器,所以新增字段

POST /test/_update_by_query
{
    "query": {
        "constant_score": {
            "filter": {
                "exists": {
                    "field": "carNum"
                }
            }
        }
    },
    "script": {
        "source": "ctx._source.my_text = ctx._source.carNum",
        "lang": "painless"
    }
}

6、查看新增字段的分词结果


验证分词结果:  GET  /{index}/{type}/{id}/_termvectors?fields={fieldName}
查看index是test的id=1021383235722694658的字段fieldName = my_text  的分词结果文章来源地址https://www.toymoban.com/news/detail-543810.html

GET /test/_doc/1021383235722694658/_termvectors?fields=my_text

到了这里,关于es 已有记录增加分词字段的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • [ES]mac安装es、kibana、ik分词器

    1、创建一个网络,网络内的框架(es+kibana)互联 2、下载es和kibana 3、运行docker命令部署单点es+kibana(用来操作es) 说明 4、访问 5、查看日志 访问http://localhost:5601/ 点击这个,在里面写就行了 ​ 可选的有standard、english、chinese但是他们的中文都是一个字分一个词 下载这个 https:

    2024年02月11日
    浏览(36)
  • docker安装ES,IK分词器,Kibana

    dockerhub上自己搜要拉的镜像版本 运行报错了 报错原因:虚拟内存不足,把虚拟内存调整的稍微大一些即可(如果使用指令发现没有的话自行安装,文件不存在的话自行百度) es持久化,ES中所有数据都在容器中 /usr/share/elasticsearch/data es持久化+配置化都挂的宿主机上 ES持久化

    2024年02月12日
    浏览(41)
  • ES查询索引字段的分词结果

    一、_termvectors  1、查看文档中某一个字段的分词结果 GET /{index}/{type}/{_id}/_termvectors?fields=[field] 2、样例: text的值为:https://www.b4d99.com/html/202204/45672.html 得到的结果: 二、_analyze 1、语法 2、样例: text的值为:https://www.b4d99.com/html/202204/45672.html 得到的结果:

    2024年02月11日
    浏览(65)
  • docker中安装es服务,安装ik分词器,启动kibana

    docker中安装es服务 1、去docker hub 查找镜像 2、运行es 注意:es启动如果没有指明单机方式运行,默认使用集群方式启动,如果使用集群方式自动在启动时会出现如下错误,宿主机虚拟内存不够 max virtual memory areas vm.max map count [65530] is too low, increase to at least [262144] 解决方案: 在

    2024年02月05日
    浏览(46)
  • 最新安装es8.12.2、es-ik分词器、kibana-8.12.2

    目录 下载官网安装包 百度网盘 提取码:koko Elasticsearch官网 es-ik分词器下载地址 kibana下载地址 es安装部署 上传安装包 解压 添加用户组添加用户 更改目录 Owner 更换es用户 修改 config 包下配置文件 elasticsearch.yml 如下: 修改启动内存大小 启动es 测试验证 本地访问不了原因: 1、

    2024年03月18日
    浏览(50)
  • ES(Kibana)更新指定字段值

    更新指定字段值,类似MySQL语句的update,ES中更新指定字段的值 具体语法如下: 示例如下: 更新test_index_update索引,_doc类型为doc,_id为12345,更新字段名称为field_test,更新后的值为field_value_test

    2024年02月11日
    浏览(53)
  • Docker安装ElasticSearch、Kibana、IK分词器以及设置ES账户密码

    版本声明: 系统 :CentOS 7.9(云服务器) ES版本 :7.6.1 Kibana :7.6.1 Ik分析器版本 :7.6.1 1、拉取镜像 2、创建挂载目录 设置所有用户读写执行权限 : sudo chmod -R 777 /docker_config/elasticsearch/ 3、创建elasticsearch.yml 配置文件 4、创建容器 参数说明 : -p 端口映射 -e discovery.type=single

    2023年04月09日
    浏览(65)
  • kibana中ES修改某个字段类型问题

     近日,发现同步数据到es的时候,有个新建的索引动态适配了mapping,而往往这种会有字段类型不是我们想要的,比如我这就有个tid字段,此字段要在聚合操作中使用,而此时的tid被识别成text类型了,而text不支持聚合,所以要更改字段类型为long或者keyword,注意es 不支持直接

    2024年02月08日
    浏览(51)
  • docker-compse安装es(包括IK分词器扩展)、kibana、libreoffice

    Kibana是一个开源的分析与可视化平台,设计出来用于和Elasticsearch一起使用的。你可以用kibana搜索、查看存放在Elasticsearch中的数据。 Kibana与Elasticsearch的交互方式是各种不同的图表、表格、地图等,直观的展示数据,从而达到高级的数据分析与可视化的目的。 Elasticsearch、Log

    2024年04月22日
    浏览(41)
  • linux搭建单机ES,集成ik分词器,文本抽取,Kibana可视化平台

    准备工作 第一项: 创建运行Elasticsearch和Kibana专用的普通用户,因为 elasticsearch 和 kibana 不允许使用 root用户启动,所以需要创建新用户启动。 linux用root权限创建一个用户赋权即可,注意权限要给足 第二项(启动没有报相关错误此项可以不做调整): 设置linux的虚拟内存 修改

    2024年02月04日
    浏览(41)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包