【ELK04】ES 分词计算、IK分词器安装使用手册和热词动态更新

这篇具有很好参考价值的文章主要介绍了【ELK04】ES 分词计算、IK分词器安装使用手册和热词动态更新。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

本小结主要了解的内容是:

  • 了解分词器的概念
  • 掌握IK分词器和热词配置

1.分词

ES中为了方便查询,提供多维度的查询功能,对存储在索引中的文档进行分词计算,但是文本内容不同,类型不同,语言不同分词计算逻辑就不会一样.

1.1概括

文本分析使Elasticsearch能够执行全文搜索,其中搜索返回所有相关结果,而不仅仅是精确匹配.如果您搜索"王者荣耀",您可能希望包含"王者","荣耀"和"王者荣耀"的文档,还可能希望包含相关"王"或"者"的文档。

  • Tokenization

该过程将文本拆分成一小块一小块,这一小块内容称之为token,大多数情况下一个token代表着一个词语;

  • Normalization

词条化允许在单个术语上进行匹配,但是每个标记仍然是字面上匹配的。这就意味着:

  1. 搜索"Quick"不会匹配"quick",即使你觉得或希望这样
  2. 虽然"fox"和"foxes"有着相同的词根,但是对于fox的搜索并不匹配foxes,反之亦然。
  3. 搜索"jumps"不会匹配"leaps",他们不同根,但是同义.

这些问题可以通过Normalizatin解决,将词条规范化标记.这就允许你不仅能使用精确的匹配搜索,还可以使用相关性查询.

1.2分词器

应对不同的分词计算逻辑,ES中使用了不同的底层的分词器.

  • standard analyzer

这是一个标准分词器,文章来源地址https://www.toymoban.com/news/detail-760264.html

到了这里,关于【ELK04】ES 分词计算、IK分词器安装使用手册和热词动态更新的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • ELK第一讲之【docker安装(Elasticsearch、kibana、IK分词器、Logstash)8.4.3】

    1、 对应版本kibana8.4.3的安装 2、 IK分词器8.4.3的安装 3、 Logstash-8.4.3的安装 启动出现以下错误,再执行该操作 出现max virtual memory areas vm.max_map_count [65530] is too low,increase to at least [262144] 1、启动es 2、复制elasticsearch.yml 3、复制完成后、关闭不要的校验 4、关闭容器 开放9200端口 打

    2023年04月23日
    浏览(60)
  • [ES]mac安装es、kibana、ik分词器

    1、创建一个网络,网络内的框架(es+kibana)互联 2、下载es和kibana 3、运行docker命令部署单点es+kibana(用来操作es) 说明 4、访问 5、查看日志 访问http://localhost:5601/ 点击这个,在里面写就行了 ​ 可选的有standard、english、chinese但是他们的中文都是一个字分一个词 下载这个 https:

    2024年02月11日
    浏览(38)
  • Docker安装es以及ik分词器

    https://github.com/medcl/elasticsearch-analysis-ik/releases 若出现下图则成功 分词的作用和关系型数据库中的模糊查询相似,不同的是es可以为字段中的每个分词创建索引,通过空间换时间的方式大大提高了模糊查询的效率。而关系型数据库用like模糊查询时只有like xxx%的情况下会利用索引

    2024年02月14日
    浏览(41)
  • docker安装ES,IK分词器,Kibana

    dockerhub上自己搜要拉的镜像版本 运行报错了 报错原因:虚拟内存不足,把虚拟内存调整的稍微大一些即可(如果使用指令发现没有的话自行安装,文件不存在的话自行百度) es持久化,ES中所有数据都在容器中 /usr/share/elasticsearch/data es持久化+配置化都挂的宿主机上 ES持久化

    2024年02月12日
    浏览(43)
  • docker安装es并挂载,ik分词器

    1.拉取镜像 2. 创建挂载目录  注意:  要开启权限chmod -R 777 文件路径 3.运行镜像,映射端口9200,9300 4.安装ik分词器 在/www/docker/elasticsearch/plugins创建ik文件夹 下载: https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.6.2/elasticsearch-analysis-ik-7.6.2.zip 然后上传ik文件压缩包,解压

    2024年02月13日
    浏览(39)
  • windows下安装ELK:elasticsearch、elasticsearch-head、elasticsearch-kibana、elasticsearhc-ik(ik分词器)

    1、ElasticSearch下载地址: https://www.elastic.co/cn/downloads/past-releases#elasticsearch https://www.elastic.co/cn/downloads/past-releases#elasticsearch  2、将压缩包移动到D:/apps/installsoft/ 将elasticsearch-8.2.3-windows-x86_64.zip解压 进行基本配置:在elasticsearch-8.2.3文件夹下的config文件夹 #1、elasticsearch.yml,注意

    2024年02月09日
    浏览(43)
  • Elasticsearch07:ES中文分词插件(es-ik)安装部署

    在中文数据检索场景中,为了提供更好的检索效果,需要在ES中集成中文分词器,因为ES默认是按照英文的分词规则进行分词的,基本上可以认为是单字分词,对中文分词效果不理想。 ES之前是没有提供中文分词器的,现在官方也提供了一些,但是在中文分词领域,IK分词器是

    2024年02月03日
    浏览(81)
  • Linux系统下安装es中ik分词器详解

    首先下载ik分词器: Releases · medcl/elasticsearch-analysis-ik · GitHub 选择和自己下载的es版本匹配的ik分词器版本: 注意: es-ik分词插件版本一定要和es安装的版本对应 在es安装目录下的plugins目录新建ik文件夹 下载到本地后,借助finalshell工具将文件传输到服务器指定位置: 在服务器

    2024年02月13日
    浏览(39)
  • docker中安装es服务,安装ik分词器,启动kibana

    docker中安装es服务 1、去docker hub 查找镜像 2、运行es 注意:es启动如果没有指明单机方式运行,默认使用集群方式启动,如果使用集群方式自动在启动时会出现如下错误,宿主机虚拟内存不够 max virtual memory areas vm.max map count [65530] is too low, increase to at least [262144] 解决方案: 在

    2024年02月05日
    浏览(47)
  • 最新安装es8.12.2、es-ik分词器、kibana-8.12.2

    目录 下载官网安装包 百度网盘 提取码:koko Elasticsearch官网 es-ik分词器下载地址 kibana下载地址 es安装部署 上传安装包 解压 添加用户组添加用户 更改目录 Owner 更换es用户 修改 config 包下配置文件 elasticsearch.yml 如下: 修改启动内存大小 启动es 测试验证 本地访问不了原因: 1、

    2024年03月18日
    浏览(53)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包