ElasticSearch-IK分词器介绍和下载

这篇具有很好参考价值的文章主要介绍了ElasticSearch-IK分词器介绍和下载。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

IK分词器

什么是IK分词器?

分词:把一段中文或者别的划分成一个一个的关键字,我们在搜索的时候会把自己的信息进行分词,会把数据库中或者索引库中的数据进行分词,然后进行一个匹配操作,默认的中文分词是将每个字看成一个词,比如"我爱魏一鹤"会被分成"我",“爱”,“魏”,“一”,“鹤”,这显然是不符合要求的,索引我们需要安装中文分词器IK来解决这个问题

如果要使用中文,建议使用ik分词器

IK提供了两个分词算法,ik_smart和ik_max_world,其中ik_smart为最少切分,ik_max_wold为最细颗粒度划分,一会都会分别来测试

下载IK分词器

注意 ik版本要和es,kibana版本保持统一(7.6.1)

下载网址:https://github.com/medcl/elasticsearch-analysis-ik

ElasticSearch-IK分词器介绍和下载

找到7.6.1版本

ElasticSearch-IK分词器介绍和下载

ElasticSearch-IK分词器介绍和下载

下载到本地,放入es插件中即可,这里我在es的plugins目录下创建一个IK目录

ElasticSearch-IK分词器介绍和下载

解压缩,目录如下

ElasticSearch-IK分词器介绍和下载

然后重启观察ES

注意:没有使用ik分词器插件的时候黑窗口会提示no plugins loaded(没有插件加载)

ElasticSearch-IK分词器介绍和下载

现在使用了ik分词器黑窗口也会提示ik分词器插件已经被加载

ElasticSearch-IK分词器介绍和下载

我们也可以使用命令(elasticsearch-plugin list)查看es下的全部加载的插件

ElasticSearch-IK分词器介绍和下载

elasticsearch-plugin list

ElasticSearch-IK分词器介绍和下载文章来源地址https://www.toymoban.com/news/detail-507026.html

到了这里,关于ElasticSearch-IK分词器介绍和下载的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • elasticsearch IK分词器

    说明:es默认的分词器对中文的识别不是特别好,一段话的分词是一个一个汉字,这显然没有达到想要的结果。 可以安装IK分词器,兼容中文的分词; 安装 安装IK分词器,例如elasticsearch的容器名为es; (命令方式,安装速度慢,网络状况不好非常容易失败,而且会丢失文件,

    2024年02月16日
    浏览(35)
  • 【ElasticSearch 】IK 分词器安装

    Elasticsearch 要使用 ik,就要先构建 ik 的 jar包,这里要用到 maven 包管理工具,而 maven 需要java 环境,而 Elasticsearch 内置了jdk, 所以可以将JAVA_HOME设置为Elasticsearch 内置的jdk 1)设置JAVA_HOME 2)准备maven安装包 上传 maven 安装包 3)解压maven安装包 tar xzf apache-maven-3.1.1-bin.tar.gz 4)设

    2024年02月07日
    浏览(63)
  • ElasticSearch-集成ik分词器

    本文已收录于专栏 《中间件合集》   我们在项目中集成了ElasticSearch服务之后,需要对内容进行分词处理。这时候就需要用到分词器。其实ElasticSearch服务自身也会带有分词器。ElasticSearch服务自带的分词器是单个字进行分的。在我们的业务当中要求对整个词进行拆分。这时

    2024年02月11日
    浏览(32)
  • 安装elasticsearch、kibana、IK分词器、扩展IK词典

    后面还会安装 kibana ,这个会提供可视化界面方面学习。 需要注意的是 elasticsearch 和 kibana 版本一定要一样!!! 否则就像这样 1、创建网络 因为我们还需要部署kibana容器,因此需要让es和kibana容器互联。这里先创建一个网络: 2、镜像安装 pull 安装 因为镜像文件比较大,将

    2024年02月02日
    浏览(44)
  • Elasticsearch中使用IK分词配置

    在 Elasticsearch 中,可以使用 IK 分词器来替代默认的 text 类型。IK 分词器是一个开源的中文分词器,支持中文分词和英文分词。 要将默认的 text 类型修改为 IK 分词器,需要进行以下步骤: 安装 IK 分词器插件: 下载 IK 分词器插件,可以从 GitHub 上的 elasticsearch-analysis-ik 页面下

    2024年02月13日
    浏览(34)
  • elasticsearch学习(六):IK分词器

            IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始IKAnalyzer已经推出 了3个大版本。最初,它是以开源项目Lucene为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0则发展为 面向Java的公用分

    2024年01月25日
    浏览(38)
  • Elasticsearch之ik中文分词篇

    es在7.3版本已经支持中文分词,由于中文分词只能支持到单个字进行分词,不够灵活与适配我们平常使用习惯,所以有很多对应中文分词出现,最近使用的是ik分词器,就说说它吧。 安装可以百度下有很多教程,需要注意的是ik分词器的版本要跟es版本对应上,避免出现不必要

    2024年02月02日
    浏览(62)
  • 本地elasticsearch中文分词器 ik分词器安装及使用

    ElasticSearch 内置了分词器,如标准分词器、简单分词器、空白词器等。但这些分词器对我们最常使用的中文并不友好,不能按我们的语言习惯进行分词。 ik分词器就是一个标准的中文分词器。它可以根据定义的字典对域进行分词,并且支持用户配置自己的字典,所以它除了可

    2024年02月05日
    浏览(69)
  • ElasticSearch 学习8 :ik分词器的扩展,及java调用ik分词器的analyzer

    1.前言: 上篇已经说过ik的集成,这篇说下ik的实际使用 2.2、IK分词器测试 IK提供了两个分词算法 ik_smart 和 ik_max_word ik_smart :为最少切分 ik_max_word :为最细粒度划分。 2.2.1、最小切分示例 #分词器测试ik_smart POST _analyze { \\\"analyzer\\\":\\\"ik_smart\\\", \\\"text\\\":\\\"我是中国人\\\" }  结果: 2.2.2、最

    2024年02月04日
    浏览(40)
  • elasticsearch 基于ik分词器的分词查询和模糊匹配

    前言:elasticsearch 查询有很多,查询的条件有固定格式,返回结果提示不明确,让ES使用起来有点不方便的感觉,ES查询方式很多,简单介绍几种使用点的,实用的 此处简单梳理一下最常用的查询 模糊匹配查询 类似 mysql 语法中的 like ‘%value%’ 类似于百度的分词查询 将

    2024年02月16日
    浏览(37)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包