ElasticSearch插件plugin ik分词器,报错plugin-descriptor.properties

这篇具有很好参考价值的文章主要介绍了ElasticSearch插件plugin ik分词器,报错plugin-descriptor.properties。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

@ES日志中报错plugin-descriptor.properties NoSuchFileException


报错问题

找不到这个文件plugin-descriptor.properties。

ElasticSearch插件plugin ik分词器,报错plugin-descriptor.properties`

报错原因

如下图所示,下载的zip文件解压之后的情况,这里是不能放到elasticsearch的plugins中的。
分析:由于是java开发的分词器,这里很明显是maven项目的目录结构。所以要执行打包命令,生成对应的发布的包
ElasticSearch插件plugin ik分词器,报错plugin-descriptor.properties

解决方法

在你ES中存放中文分词器的ik目录下执行mvn clean install命令,完成后在你target目录下的release中会有以下包,这些才是我们所需要的,用这些去替换ik中的文件。
ElasticSearch插件plugin ik分词器,报错plugin-descriptor.properties文章来源地址https://www.toymoban.com/news/detail-506795.html

到了这里,关于ElasticSearch插件plugin ik分词器,报错plugin-descriptor.properties的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • windows安装Elasticsearch后使用ik分词器报错解决办法

    最近在学习Elasticsearch,安装完成后下载了ik分词器压缩到plugins目录下启动es报错如下: 咋一看以为是es对应的jdk自带的权限不足导致的,查看jdk自带的文件查看权限没有发现问题:D:Code StudyTechnologyESelasticsearch-8.11.1jdklibsecurity下的default.policy 后面发现是路径带了空格,把

    2024年01月20日
    浏览(51)
  • ElasticSearch篇——认识、安装和使用IK分词器插件,一篇文章带你彻底拿下!

    一、什么是IK分词器 所谓分词,即把一段中文或者别的划分成一个个的,我们在搜索时会把自己的信息进行分词,会把数据库中或者索引库中的数据进行分词,然后进行一个匹配的操作,默认的中文分词器是将每一个字看成一个词,比如“我爱中国”会被分成“我”、

    2024年02月03日
    浏览(38)
  • Linux下安装ElasticSearch-analysis-ik中文分词器插件,以及可能出现的异常处理

            注意:安装可以采用在线方式、离线方式,但是不建议在线安装,速度超级慢,本文只介绍离线安装方式                 下载地址:https://github.com/medcl/elasticsearch-analysis-ik                 切记选择版本需要跟ElasticSearch保持一致,否则可能会出现一些未知的异

    2024年02月07日
    浏览(68)
  • Elasticsearch7.15.2 安装ik中文分词器后启动ES服务报错的解决办法

    下载elasticsearch ik中文分词器,在elasticsearch安装目录下的plugins文件夹下创建名为ik的文件夹,将下载的ik中文分词器解压缩到新建的ik文件夹下,再次运行 ./bin/elasticsearch启动ES服务时出现以下错误: Exception in thread \\\"main\\\" java.nio.file.NotDirectoryException: /Users/amelia/work/elasticsearch-7.1

    2024年02月12日
    浏览(60)
  • CentOS 7 使用Docker方式搭建ElasticSearch 7.7.0 三节点集群,并配置elasticsearch-head插件,ik分词器,以及Kibana可视化平台

    IP 角色 172.16.31.191 elasticsearch-1 172.16.31.192 elasticsearch-2 172.16.31.193 elasticsearch-3 并创建相关挂载目录,3台虚拟机都要,如下 还要对文件夹加设置开放权限,如果不开放权限,则会报错无法写入数据的情况,3台虚拟机都要,如下 172.16.31.191 172.16.31.192 172.16.31.193 172.16.31.191 172.16.3

    2024年02月04日
    浏览(48)
  • elasticsearch 安装 IK 中文分词器插件提示找不到文件的异常(Exception in thread “main“ java.nio.file.NoSuchFileException)

    错误截图 在命令行窗口,执行如下命令安装 IK 中文分词器 失败。 错误日志 1、自己到github下载对应版本的ik中文分词器 上面命令中两个插件版本号应该和 Elasticsearch 的版本保持一致,我现在用的是 7.14.1 版本。 首先版本和命令是对得上的。 命令行窗口通过命令下载失败的话

    2024年04月11日
    浏览(55)
  • elasticsearch启动报错:Plugin [analysis-ik] was built for Elasticsearch version 8.2.3 but version7.4.0

    启动失败后从es的日志文件中可以看到以下。 Plugin [analysis-ik] was built for Elasticsearch version 8.2.3 but version7.4.0 解决办法:修改 plugin-descriptor.properties 文件中 elasticsearch.version=你的ES版本号 然后重启启动elasticsearch就可以了

    2024年02月12日
    浏览(43)
  • ElasticSearch-使用IK分词器进行分词

    使用KIbana测试IK分词器 打开开发工具台 ik_smart 最少分词器 分词结果比较少 ik_max_word 颗粒度最细分词器 分词结果比较多,组成各种结果,穷尽词库的可能! 再看个例子,把我们的句子换成 超级喜欢魏一鹤学习Java 首先看最少分词 然后是最细颗粒度分词 问题来了 我们输入超级喜

    2024年02月13日
    浏览(41)
  • elasticsearch IK分词器

    说明:es默认的分词器对中文的识别不是特别好,一段话的分词是一个一个汉字,这显然没有达到想要的结果。 可以安装IK分词器,兼容中文的分词; 安装 安装IK分词器,例如elasticsearch的容器名为es; (命令方式,安装速度慢,网络状况不好非常容易失败,而且会丢失文件,

    2024年02月16日
    浏览(35)
  • ElasticSearch-集成ik分词器

    本文已收录于专栏 《中间件合集》   我们在项目中集成了ElasticSearch服务之后,需要对内容进行分词处理。这时候就需要用到分词器。其实ElasticSearch服务自身也会带有分词器。ElasticSearch服务自带的分词器是单个字进行分的。在我们的业务当中要求对整个词进行拆分。这时

    2024年02月11日
    浏览(34)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包