ik分词器安装

这篇具有很好参考价值的文章主要介绍了ik分词器安装。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

安装ik分词器

官方github地址:https://github.com/medcl/elasticsearch-analysis-ik

这里需要注意的是需要下载ES对应版本的ik分词器,我这里下载的是7.6.1版本的ik分词器。下载好的ik分词器zip,解压缩后将其中的所有内容直接复制到ES文件夹的plugins/ik目录下,其中ik目录是自己创建的,然后重启ES服务即可启动ik分词器。

测试ik分词器

ik分词器有两个引擎,一个是ik_smart,还有一个是ik_max_word。启动Kibana后台,发送GET请求分别进行测试。

GET _analyze
{
  "analyzer": "ik_smart", 
  "text": "中国共产党"
}

GET _analyze
{
  "analyzer": "ik_max_word", 
  "text": "练习九阴真武功"
}

结果分别如下:

{
  "tokens" : [
    {
      "token" : "中国共产党",
      "start_offset" : 0,
      "end_offset" : 5,
      "type" : "CN_WORD",
      "position" : 0
    }
  ]
}
{
  "tokens" : [
    {
      "token" : "中国共产党",
      "start_offset" : 0,
      "end_offset" : 5,
      "type" : "CN_WORD",
      "position" : 0
    },
    {
      "token" : "中国",
      "start_offset" : 0,
      "end_offset" : 2,
      "type" : "CN_WORD",
      "position" : 1
    },
    {
      "token" : "国共",
      "start_offset" : 1,
      "end_offset" : 3,
      "type" : "CN_WORD",
      "position" : 2
    },
    {
      "token" : "共产党",
      "start_offset" : 2,
      "end_offset" : 5,
      "type" : "CN_WORD",
      "position" : 3
    },
    {
      "token" : "共产",
      "start_offset" : 2,
      "end_offset" : 4,
      "type" : "CN_WORD",
      "position" : 4
    },
    {
      "token" : "党",
      "start_offset" : 4,
      "end_offset" : 5,
      "type" : "CN_CHAR",
      "position" : 5
    }
  ]
}

自定义ik分词器词典

有一些单词是我们自己造的,所以ik分词器可能会不认识,这种单词如果我们想让ik分词器识别为一个单词则需要自定义字典,举个例子,比如我们想让“空卡库”成为一个单词而不是“空”、“卡”、“库”三个字则需要修改如下ik分词器的如下两个文件

  • config/IKAnalyzer.cfg.xml
  • config/yang.dir(自己新建的文件,名字随便起后缀.dir)

yang.dir的内容只有空卡库这个单词且存放于config目录下,IKAnalyzer.cfg.xml内容如下:

<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE properties SYSTEM "http://java.sun.com/dtd/properties.dtd">
<properties>
	<comment>IK Analyzer 扩展配置</comment>
	<!--用户可以在这里配置自己的扩展字典 -->
	<entry key="ext_dict">my.dic</entry>
	 <!--用户可以在这里配置自己的扩展停止词字典-->
	<entry key="ext_stopwords"></entry>
	<!--用户可以在这里配置远程扩展字典 -->
	<!-- <entry key="remote_ext_dict">words_location</entry> -->
	<!--用户可以在这里配置远程扩展停止词字典-->
	<!-- <entry key="remote_ext_stopwords">words_location</entry> -->
</properties>

配置完字典前后分词效果对比:文章来源地址https://www.toymoban.com/news/detail-509083.html

{
  "tokens" : [
    {
      "token" : "空",
      "start_offset" : 0,
      "end_offset" : 1,
      "type" : "CN_CHAR",
      "position" : 0
    },
    {
      "token" : "卡",
      "start_offset" : 1,
      "end_offset" : 2,
      "type" : "CN_CHAR",
      "position" : 1
    },
    {
      "token" : "库",
      "start_offset" : 2,
      "end_offset" : 3,
      "type" : "CN_CHAR",
      "position" : 2
    }
  ]
}
{
  "tokens" : [
    {
      "token" : "空卡库",
      "start_offset" : 0,
      "end_offset" : 3,
      "type" : "CN_WORD",
      "position" : 0
    }
  ]
}

到了这里,关于ik分词器安装的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Docker安装ik分词器

    首先下载es对应版本的分词器:(最后为版本号) https://github.com/medcl/elasticsearch-analysis-ik/releases/tag/v7.4.0 下载红圈标记的zip 将ik文件上传到宿主机 将压缩包移动到容器中 docker cp /tmp/elasticsearch-analysis-ik-7.4.0.zip 容器ID或NAME:/usr/share/elasticsearch/plugins 进入容器 docker exec -it 容器ID或

    2023年04月11日
    浏览(30)
  • 安装elasticsearch、kibana、IK分词器、扩展IK词典

    后面还会安装 kibana ,这个会提供可视化界面方面学习。 需要注意的是 elasticsearch 和 kibana 版本一定要一样!!! 否则就像这样 1、创建网络 因为我们还需要部署kibana容器,因此需要让es和kibana容器互联。这里先创建一个网络: 2、镜像安装 pull 安装 因为镜像文件比较大,将

    2024年02月02日
    浏览(45)
  • 本地elasticsearch中文分词器 ik分词器安装及使用

    ElasticSearch 内置了分词器,如标准分词器、简单分词器、空白词器等。但这些分词器对我们最常使用的中文并不友好,不能按我们的语言习惯进行分词。 ik分词器就是一个标准的中文分词器。它可以根据定义的字典对域进行分词,并且支持用户配置自己的字典,所以它除了可

    2024年02月05日
    浏览(71)
  • es安装中文分词器 IK

    1.下载 https://github.com/medcl/elasticsearch-analysis-ik 这个是官方的下载地址,下载跟自己es版本对应的即可 那么需要下载 7.12.0版本的分词器 2.安装 1.在es的 plugins 的文件夹下先创建一个ik目录 bash cd /home/apps/elasticsearch/plugins/ mkdir ik 2.然后将下载解压后的文件放入到ik文件夹下 3.重启

    2024年02月21日
    浏览(43)
  • Linux下安装ik分词器

    Linux下安装ik分词器 首先下载ik分词器 下载地址: https://github.com/medcl/elasticsearch-analysis-ik/releases 一定要点进来 下载zip压缩包 注意:es-ik分词插件版本一定要和es安装的版本对应 2.在es安装目录下的plugins目录新建ik文件夹(/usr/local/elasticsearch-8.2.3/plugins) 解压完后要把压缩包删掉

    2024年02月12日
    浏览(39)
  • ElasticSearch 部署及安装ik分词器

    ansiable playbook链接: https://download.csdn.net/download/weixin_43798031/87719490 需要注意的点: 公司es集群现以三个角色部署分别为 Gateway、Master、Data 简单的理解可以理解为在每台机器上部署了三个es,以端口和配置文件来区分这三个es不同的功能。 我们知道本来安装分词器是件特别简单

    2023年04月27日
    浏览(42)
  • ElasticSearch8安装ik分词器

    下载与es版本一致的插件包 https://github.com/medcl/elasticsearch-analysis-ik/releases es版本8.2.3,所以下载8.2.3的插件 离线安装 cd /usr/local/elasticsearch/ ./bin/elasticsearch-plugin install file:///usr/local/elasticsearch/elasticsearch-analysis-ik-8.2.3.zip -v 在线安装,github网络不稳,不建议 ./bin/elasticsearch-plugin

    2024年02月16日
    浏览(49)
  • linux 安装elasticsearch和ik分词

    下载elasticsearch wget https://artifacts.elastic.co/downloads/elasticserch/elasticsearch-7.17.10.tar.gz 解压elsaticsearch到/usr/local/elasticsearch tar -zxvf elasticsearch-7.17.10.tar.gz 修改配置文件elasticsearch.yml vim  /usr/local/elasticsearch-7.17.10/config/elasticsearch.yml # 集群名称 cluster.name: myelasticsearch # es节点id node.nam

    2024年02月01日
    浏览(47)
  • Docker安装es以及ik分词器

    https://github.com/medcl/elasticsearch-analysis-ik/releases 若出现下图则成功 分词的作用和关系型数据库中的模糊查询相似,不同的是es可以为字段中的每个分词创建索引,通过空间换时间的方式大大提高了模糊查询的效率。而关系型数据库用like模糊查询时只有like xxx%的情况下会利用索引

    2024年02月14日
    浏览(42)
  • Docker:Elasticsearch安装配置IK分词器

    一、背景:   搞了elasticsearch和kibana的安装和配置,在进行分词的时候没有达到自己预想的效果,于是写一下elasticsearch的ik分词器的安装和配置(自定义分词)。 二、解决方式: 1:首先看看没有加ik分词器的效果。 2:下载ik软件包。  3:选择自己响应版本。  4:将下载好的

    2023年04月18日
    浏览(46)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包