Solr&IK分词器-简单介绍与安装

这篇具有很好参考价值的文章主要介绍了Solr&IK分词器-简单介绍与安装。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

介绍

Solr是一个高性能,采用Java开发,基于Lucene的全文搜索服务器。同时对其进行了扩展,提供了比Lucene更为丰富的查询语言,同时实现了可配置、可扩展并对查询性能进行了优化,并且提供了一个完善的功能管理界面,是一款非常优秀的全文搜索引擎。

应用场景

通过介绍可知Solr主要就是一个企业级的搜索引擎,看似很陌生,其实我们大家平时都使用过Solr。例如:我们在百度上查询资料,在淘宝、京东等购物网站上查询商品,都涉及到了Solr。
Solr&IK分词器-简单介绍与安装
Solr&IK分词器-简单介绍与安装
通过图片可以看到,solr会将搜索的相关文字高亮显示,并且每次搜索的速度都很快。这也是为什么不使用数据库搜索,而使用Solr的原因。其实Solr本身也可以看成是数据库,但它比数据库搜索速度更快,而数据库本身是不能实现分词效果的,只能使用模糊查询,效率非常低,并且如果将搜索都交给数据库管理,那么数据库的压力会非常大,因此一般都会使用Solr来做搜索功能。

分词器

分词器有很多种,本文主要介绍的是IK分词器

分词:即把一段中文或者别的划分成一个个的关键字,我们在搜索时候会把自己的信息进行分词,会把数据库中或者索引库中的数据进行分词,然后进行一个匹配操作,默认的中文分词是将每个字看成一个词,比如“我爱中国"会被分为"我"“爱”“中”“国”,这显然是不符合要求的,所以我们需要安装中文分词器ik来解决这个问题。
IK提供了两个分词算法:ik_smart和ik_max_word,其中ik smart为最少切分,ik_max_word为最细粒度划分!
ik_max_word: 会将文本做最细粒度的拆分,比如会将"中华人民共和国国歌"拆分为"中华人民共和国,中华人民,中华,华人,人民共和国,人民,人,民,共和国,共和,和,国国,国歌”,会穷尽各种可能的组合;
ik_smart: 会做最粗粒度的拆分,比如会将"中华人民共和国国歌"拆分为"中华人民共和国,国歌"。

Solr的安装-Linux

官方下载地址-Solr

下载地址:https://lucene.apache.org/solr/

安装包提供(Solr与Ik分词器)-Linux版本

链接:https://pan.baidu.com/s/1yOXDJiFfqzS3bXL3QBBQeA 
提取码:2022

首先将下载好的Solr安装包上传到Linux系统中,上传可以使用FileZilla Client软件连接虚拟机然后上传即可。

FileZilla Clien下载地址

https://www.filezilla.cn/download/client

注意使用FileZilla Clien连接虚拟机需要虚拟机支持SSH(需要自己安装)。

Ubuntu安装SSH

搜索:
apt search ssh

Solr&IK分词器-简单介绍与安装
Solr&IK分词器-简单介绍与安装
找到ssh后,安装即可

apt install ssh

Solr&IK分词器-简单介绍与安装
查看ssh是否安装成功

ss -nat

查询到22端口即安装成功
Solr&IK分词器-简单介绍与安装
Solr&IK分词器-简单介绍与安装

Solr&IK分词器-简单介绍与安装
解压上传的Solr压缩包
将上传的solr-7.7.3.tgz解压到一个目录(文件夹)下 建议建一个专门的目录(文件夹)放solr。

解压

tar  zxvf  文件名路径/文件名.tgz  -C /指定路径

解压完成后可以看见一个文件夹 solr-7.7.3,即可
Solr&IK分词器-简单介绍与安装

Solr配置

Solr的使用离不开索引库,首页需要配置一个Core,Core代表一个索引库、里面包含索引数据及其配置信息,Solr中可以拥有多个Core,就像mysql中可以有多个数据库一样。

core文件夹都要放到一个统一的文件夹下面,这个文件夹叫做solr_home,用户可以自己修改这个目录,也可以用默认的solr-7.7.3\server\solr,这里采取的是在默认目录下创建mycore文件夹

首先使用cd命令跳转至solr-7.7.3\server\solr目录下 然后使用mkdir 文件夹名称等命令创建mycore即可。
例如:sudo mkdir mycore

可通过ls命令查看是否创建成功

Solr&IK分词器-简单介绍与安装
进入mycore目录,在该目录下创建data目录
Solr&IK分词器-简单介绍与安装
复制solr-7.7.3/server/solr/configsets/sample_techproducts_configs/conf目录到my_core目录下

cp -r /usr/local/solr/solr-7.7.3/server/solr/configsets/sample_techproducts_configs/conf/ ./

Solr&IK分词器-简单介绍与安装
启动Solr
首先跳转至solr的bin目录下,然后输入命名启动即可

./solr start -force

注意:因为笔者虚拟机的配置问题,所以这里因为添加-force启动solr(不是所有人都需要)。
Solr&IK分词器-简单介绍与安装
访问Solr

虚拟机IP地址+Solr端口号(默认是8983)访问即可

http://192.168.8.63:8983/solr/

在Solr网站中创建mycore(注意这个名称跟我们第一次在solr-7.7.3\server\solr目录下创建的那个文件夹名称要一致)。
Solr&IK分词器-简单介绍与安装
Solr&IK分词器-简单介绍与安装
Solr的安装就到此结束啦!

分词器-IK安装

简单的安装Solr远远不够,还需要为它配置分词器。
将下载的ikanalyzer-solr6.5.zip上传到Linux虚拟机中,然后解压到某个目录下

注意这里压缩包后缀为zip,解压指令需要使用unzip命令,如果提示没有unzip,则使用apt install unzip命令安装即可。

解压

sudo unzip 文件路径/文件名.zip

Solr&IK分词器-简单介绍与安装
解压后可以看到文件夹中有jar包和其他配置文件,首先将其中的jar包复制到solr-7.7.3/server/solr-webapp/webapp/WEB-INF/lib目录下。

当前路径在solr-7.7.3/server/solr-webapp/webapp/WEB-INF/lib目录下

cp -r /usr/local/ikanalyzer/ikanalyzer-solr5/*.jar ./

Solr&IK分词器-简单介绍与安装
Solr&IK分词器-简单介绍与安装
将解压后的其它文件复制到solr-7.7.3/server/solr-webapp/webapp/WEB-INF/classes(如果没有classes目录则自行新建一个)

Solr&IK分词器-简单介绍与安装
修改配置文件添加中文分词器 fieldType
首先跳转至/usr/local/solr/solr-7.7.3/server/solr/mycore/conf/目录下

 cd /usr/local/solr/solr-7.7.3/server/solr/mycore/conf/

编辑

 vim managed-schema 
注意如果没有vim命令,使用apt install vim安装即可

在末尾插入

 <fieldType name="text_ik" class="solr.TextField">
            <analyzer type="index" useSmart="false" class="org.wltea.analyzer.lucene.IKAnalyzer" />
            <analyzer type="query" useSmart="true" class="org.wltea.analyzer.lucene.IKAnalyzer" />
    </fieldType>

    <dynamicField name="*_ik" type="text_ik" indexed="true" stored="true"/>

Solr&IK分词器-简单介绍与安装
验证Ik分词器是否配置成功
Solr&IK分词器-简单介绍与安装

结尾
若有错误,请谅解!文章来源地址https://www.toymoban.com/news/detail-469132.html

到了这里,关于Solr&IK分词器-简单介绍与安装的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 高性能API网关Kong介绍

    本文:高性能、API网关、Kong、微服务 ​​​​​​​         API网关是随着微服务(Microservice)概念兴起的一种架构模式。原本一个庞大的单体应用(All in one)业务系统被拆分成许多微服务(Microservice)系统进行独立的维护和部署,服务拆分带来的变化是API的规

    2024年02月03日
    浏览(42)
  • 安装IK分词器

    版本8.5.2 github地址:https://github.com/medcl/elasticsearch-analysis-ik  找到全部发行版本  选择8.5.2版本  在elasticsearch下面的plugins下新建 ik 文件夹  把下载的ik分词器的zip解压到ik文件夹中  重启 elasticsearch和 kibana,在elasticsearch启动时显示ik分词器加载成功  如果没出现,可以在ela

    2024年02月11日
    浏览(39)
  • ik分词器安装

    官方github地址:https://github.com/medcl/elasticsearch-analysis-ik 这里需要注意的是需要下载ES对应版本的ik分词器,我这里下载的是7.6.1版本的ik分词器。下载好的ik分词器zip,解压缩后将其中的所有内容直接复制到ES文件夹的plugins/ik目录下,其中ik目录是自己创建的,然后重启ES服务即

    2024年02月11日
    浏览(35)
  • 一个高性能类型安全的.NET枚举实用开源库

    从零构建.Net前后端分离项目 枚举应该是我们编程中,必不可少的了,今天推荐一个.NET枚举实用开源库,它提供许多方便的扩展方法,方便开发者使用开发。 01 项目简介 Enums.NET是一个.NET枚举实用程序库,专注于为枚举提供丰富的操作方法。它支持.NET Framework和.Net Core。它主

    2024年02月05日
    浏览(39)
  • c++代码实现一个高性能内存池(超详细版本)

    写在前面 本文的内存池代码是改编自Nginx的内存池源码,思路几乎一样。由于Nginx源码的变量命名我不喜欢,又没有注释,看得我很难受。想自己写一版容易理解的代码。这应该是全网独一份的超详细版本了(笑~). 应用场景 写内存池的原理之前,按照惯例先说内存池的应用

    2024年02月06日
    浏览(49)
  • 【ElasticSearch 】IK 分词器安装

    Elasticsearch 要使用 ik,就要先构建 ik 的 jar包,这里要用到 maven 包管理工具,而 maven 需要java 环境,而 Elasticsearch 内置了jdk, 所以可以将JAVA_HOME设置为Elasticsearch 内置的jdk 1)设置JAVA_HOME 2)准备maven安装包 上传 maven 安装包 3)解压maven安装包 tar xzf apache-maven-3.1.1-bin.tar.gz 4)设

    2024年02月07日
    浏览(63)
  • es安装ik分词器

    IK分词器下载地址: https://github.com/medcl/elasticsearch-analysis-ik/releases 下载ES版本对应的分词器即可 安装ik分词器 将下载好的zip包解压,生成一个ik文件夹 将ik文件夹移动到ES安装目录下的 plugins 文件夹下(每台ES节点都要执行相同的操作) 重启ES集群 自定义分词库 用 vim 在ik中的

    2023年04月10日
    浏览(40)
  • Docker安装ik分词器

    首先下载es对应版本的分词器:(最后为版本号) https://github.com/medcl/elasticsearch-analysis-ik/releases/tag/v7.4.0 下载红圈标记的zip 将ik文件上传到宿主机 将压缩包移动到容器中 docker cp /tmp/elasticsearch-analysis-ik-7.4.0.zip 容器ID或NAME:/usr/share/elasticsearch/plugins 进入容器 docker exec -it 容器ID或

    2023年04月11日
    浏览(28)
  • 安装elasticsearch、kibana、IK分词器、扩展IK词典

    后面还会安装 kibana ,这个会提供可视化界面方面学习。 需要注意的是 elasticsearch 和 kibana 版本一定要一样!!! 否则就像这样 1、创建网络 因为我们还需要部署kibana容器,因此需要让es和kibana容器互联。这里先创建一个网络: 2、镜像安装 pull 安装 因为镜像文件比较大,将

    2024年02月02日
    浏览(44)
  • 高性能的全文检索库Apache Lucene 介绍

            Apache Lucene 是一个高性能的全文检索库,由 Apache Software Foundation 维护。Lucene 提供了丰富的 API,用于实现快速、准确的全文搜索。本文将详细介绍 Apache Lucene 的技术特点、应用场景和优势。         Apache Lucene 的历史和发展         Apache Lucene 起源于 1999 年

    2024年03月27日
    浏览(53)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包