Elasticsearch单机版本安装

这篇具有很好参考价值的文章主要介绍了Elasticsearch单机版本安装。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Elasticsearch单机版本安装

1.环境准备

OS: CentOS Linux release 7.9.2009 (Core)

机器:10.28.19.107

ES、Kibana安装版本:7.15.2

Elasticsearch:https://www.elastic.co/cn/downloads/past-releases#elasticsearch
Kibana: https://www.elastic.co/cn/downloads/past-releases#kibana

提前下载好elasticsearch-7.15.2-linux-x86_64.tar.gzkibana-7.15.2-linux-x86_64.tar.gz,上传至/opt目录下。

插件:

注意,下载插件时,请与安装的ES版本保持一至 ,当前ES安装版本为7.17.7,那么下载的插件版本也要为7.17.7。

ik中文分词器:https://github.com/medcl/elasticsearch-analysis-ik/releases

拼英分词器:https://github.com/medcl/elasticsearch-analysis-pinyin/releases

同样,将elasticsearch-analysis-ik-7.15.2.zipelasticsearch-analysis-pinyin-7.15.2.zip安装包上传至/opt目录下。

Java环境:

ES依赖于java环境,请确保机器上已有安装java环境,ES7.x版本对应的是JDK1.8,版本不要弄错。

未安装可自行下载java安装包,进行安装。

java国内下载镜像站:http://www.codebaoku.com/jdk/jdk-oracle-jdk1-8.html

rpm -ivh jdk-8u351-linux-x64.rpm

安装必要组件:

yum install lrzsz lsof unzip -y

上面组件必须要安装,为后面的es安装做准备。

2.系统优化

优化inux资源限制配置文件limits.conf

vim /etc/security/limits.conf

添加以下内容:

# 进程可以最大打开的文件数
* soft nofile 655350
* hard nofile 655350
# 进程可以创建的线程数
* soft nproc 102400
* hard nproc 409600
# 允许进程锁定内存
* soft memlock unlimited
* hard memlock unlimited

  • 第一列表示用户和组(@开头)。第二列表示软限制还是硬限制,第三列表示限制的资源类型,第四列表示限制的最大值;
  • hard和soft的区别: soft是一个警告值,而hard则是一个真正意义的阀值,超过就会报错,一般情况下都是设为同一个值;
  • core是内核文件,nofile是文件描述符,noproc是进程,一般情况下只限制文件描述符数和进程数就够了。

limits.conf详解

修改Linux系统配置文件sysctl.conf

vim /etc/sysctl.conf

添加以下内容:

vm.max_map_count = 262145
fs.file-max=655360

执行下面命令,立即生效:

sysctl -p
  • max_map_count: 文件包含限制一个进程可以拥有的VMA(虚拟内存区域)的数量

  • fs.file-max: 系统中可以同时打开的文件数目

开启端口

这里提前开启端口,为了方便后续的测试验证使用

5601为kibana端口, 9100为head端口, 9200为服务端口,9300为内部节点之间沟通端口
执行下面命令:

firewall-cmd --zone=public --add-port=5601/tcp --permanent
firewall-cmd --zone=public --add-port=9100/tcp --permanent
firewall-cmd --zone=public --add-port=9200/tcp --permanent
firewall-cmd --zone=public --add-port=9300/tcp --permanent
firewall-cmd --reload

3.安装ES

3.1安装ES

规划安装目录是/opt

elasticsearch-7.15.2-linux-x86_64.tar.gz安装包提前放置在/opt目录下

cd /opt
tar -xf elasticsearch-7.15.2-linux-x86_64.tar.gz
mv elasticsearch-7.15.2 elasticsearch
mkdir -p /opt/elasticsearch/data

修改es配置文件

vim /opt/elasticsearch/config/elasticsearch.yml

添加以下内容,配置文件是yaml语法,注意key与value之间要有空格

# es集群名称,默认elasticsearch,es会自动发现在同一网段下es,如果在同一网段下有多个集群,可用这个属性来区分不同的集群
cluster.name: elasticsearch
# 节点名,默认随机指定一个name列表中名字,该列表在es的jar包中config文件夹里name.txt文件中
node.name: es-node0
# 索引数据存储路径,默认es根目录下data文件夹,可设置多个存储路径,用逗号隔开,例:/path/to/data1,/path/to/data2
path.data: /opt/elasticsearch/data
# 设置日志文件的存储路径,默认是es根目录下的logs文件夹
path.logs: /opt/elasticsearch/logs
# 设置对外服务的http端口,默认为9200
http.port: 9200
# 网络地址
network.host: 0.0.0.0
# es7.x 之后新增的配置,初始化一个新的集群时需要此配置来选举master
cluster.initial_master_nodes: ["es-node0"]
# 7.13以上版本,禁用安全选项
xpack.security.enabled: false
# 内部node之间的传输层地址
transport.host: localhost
# 指定elasticsearch集群内数据通讯使用的端口,默认情况下为9300
transport.tcp.port: 9300

从5.0开始 elasticsearch 安全级别提高了,不允许采用root帐号启动, 所以需要添加一个用户用来启动 elasticsearch,创建es用户并给elasticsearch安装目录赋予权限。

创建es用户,并授权安装目录

useradd es
chown -R es:es /opt/elasticsearch

3.2安装插件

这里安装下ik中文分词器插件、拼英分词器插件

elasticsearch-analysis-ik-7.15.2.zipelasticsearch-analysis-pinyin-7.15.2.zip解压放入ES插件目录下:

unzip -d /opt/elasticsearch/plugins/ik elasticsearch-analysis-ik-7.15.2.zip
unzip -d /opt/elasticsearch/plugins/pinyin elasticsearch-analysis-pinyin-7.15.2.zip

再次授权安装目录:

chown -R es:es /opt/elasticsearch

3.3创建ES服务脚本文件

创建ES服务脚本文件:

tee /usr/lib/systemd/system/elasticsearch.service << \EOF
# 主要用于配置整个服务的详情信息以及服务依赖,用于快速识别该服务的相关情况以及依赖项目
[Unit]
# 描述这个 Unit 文件的信息
Description=elasticsearch7.15.2
# 文档地址
Documentation=https://www.elastic.co
# 描述服务类别,表示本服务需要在network服务启动后在启动
After=network.target

# 主要用于配置整个服务生命周期的管理行为
[Service]
# 设置服务运行的用户
User=es
# 服务将以fork分叉的方式启动,此时父进程将会退出,子进程将成为主进程。
Type=simple
# 服务启动命令,命令需要绝对路径
ExecStart=/opt/elasticsearch/bin/elasticsearch
# 表示给服务分配独立的临时空间
PrivateTmp=true
# 设置内核可以同时打开的文件描述符的最大值.单位:n(相当于ulimit -n),infinity代表当前用户达到的上限
LimitNOFILE=65535
# 设置进程数目:用户最多可启动的进程数目(相当于ulimit -u),infinity代表当前用户达到的上限
LimitNPROC=4096
# 不自动重启
Restart=no

# 用于配置服务安装级别,当我们设置服务在Linux的那种级别下启动或开机自启动时会加载该部分(典型的当chkconfig nginx on或者systemctl enable|disable nginx.service时会读取该部分的配置)
[Install]
# 多用户,表示多用户命令行状态,这个设置很重要
WantedBy=multi-user.target
EOF

重新加载服务、设置开机启动、启动服务:

systemctl daemon-reload
systemctl enable elasticsearch
systemctl start elasticsearch

ES停止、重启命令:

systemctl stop elasticsearch
systemctl restart elasticsearch

测试访问ES:

http://10.28.19.110:9200

或者

curl http://127.0.0.1:9200

4.安装Kibana

4.1安装Kibana

规划安装目录是/opt

kibana-7.15.2-linux-x86_64.tar.gz安装包提前放置在/opt目录下

cd /opt
tar -xf kibana-7.15.2-linux-x86_64.tar.gz
mv kibana-7.15.2 elasticsearch-kibana

修改kibana配置文件

vim /opt/elasticsearch-kibana/config/kibana.yml

最下面添加以下内容,配置文件是yaml语法,注意key与value之间要有空格

# 服务名称,默认值:“your-hostname”用于标识此Kibana实例的可读显示名称
server.name: "kibana"
# 默认值:“localhost”此设置指定后端服务器的主机
server.host: "0.0.0.0"
# kibana中文界面显示
i18n.locale: "zh-CN"
# Elasticsearch实例
elasticsearch.hosts: [ "http://10.28.19.110:9200" ]
# 指定Kibana进程ID文件的路径
pid.file: /opt/elasticsearch-kibana/pid

同样,这里kibana也授权给es来启动

授权给es用户组

chown es:es -R /opt/elasticsearch-kibana

4.2 创建Kibana服务脚本

创建Kibana服务脚本文件:

tee /usr/lib/systemd/system/kibana.service << \EOF
# 主要用于配置整个服务的详情信息以及服务依赖,用于快速识别该服务的相关情况以及依赖项目
[Unit]
Description=kibana7.15.2
# 描述服务类别,表示本服务需要在network服务启动后在启动
After=network.target

# 主要用于配置整个服务生命周期的管理行为
[Service]
# 设置服务运行的用户
User=es
# 服务将以fork分叉的方式启动,此时父进程将会退出,子进程将成为主进程。
Type=simple
# 安装目录
WorkingDirectory=/opt/elasticsearch-kibana
# 服务启动命令,命令需要绝对路径
ExecStart=/opt/elasticsearch-kibana/bin/kibana
ExecStop=/usr/bin/kill -15 $MAINPID
ExecReload=/usr/bin/kill -HUP $MAINPID
# 表示给服务分配独立的临时空间
PrivateTmp=true
# 限制进程使用的文件描述符数量,等同ulimit -n
LimitNOFILE=65536
# 限制进程的数量,等同于ulimit -u
LimitNPROC=2048

# 等待服务停止的时间(以秒为单位)
TimeoutStopSec=0
# 设置杀死进程的第一步使用什么信号,所有可用的信号详见 signal(7) 手册。默认值为SIGTERM信号。
# 注意,systemd会无条件的紧跟此信号之后再发送一个SIGCONT信号,以确保干净的杀死已挂起(suspended)的进程。
KillSignal=SIGTERM
# 设置在单元停止时,杀死进程的方法。
# 取值范围如:control-group, process, mixed, none 默认值是 control-group 表示杀死该单元的 cgroup 内的所有进程(对于 service 单元,还要先执行 ExecStop= 动作)
KillMode=process
# 是否在超过 TimeoutStopSec= 时间后,使用 SIGKILL 或 FinalKillSignal= 信号杀死依然残存的进程。默认值为"yes"
SendSIGKILL=no
# 配置项 SuccessExitStatus=143 是为了抑制stop时报错 Main process exited, code=exited, status=143/n/a
# 这是因为 java 程序在响应 SIGTERM 时不会并不会发回预期的退出状态
# 所以需要将退出代码 SuccessExitStatus=143 添加到 systemd 服务文件作为成功退出状态来抑制这种报错
SuccessExitStatus=143

# 用于配置服务安装级别,当我们设置服务在Linux的那种级别下启动或开机自启动时会加载该部分(典型的当chkconfig nginx on或者systemctl enable|disable nginx.service时会读取该部分的配置)
[Install]
# 多用户,表示多用户命令行状态,这个设置很重要
WantedBy=multi-user.target
EOF

重新加载服务、设置开机启动、启动服务:

systemctl daemon-reload
systemctl enable kibana
systemctl start kibana

Kibana停止、重启命令:

systemctl stop kibana
systemctl restart kibana

测试访问Kibana:

http://10.28.19.110:5601

5.引用Reference

CentOS8搭建nfs服务
Kubernetes 1.25.4版本安装
kubeasz安装kubernetes1.25.5
k8s一键安装redis单机版
k8s一键安装mysql8单机版
k8s部署springboot应用
Docker安装及学习
Docker制作springboot运行应用镜像
Docker制作Java8环境镜像
Docker安装Mysql5.7.31
Docker安装Mysql8.1.0
Elasticsearch单机版本安装
Elasticsearch集群安装
ELK安装
Docker安装ELK
zookeeper集群安装
Nginx日志切割
RabbitMQ集群安装
springboot集成prometheus+grafana
windows11安装android应用文章来源地址https://www.toymoban.com/news/detail-413085.html

到了这里,关于Elasticsearch单机版本安装的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 安装配置 zookeeper(单机版)

    目录 一 准备并解压安装包 二 修改zoo.cfg文件 三 创建相应两个目录 四 创建文件myid  五 修改环境变量 六 启动 zookeeper         这里提供了网盘资源  http://链接: https://pan.baidu.com/s/1BybwSQ_tQUL23OI6AWxwFw?pwd=d4cf         提取码: d4cf         这里的安装包是放在/opt/install 目

    2024年02月08日
    浏览(58)
  • Nacos单机版安装启动流程

    安装地址:https://github.com/alibaba/nacos/ 1、选择自己需要的版本  2、选择自己的环境下在对应的压缩包  3、下载后放到自己的文件目录中解压 4、window环境修改startup.cmd文件,改为单机部署后,就可以直接点击cmd文件直接启动了 mac通过终端进入cd ~/nacos/bin 目录下,通过命令 

    2024年02月11日
    浏览(57)
  • 【大数据】安装 Zookeeper 单机版

    下面安装 Zookeeper,由于它是 Apache 的一个顶级项目,所以域名是 zookeeper.apache.org ,所有 Apache 的顶级项目的官网都是以项目名 .apache.org 来命名的。 点击 Download 即可下载,这里我们选择的版本是 3.5.10 ,下载之后扔到服务器上。由于 Zookeeper 是基于 Java 语言编写的,所以还需要

    2024年02月03日
    浏览(48)
  • HBase单机版安装详细步骤

    目录 一、安装HBase前置环境 1.jdk 2.hadoop 3.zookeeper 二、安装HBase步骤 (一)解压 (二)修改文件名 (三)修改配置文件 (四)配置HBase的环境变量 (五)启动HBase 1.启动hadoop 2.启动zookeeper 3.启动hbase 4.jps出现HMaster和HRegionServer 5.HBase的WebUI (六)HBase的逻辑结构: (七)HBase基本命令  1.进入HBase

    2024年02月07日
    浏览(60)
  • docker 安装zookeeper单机版

    1. 安装版本3.5.7 ,  也可以自己去官网找到自己需要的版本复制命令即可    https://hub.docker.com/_/zookeeper/tags   2. 创建映射文件夹 :        3. docker命令创建容器 :     4.centos 打开防火墙2181端口,如果是云服务器的话,阿里云控制台打开云服务器2181端口就可以了。 5. 下载客

    2024年02月13日
    浏览(51)
  • Flink单机版安装教程 - 步骤详解

    本教程详细介绍了如何在单机环境下安装和启动Apache Flink 1.16.0版本。包括下载稳定版安装包,使用tar命令解压,以及通过start-cluster.sh脚本启动Flink集群。

    2024年02月11日
    浏览(49)
  • Azkaban学习——单机版安装与部署

    目录 1.解压改名 2.修改装有mysql的虚拟机的my.cnf文件 3.重启装有mysql的虚拟机 4.Datagrip创建azkaban数据库,执行脚本文件 5.修改/opt/soft/azkaban-exec/conf/azkaban.properties文件 6.修改commonprivate.properties 7.传入mysql-connector-java-8.0.29.jar 8.开启Azkaban服务 9.进入Datagrip查看是否成功激活 10.激活

    2024年02月04日
    浏览(56)
  • Hive学习——单机版Hive的安装

    目录 一、基本概念 (一)Hive概念 (二)优势和特点 (三)Hive元数据管理 (四)Hive架构 (五)Hive Interface – 其他使用环境 二、Hive环境搭建 1.自动安装脚本 2./opt/soft/hive312/conf目录下创建hive配置文件hive-site.xml 3.拷贝一个jar包到hive下面的lib目录下 4.删除hive的guava,拷贝hadoop下的guava 5.重启

    2023年04月17日
    浏览(51)
  • centos7安装hadoop 单机版

    1.解压 (1)将hadoop压缩包复制到/opt/software路径下 (2)解压hadoop到/opt/module目录下 [root@kb135 software]# tar -zxvf hadoop-3.1.3.tar.gz -C /opt/module/ (3)修改hadoop属主和属组 [root@kb135 module]# chown -R root:root ./hadoop-3.1.3/ 2.配置环境变量 [root@kb135 module]# vim /etc/profile # HADOOP_HOME export HADOOP_HOME

    2024年02月11日
    浏览(45)
  • Docker基于本地文件安装Nacos单机版

    导出镜像: 删除原有镜像: 导入镜像: 启动nacos: 浏览器访问:http://localhost:8848/nacos,用户名和密码默认都是nacos

    2024年02月21日
    浏览(98)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包