kubersphere部署elk集群无tls

这篇具有很好参考价值的文章主要介绍了kubersphere部署elk集群无tls。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

elasticsearch

存储: 
- es-data-pvc, RWO, 读写, /usr/share/elasticsearch/data #数据
- es-plugins-pvc, RWO, 读写, /usr/share/elasticsearch/plugins #插件
- es-logs-pvc, RWO, 读写, /usr/share/elasticsearch/logs #日志
配置: elasticsearch-cm, elasticsearch.yml, 只读, /usr/share/elasticsearch/config/elasticsearch.yml, 子路径方式挂载elasticsearch.yml
秘钥: 
服务: 有状态服务
名称: elasticsearch
镜像: elasticsearch:7.17.10
副本数量: 3
环境变量: ES_JAVA_OPTS=-Xms128m -Xmx128m
启动命令: 
端口: HTTP 9200=9200 9300=9300
资源: 
时区: 同步主机时区

elasticsearch.yml

######节点配置#######
# 【修改】安全选项
xpack.security.enabled: false
# 节点名称,每个节点的名称不能重复,这里不指定,使用当前主机的名称
# node.name: 
# 【修改】允许所有IP访问
network.host: 0.0.0.0
# 是否能够成为主节点
node.master: true
# 是否可以存储数据
node.data: true
http.port: 9200
# 跨域
http.cors.allow-origin: "*"
http.cors.enabled: true
http.max_content_length: 200mb
network.tcp.keep_alive: true
network.tcp.no_delay: true
gateway.recover_after_nodes: 2
transport.tcp.compress: true
# root用户,JVM堆内存锁定在物理内存中,不允许交换到磁盘,这里关闭
bootstrap.memory_lock: false
######集群配置#######
# 集群名称
cluster.name: es-cluster
# 【修改】es7.x,初始master节点,填写node.name(默认是主机名),这里就是主机名
cluster.initial_master_nodes: ["elasticsearch-v1-0"]
# 【修改】es7.x,节点发现,填写所有es服务的域名
discovery.seed_hosts: ["elasticsearch-v1-0.elasticsearch.test-project.svc.cluster.local:9300","elasticsearch-v1-1.elasticsearch.test-project.svc.cluster.local:9300","elasticsearch-v1-2.elasticsearch.test-project.svc.cluster.local:9300"]
# 集群内同时启动的数据任务个数,默认是 2 个
cluster.routing.allocation.cluster_concurrent_rebalance: 2
# 添加或删除节点及负载均衡时并发恢复的线程个数,默认 4 个
cluster.routing.allocation.node_concurrent_recoveries: 4
# 初始化数据恢复时,并发恢复线程的个数,默认 4 个
cluster.routing.allocation.node_initial_primaries_recoveries: 4

测试

curl http://elasticsearch-v1-0.elasticsearch.test-project.svc.cluster.local:9200/_cat/nodes?pretty

补充

# svc域名规则
(podname).(headless server name).(namespace).svc.cluster.local

kibana

存储: 
配置: kibana-cm, kibana.yml, 只读, /usr/share/kibana/config/kibana.yml, 子路径方式挂载
秘钥: 
服务: 有状态服务
名称: kibana
镜像: kibana:7.17.10
端口: HTTP 5601:5601
副本数量:
环境变量: 
启动命令: 
资源限制: 
外部访问: NodePort
时区: 同步主机时区

kibana.yml

i18n.locale: "zh-CN"
# 接受来自所有网络的请求
server.host: "0.0.0.0"
server.shutdownTimeout: "5s"
# 【修改】Elasticsearch 集群的地址
elasticsearch.hosts: 
- "http://elasticsearch-v1-0.elasticsearch.test-project.svc.cluster.local:9200"
- "http://elasticsearch-v1-1.elasticsearch.test-project.svc.cluster.local:9200"
- "http://elasticsearch-v1-2.elasticsearch.test-project.svc.cluster.local:9200"
# 是否启用 Elasticsearch 存储监控数据
monitoring.ui.container.elasticsearch.enabled: false
# 【修改】访问kibana的地址
#server.publicBaseUrl: "http://192.168.1.102:5601"

测试

# 浏览器访问
http://192.168.1.102:30335
# kibana操作索引(kibana左侧Management/Dev Tools)
## 获取es结点信息
GET _cat/nodes?v
## 获取集群状态信息
GET /_cluster/stats?pretty
## 创建索引
PUT /testidx
## 查询索引
GET /testidx
## 向索引添加记录
PUT /testidx/_doc/1
{
	"name": "xcrj",
	"sex": 1,
	"age": 18
}
# 查询索引记录
GET /testidx/_doc/1

logstash

存储: 
配置: 
- logstash-cm-config, logstash.yml, 只读, /usr/share/logstash/config/logstash.yml, 子路径方式挂载
- logstash-cm-pipeline, logstash.conf, 只读, /usr/share/logstash/pipeline/logstash.conf, 子路径方式挂载
秘钥: 
服务: 有状态服务
名称: logstash
镜像: logstash:7.17.10
端口: HTTP 5044:5044
副本数量: 
环境变量: 
启动命令: 
资源限制: 
外部访问: 
时区: 同步主机时区

logstash.yml

#path.config: /etc/logstash/conf.d/*.conf
#xpack.monitoring.enabled: true
# 【修改】
xpack.monitoring.elasticsearch.hosts:
- "http://elasticsearch-v1-0.elasticsearch.test-project.svc.cluster.local:9200"
- "http://elasticsearch-v1-1.elasticsearch.test-project.svc.cluster.local:9200"
- "http://elasticsearch-v1-2.elasticsearch.test-project.svc.cluster.local:9200"

logstash.conf

input {
  tcp {
    mode => "server"
    host => "0.0.0.0"
    port => 5044
    codec => json_lines
  }
}
output {
  elasticsearch {
    hosts => ["http://elasticsearch-v1-0.elasticsearch.test-project.svc.cluster.local:9200","http://elasticsearch-v1-1.elasticsearch.test-project.svc.cluster.local:9200","http://elasticsearch-v1-2.elasticsearch.test-project.svc.cluster.local:9200"]
    index => "%{[spring.application.name]}-%{+YYYY.MM.dd}"
  }
}

测试文章来源地址https://www.toymoban.com/news/detail-521658.html

# 浏览器访问
http://192.168.1.102:30335
# kibana操作索引(kibana左侧Management/Dev Tools)
## logstash状态信息
GET _node/_doc/pipeline

参考

  • https://blog.csdn.net/qq_20143059/article/details/112992016

到了这里,关于kubersphere部署elk集群无tls的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 8版本ELK集群部署

    elasticsearch官网地址:Elasticsearch:官方分布式搜索和分析引擎 | Elastic 第一步: 环境配置(每一台都做) 配置主机名、配置IP地址、每台主机配置/etc/hosts名称解析 192.168.11.128 es1 192.168.11.130 es2 192.168.11.138 es3 将Linux系统的软硬限制最大文件数改为65536,将所有用户的最大线程数修

    2024年02月06日
    浏览(43)
  • ansible 部署 elk 集群

    一、安装ansible 1) 配置自己的yum 源 [root@node-4 ~]# cat /etc/yum.repos.d/local.repo [centos] name=centos baseurl= http://192.168.100.20/openstack/centos gpgcheck=0 enabeld=1 [ansible] name=ansible gpgcheck=0 enabled=1 baseurl= http://192.168.100.20/openstack/ansible 2) 下载ansible  修改配置   [root@node-4 ~]# vi /etc/ansible/hosts [nod

    2024年02月02日
    浏览(42)
  • RabbitMQ 消息中间件与集群的部署

    1、消息中间件 1、简介 消息中间件也可以称消息队列,是指用高效可靠的消息传递机制进行与平台无关的数据交流,并基于数据通信来进行分布式系统的集成。通过提供消息传递和消息队列模型,可以在分布式环境下扩展进程的通信。 当下主流的消息中间件有RabbitMQ、Kafka、

    2024年02月21日
    浏览(48)
  • ELK集群部署---LogStash,Filebeat的部署

    1.  环境规划: 主机名 IP地址 角色 node1 192.168.56.111 ElasticSearch(master) Zookeeper Kafka node2 192.168.56.112 ElasticSearch(slave) Kibana Zookeeper Kafka node3 192.168.56.113 ElasticSearch(slave) Zookeeper Kafka node4 192.168.56.114 Logstash Filebeat

    2023年04月18日
    浏览(41)
  • Ansible 部署ELK集群服务

    使用赛项提供的 OpenStack私有云平台,创建三台 CentOS7.9 系统的云主机分别命名为 elk-1、elk-2 和 elk-3,Ansible主机可以使用上一题的环境。要求 Ansible 节点编写剧本,执行 Ansible 剧本可以在这三个节点部署 ELK 集群服务 (在/root/目录下创建 install_elk 目录作为 ansible 工作目录,部

    2024年02月12日
    浏览(50)
  • 【Kubernetes部署Shardingsphere、Mycat、Mysql、Redis、中间件Rocketmq、Rabbitmq、Nacos】

    部署Shardingsphere、Mycat、Mysql、Redis、中间件Rocketmq、Rabbitmq、Nacos的步骤如下: 安装Docker和Kubernetes环境。 部署MySQL: a. 在Kubernetes中创建一个MySQL的Service,可以使用外部LoadBalancer或ClusterIP类型的Service。 b. 创建MySQL的Deployment对象,并设置相关的配置,如镜像名称、环境变量等。

    2024年02月09日
    浏览(56)
  • ELK 企业级日志分析系统的概念、ELK Elasticsearch 集群部署

    1、ELK 简介 ELK平台是一套完整的日志集中处理解决方案,将 ==ElasticSearch、Logstash 和 Kiabana ==三个开源工具配合使用, 完成更强大的用户对日志的查询、排序、统计需求。 ElasticSearch 是基于Lucene(一个全文检索引擎的架构)开发的分布式存储检索引擎,用来存储各类日志。 E

    2024年02月16日
    浏览(52)
  • centos7.6部署ELK集群(一)之elasticsearch7.7.0集群部署

    32.3. 部署es7.7.0 32.3.1. 下载es(各节点都做) wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.7.0-linux-x86_64.tar.gz 32.3.2. 解压至安装目录(各节点都做) tar -xvf elasticsearch-7.7.0-linux-x86_64.tar.gz -C /vmdata/ 32.3.3. 创建es用户并设置密码(各节点都做) ES 7.x 开始不再允许以任何方

    2023年04月17日
    浏览(45)
  • 在k8s集群部署ELK

    使用kubeadm或者其他方式部署一套k8s集群。 在k8s集群创建一个namespace:halashow 3.1 准备资源配置清单  Deployment中存在一个es的业务容器,和一个init容器,init容器主要是配置vm.max_map_count=262144。 service暴露了9200端口,其他服务可通过service name加端口访问es。 3.1 准备资源配置清单

    2024年02月04日
    浏览(55)
  • k8s部署elk+filebeat+logstash+kafka集群(一)ES集群+kibana部署

    前言: 这次是在部署后很久才想起来整理了下文档,如有遗漏见谅,期间也遇到过很多坑有些目前还没头绪希望有大佬让我学习下 一、环境准备 k8s-master01 3.127.10.209 k8s-master02 3.127.10.95 k8s-master03 3.127.10.66 k8s-node01 3.127.10.233 k8s-node02 3.127.33.173 harbor 3.127.33.174 1、k8s各节点部署nf

    2023年04月23日
    浏览(40)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包