【kubernetes】使用kubepshere部署中间件服务

这篇具有很好参考价值的文章主要介绍了【kubernetes】使用kubepshere部署中间件服务。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

KubeSphere部署中间件服务

入门使用KubeSphere部署单机版MySQL、Redis、RabbitMQ
记录一下搭建过程
(内容学习于尚硅谷云原生课程)

环境准备

  • VMware虚拟机
  • k8s集群,一主两从,master也作为工作节点;
  • KubeSphere
    【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器
    k8s+kubesphere devops比较占用磁盘和内存
    【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器

中间件部署

部署RabbitMQ

本次采用应用商店部署

进入应用商店
【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器
选择RabbitMQ,直接部署即可
【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器

设置账号密码
【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器
在应用负载-应用菜单中,可以查看到
【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器
【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器

查看服务信息,只是集群内网访问,配置一下外网访问
【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器
【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器
测试访问

http://192.168.8.11:30621
admin
admin

【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器

部署Redis

创建Redis配置

配置中心-配置
创建配置
【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器

创建工作负载

配置计算资源1C2G,配置启动命令、同步主机时区
【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器
挂载存储
添加存储卷,挂载/data目录
【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器
挂载配置文件
【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器

配置服务

允许外网访问
【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器

测试访问
【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器

部署MySQL

创建配置文件

【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器

#配置文件
[client]
default-character-set=utf8mb4
 
[mysql]
default-character-set=utf8mb4
 
[mysqld]
init_connect='SET collation_connection = utf8mb4_unicode_ci'
init_connect='SET NAMES utf8mb4'
character-set-server=utf8mb4
collation-server=utf8mb4_unicode_ci
skip-character-set-client-handshake
skip-name-resolve

【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器
【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器

创建存储卷

【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器
【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器
【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器

创建有状态副本集

应用负载-工作负载-有状态副本集
【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器
选择要拉取的镜像信息,这里可以使用默认端口
【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器
在下面的表单中,会自动带出
【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器
配置计算资源,设置最大1核2G
【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器
配置环境变量
【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器
选√,点下一步

配置挂载存储

添加存储卷
【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器
挂载配置文件
【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器
选√,点下一步

创建
【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器

部署Nacos集群

版本为2.1.1

准备配置文件

配置中心,创建nacos配置文件
【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器

application.properties,cluster.conf
application.properties
#
# Copyright 1999-2021 Alibaba Group Holding Ltd.
#
# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
#      http://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
#

#*************** Spring Boot Related Configurations ***************#
### Default web context path:
server.servlet.contextPath=/nacos
### Include message field
server.error.include-message=ON_PARAM
### Default web server port:
server.port=8848

#*************** Network Related Configurations ***************#
### If prefer hostname over ip for Nacos server addresses in cluster.conf:
nacos.inetutils.prefer-hostname-over-ip=true

### Specify local server's IP:
# nacos.inetutils.ip-address=


#*************** Config Module Related Configurations ***************#
### If use MySQL as datasource:
spring.datasource.platform=mysql

### Count of DB:
db.num=1

### Connect URL of DB:
db.url.0=jdbc:mysql://kw-mysql.my-server:3306/nacos?characterEncoding=utf8&connectTimeout=1000&socketTimeout=3000&autoReconnect=true&useUnicode=true&useSSL=false&serverTimezone=UTC
db.user.0=root
db.password.0=root

### Connection pool configuration: hikariCP
db.pool.config.connectionTimeout=30000
db.pool.config.validationTimeout=10000
db.pool.config.maximumPoolSize=20
db.pool.config.minimumIdle=2

#*************** Naming Module Related Configurations ***************#
### Data dispatch task execution period in milliseconds: Will removed on v2.1.X, replace with nacos.core.protocol.distro.data.sync.delayMs
# nacos.naming.distro.taskDispatchPeriod=200

### Data count of batch sync task: Will removed on v2.1.X. Deprecated
# nacos.naming.distro.batchSyncKeyCount=1000

### Retry delay in milliseconds if sync task failed: Will removed on v2.1.X, replace with nacos.core.protocol.distro.data.sync.retryDelayMs
# nacos.naming.distro.syncRetryDelay=5000

### If enable data warmup. If set to false, the server would accept request without local data preparation:
# nacos.naming.data.warmup=true

### If enable the instance auto expiration, kind like of health check of instance:
# nacos.naming.expireInstance=true

### will be removed and replaced by `nacos.naming.clean` properties
nacos.naming.empty-service.auto-clean=true
nacos.naming.empty-service.clean.initial-delay-ms=50000
nacos.naming.empty-service.clean.period-time-ms=30000

### Add in 2.0.0
### The interval to clean empty service, unit: milliseconds.
# nacos.naming.clean.empty-service.interval=60000

### The expired time to clean empty service, unit: milliseconds.
# nacos.naming.clean.empty-service.expired-time=60000

### The interval to clean expired metadata, unit: milliseconds.
# nacos.naming.clean.expired-metadata.interval=5000

### The expired time to clean metadata, unit: milliseconds.
# nacos.naming.clean.expired-metadata.expired-time=60000

### The delay time before push task to execute from service changed, unit: milliseconds.
# nacos.naming.push.pushTaskDelay=500

### The timeout for push task execute, unit: milliseconds.
# nacos.naming.push.pushTaskTimeout=5000

### The delay time for retrying failed push task, unit: milliseconds.
# nacos.naming.push.pushTaskRetryDelay=1000

### Since 2.0.3
### The expired time for inactive client, unit: milliseconds.
# nacos.naming.client.expired.time=180000

#*************** CMDB Module Related Configurations ***************#
### The interval to dump external CMDB in seconds:
# nacos.cmdb.dumpTaskInterval=3600

### The interval of polling data change event in seconds:
# nacos.cmdb.eventTaskInterval=10

### The interval of loading labels in seconds:
# nacos.cmdb.labelTaskInterval=300

### If turn on data loading task:
# nacos.cmdb.loadDataAtStart=false


#*************** Metrics Related Configurations ***************#
### Metrics for prometheus
#management.endpoints.web.exposure.include=*

### Metrics for elastic search
management.metrics.export.elastic.enabled=false
#management.metrics.export.elastic.host=http://localhost:9200

### Metrics for influx
management.metrics.export.influx.enabled=false
#management.metrics.export.influx.db=springboot
#management.metrics.export.influx.uri=http://localhost:8086
#management.metrics.export.influx.auto-create-db=true
#management.metrics.export.influx.consistency=one
#management.metrics.export.influx.compressed=true

#*************** Access Log Related Configurations ***************#
### If turn on the access log:
server.tomcat.accesslog.enabled=true

### The access log pattern:
server.tomcat.accesslog.pattern=%h %l %u %t "%r" %s %b %D %{User-Agent}i %{Request-Source}i

### The directory of access log:
server.tomcat.basedir=file:.

#*************** Access Control Related Configurations ***************#
### If enable spring security, this option is deprecated in 1.2.0:
#spring.security.enabled=false

### The ignore urls of auth, is deprecated in 1.2.0:
nacos.security.ignore.urls=/,/error,/**/*.css,/**/*.js,/**/*.html,/**/*.map,/**/*.svg,/**/*.png,/**/*.ico,/console-ui/public/**,/v1/auth/**,/v1/console/health/**,/actuator/**,/v1/console/server/**

### The auth system to use, currently only 'nacos' and 'ldap' is supported:
nacos.core.auth.system.type=nacos

### If turn on auth system:
nacos.core.auth.enabled=false

### Turn on/off caching of auth information. By turning on this switch, the update of auth information would have a 15 seconds delay.
nacos.core.auth.caching.enabled=true

### Since 1.4.1, Turn on/off white auth for user-agent: nacos-server, only for upgrade from old version.
nacos.core.auth.enable.userAgentAuthWhite=false

### Since 1.4.1, worked when nacos.core.auth.enabled=true and nacos.core.auth.enable.userAgentAuthWhite=false.
### The two properties is the white list for auth and used by identity the request from other server.
nacos.core.auth.server.identity.key=serverIdentity
nacos.core.auth.server.identity.value=security

### worked when nacos.core.auth.system.type=nacos
### The token expiration in seconds:
nacos.core.auth.plugin.nacos.token.expire.seconds=18000
### The default token:
nacos.core.auth.plugin.nacos.token.secret.key=SecretKey012345678901234567890123456789012345678901234567890123456789

### worked when nacos.core.auth.system.type=ldap,{0} is Placeholder,replace login username
#nacos.core.auth.ldap.url=ldap://localhost:389
#nacos.core.auth.ldap.basedc=dc=example,dc=org
#nacos.core.auth.ldap.userDn=cn=admin,${nacos.core.auth.ldap.basedc}
#nacos.core.auth.ldap.password=admin
#nacos.core.auth.ldap.userdn=cn={0},dc=example,dc=org


#*************** Istio Related Configurations ***************#
### If turn on the MCP server:
nacos.istio.mcp.server.enabled=false

#*************** Core Related Configurations ***************#

### set the WorkerID manually
# nacos.core.snowflake.worker-id=

### Member-MetaData
# nacos.core.member.meta.site=
# nacos.core.member.meta.adweight=
# nacos.core.member.meta.weight=

### MemberLookup
### Addressing pattern category, If set, the priority is highest
# nacos.core.member.lookup.type=[file,address-server]
## Set the cluster list with a configuration file or command-line argument
# nacos.member.list=192.168.16.101:8847?raft_port=8807,192.168.16.101?raft_port=8808,192.168.16.101:8849?raft_port=8809
## for AddressServerMemberLookup
# Maximum number of retries to query the address server upon initialization
# nacos.core.address-server.retry=5
## Server domain name address of [address-server] mode
# address.server.domain=jmenv.tbsite.net
## Server port of [address-server] mode
# address.server.port=8080
## Request address of [address-server] mode
# address.server.url=/nacos/serverlist

#*************** JRaft Related Configurations ***************#

### Sets the Raft cluster election timeout, default value is 5 second
# nacos.core.protocol.raft.data.election_timeout_ms=5000
### Sets the amount of time the Raft snapshot will execute periodically, default is 30 minute
# nacos.core.protocol.raft.data.snapshot_interval_secs=30
### raft internal worker threads
# nacos.core.protocol.raft.data.core_thread_num=8
### Number of threads required for raft business request processing
# nacos.core.protocol.raft.data.cli_service_thread_num=4
### raft linear read strategy. Safe linear reads are used by default, that is, the Leader tenure is confirmed by heartbeat
# nacos.core.protocol.raft.data.read_index_type=ReadOnlySafe
### rpc request timeout, default 5 seconds
# nacos.core.protocol.raft.data.rpc_request_timeout_ms=5000

#*************** Distro Related Configurations ***************#

### Distro data sync delay time, when sync task delayed, task will be merged for same data key. Default 1 second.
# nacos.core.protocol.distro.data.sync.delayMs=1000

### Distro data sync timeout for one sync data, default 3 seconds.
# nacos.core.protocol.distro.data.sync.timeoutMs=3000

### Distro data sync retry delay time when sync data failed or timeout, same behavior with delayMs, default 3 seconds.
# nacos.core.protocol.distro.data.sync.retryDelayMs=3000

### Distro data verify interval time, verify synced data whether expired for a interval. Default 5 seconds.
# nacos.core.protocol.distro.data.verify.intervalMs=5000

### Distro data verify timeout for one verify, default 3 seconds.
# nacos.core.protocol.distro.data.verify.timeoutMs=3000

### Distro data load retry delay when load snapshot data failed, default 30 seconds.
# nacos.core.protocol.distro.data.load.retryDelayMs=30000

修改的地方:
配置数据库连接;
nacos.inetutils.prefer-hostname-over-ip 该项改为true

db.num=1

### Connect URL of DB:
db.url.0=jdbc:mysql://kw-mysql.my-server:3306/nacos?characterEncoding=utf8&connectTimeout=1000&socketTimeout=3000&autoReconnect=true&useUnicode=true&useSSL=false&serverTimezone=UTC
db.user.0=root
db.password.0=root

nacos.inetutils.prefer-hostname-over-ip=true
cluster.conf

为什么这么写呢?先部署一个nacos看看它的dns,进入容器内,ping kw-nacos.my-server

【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器
返回信息是 容器名.服务名.项目名.svc.cluster.local
【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器

#it is ip
#example
kw-nacos-v1-0.kw-nacos.my-server.svc.cluster.local:8848
kw-nacos-v1-1.kw-nacos.my-server.svc.cluster.local:8848
kw-nacos-v1-2.kw-nacos.my-server.svc.cluster.local:8848
创建有状态服务

副本数量3个
镜像选择nacos/nacos-server:v2.1.1
【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器

指定tcp端口8848,grpc端口9848 9849,同步主机时区;

挂载配置文件;
注意:因为上面的配置是多个配置文件,这里要指定子路径
【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器

下一步,创建即可。

等会,查看服务
【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器

创建应用路由

指定域名方式

【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器

在宿主机hosts文件中,增加域名解析

192.168.8.22 kw.nacos.cn

测试访问
【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器

部署一个网关,查看注册情况
【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器

ps:目前对ingress-nginx还不熟,有待完善。看马士兵的课程,里面使用到openELB apisix,
最终的访问应该是域名,并且是 80端口,即可访问k8s集群的应用。

问题记录

pod调度报错

【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器

0/3 nodes are available: 1 node(s) had taint {node-role.kubernetes.io/master: }, that the pod didn't tolerate, 2 Insufficient cpu.

【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器

#解决:
#允许master节点部署pod
kubectl taint nodes k8s-master node-role.kubernetes.io/master-

#如果不允许调度,则运行
kubectl taint nodes k8s-master  node-role.kubernetes.io/master=:NoSchedule

计算资源不足

虚拟机配置的cpu2C,报错
【kubernetes】使用kubepshere部署中间件服务,# KubeSphere,kubernetes,中间件,容器
增加计算机cpu核心数
ps: 目前我的电脑是6核12线程,64G运行内存,部署了k8s集群+kubesphere,开启了devops功能
部署了MySQL、Redis、Nacos,3个后端服务,1个前端服务,计算资源目前够用。文章来源地址https://www.toymoban.com/news/detail-693387.html

到了这里,关于【kubernetes】使用kubepshere部署中间件服务的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【node.js从入门到精通】使用express创建web服务器,路由,进行中间件的创建链接路由及其他中间件

    目录 前言 初识express 使用express创建基本的web服务器 初识express路由 路由匹配概念 路由模块化 中间件 中间件和路由的区别 定义中间件函数 中间件作用   局部生效中间价 中间件分类  1.应用级别中间件  2.路由级别的中间件  3.错误级别中间件  4.内置中间件  5.自定义中间

    2024年02月02日
    浏览(42)
  • 基于 Docker 的 Spring Boot 项目部署演示,其中使用了 Redis、MySQL 和 RabbitMQ 中间件

    这是一个基于 Docker 的 Spring Boot 项目部署演示,其中使用了 Redis、MySQL 和 RabbitMQ 中间件。 拉取 MySQL 镜像: 创建 MySQL 容器: 将 密码 、 数据库名 、 用户名 和 密码 替换为您自己的值。 拉取 Redis 镜像: 创建 Redis 容器: 拉取 RabbitMQ 镜像: 创建 RabbitMQ 容器: 构建和运行

    2024年02月06日
    浏览(46)
  • 中间件: Kafka安装部署

    下载二进制包 修改配置 启动 按照单机部署方式启动多个Zookeeper与broker节点。 修改config/server.properties配置: broker.id 每个节点唯一 zookeeper.connect: 改成zookeeper节点 查看集群状态:

    2024年02月12日
    浏览(31)
  • 中间件:RocketMQ安装部署

    下载 配置 broker.conf 的brokerIP1 为公网ip 启动命令: 查看集群状态 benchmark目录下

    2024年02月12日
    浏览(27)
  • 中间件: Redis安装与部署

    集群部署 启动6个redis节点 扩缩容 https://blog.csdn.net/lzb348110175/article/details/122168638 扩容: 添加两个节点, 第一个节点表示新节点,第二个节点表示集群中已有的任意一个节点 分配slot, 后面的节点是已有的节点 添加slave, 第一个为slave, 第二个为slave对应的master 缩容: 查看集

    2024年02月12日
    浏览(34)
  • 中间件: ElasticSearch的安装与部署

    文档地址: https://www.elastic.co/guide/en/elasticsearch/reference/current/index.html 创建用户: 系统参数配置: 方式一:YUM安装 方式二: 配置 启动 (1)修改配置elasticsearch.yml: cluster.name # 一个集群内cluster name 需要相同 node.name # 各个节点node name 唯一 discovery.seed_hosts # network.host node.mast

    2024年02月12日
    浏览(32)
  • 中间件上云部署 kafka

    Apache Kafka是一种流行的分布式流式消息平台。Kafka生产者将数据写入分区主题,这些主题通过可配置的副本存储到broker群集上。 消费者来消费存储在broker的分区生成的数据。 storageclass ingress 创建topic 创建数据生产者,添加数据 在当前终端或另一个终端中创建数据消费者,消

    2024年02月16日
    浏览(26)
  • 中间件上云部署 rocketmq

    Apache RocketMQ是一个分布式消息传递和流媒体平台,具有低延迟、高性能和可靠性、万亿级别的容量和灵活的可伸缩性。 发布/订阅消息传递模型 定期消息传递 按时间或偏移量进行消息回溯 日志中心流 大数据集成 在同一队列中可靠的FIFO和严格的有序消息传递 有效的拉伸消费

    2024年02月16日
    浏览(30)
  • 中间件上云部署 zookeeper

    storageclass ingress 注意: Pod Disruption Budget (pod 中断 预算),含义其实是 终止pod前 通过labelSelector机制获取正常运行的pod数目的限制,目的是对主动驱逐的保护措施。 场景 节点维护或升级时(kubectl drain) 对应用的自动缩容操作(autoscaling down) 由于节点不可用(not ready)导致的Pod驱逐就

    2024年02月17日
    浏览(33)
  • GoZero微服务个人探究之路(七)添加中间件、自定义中间件

    官方已经自己实现了很多中间件,我们可以方便的直接使用,不用重复造轮子了 开启方式可以看官方文档 中间件 | go-zero Documentation 在业务逻辑中,我们需要实现自定义功能的中间件 ------这里我们以实现跨源访问的中间件(详情可见这篇文章flutter开发web应用网络请求后台失

    2024年01月21日
    浏览(42)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包