17.HPA和rancher

这篇具有很好参考价值的文章主要介绍了17.HPA和rancher。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

HPA

  • HPA(Horizontal Pod Autoscaling)Pod 水平自动伸缩,Kubernetes 有一个 HPA 的资源,HPA 可以根据 CPU 利用率自动伸缩一个 Replication Controller、 Deployment 或者Replica Set 中的 Pod 数量。
  1. HPA 基于 Master 上的 kube-controller-manager 服务启动参数 horizontal-pod-autoscaler-sync-period 定义的时长(默认为30秒),周期性的检测 Pod 的 CPU 使用率。
  2. HPA 与之前的 RC、Deployment 一样,也属于一种 Kubernetes 资源对象。通过追踪分析 RC 控制的所有目标 Pod 的负载变化情况, 来确定是否需要针对性地调整目标Pod的副本数,这是HPA的实现原理。
  3. metrics-server 也需要部署到集群中, 它可以通过 resource metrics API 对外提供度量数据。

部署 metrics-server

##上传  文件到  所有的node节点
components.yaml
cd /opt/
mkdir hpa
cd /opt/hpa/
apiVersion: v1
kind: ServiceAccount
metadata:
  labels:
    k8s-app: metrics-server
  name: metrics-server
  namespace: kube-system
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
  labels:
    k8s-app: metrics-server
    rbac.authorization.k8s.io/aggregate-to-admin: "true"
    rbac.authorization.k8s.io/aggregate-to-edit: "true"
    rbac.authorization.k8s.io/aggregate-to-view: "true"
  name: system:aggregated-metrics-reader
rules:
- apiGroups:
  - metrics.k8s.io
  resources:
  - pods
  - nodes
  verbs:
  - get
  - list
  - watch
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
  labels:
    k8s-app: metrics-server
  name: system:metrics-server
rules:
- apiGroups:
  - ""
  resources:
  - pods
  - nodes
  - nodes/stats
  - namespaces
  - configmaps
  verbs:
  - get
  - list
  - watch
---
apiVersion: rbac.authorization.k8s.io/v1
kind: RoleBinding
metadata:
  labels:
    k8s-app: metrics-server
  name: metrics-server-auth-reader
  namespace: kube-system
roleRef:
  apiGroup: rbac.authorization.k8s.io
  kind: Role
  name: extension-apiserver-authentication-reader
subjects:
- kind: ServiceAccount
  name: metrics-server
  namespace: kube-system
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
  labels:
    k8s-app: metrics-server
  name: metrics-server:system:auth-delegator
roleRef:
  apiGroup: rbac.authorization.k8s.io
  kind: ClusterRole
  name: system:auth-delegator
subjects:
- kind: ServiceAccount
  name: metrics-server
  namespace: kube-system
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
  labels:
    k8s-app: metrics-server
  name: system:metrics-server
roleRef:
  apiGroup: rbac.authorization.k8s.io
  kind: ClusterRole
  name: system:metrics-server
subjects:
- kind: ServiceAccount
  name: metrics-server
  namespace: kube-system
---
apiVersion: v1
kind: Service
metadata:
  labels:
    k8s-app: metrics-server
  name: metrics-server
  namespace: kube-system
spec:
  ports:
  - name: https
    port: 443
    protocol: TCP
    targetPort: https
  selector:
    k8s-app: metrics-server
---
apiVersion: apps/v1
kind: Deployment
metadata:
  labels:
    k8s-app: metrics-server
  name: metrics-server
  namespace: kube-system
spec:
  selector:
    matchLabels:
      k8s-app: metrics-server
  strategy:
    rollingUpdate:
      maxUnavailable: 0
  template:
    metadata:
      labels:
        k8s-app: metrics-server
    spec:
      hostNetwork: true
      containers:
      - args:
        - --cert-dir=/tmp
        - --secure-port=4443
        - --kubelet-preferred-address-types=InternalIP
        - --kubelet-use-node-status-port
        - --kubelet-insecure-tls
        image: registry.cn-beijing.aliyuncs.com/dotbalo/metrics-server:v0.4.1
        imagePullPolicy: IfNotPresent
        livenessProbe:
          failureThreshold: 3
          httpGet:
            path: /livez
            port: https
            scheme: HTTPS
          periodSeconds: 10
        name: metrics-server
        ports:
        - containerPort: 4443
          name: https
          protocol: TCP
        readinessProbe:
          failureThreshold: 3
          httpGet:
            path: /readyz
            port: https
            scheme: HTTPS
          periodSeconds: 10
        securityContext:
          readOnlyRootFilesystem: true
          runAsNonRoot: true
          runAsUser: 1000
        volumeMounts:
        - mountPath: /tmp
          name: tmp-dir
      nodeSelector:
        kubernetes.io/os: linux
      priorityClassName: system-cluster-critical
      serviceAccountName: metrics-server
      volumes:
      - emptyDir: {}
        name: tmp-dir
---
apiVersion: apiregistration.k8s.io/v1
kind: APIService
metadata:
  labels:
    k8s-app: metrics-server
  name: v1beta1.metrics.k8s.io
spec:
  group: metrics.k8s.io
  groupPriorityMinimum: 100
  insecureSkipTLSVerify: true
  service:
    name: metrics-server
    namespace: kube-system
  version: v1beta1
  versionPriority: 100
##运行文件
kubectl apply -f components.yaml

17.HPA和rancher,13.Kubernetes,rancher

17.HPA和rancher,13.Kubernetes,rancher

部署HPA

##所有的node节点拉取镜像  hpa-example
##hpa-example 是谷歌基于 PHP 语言开发的用于测试 HPA 的镜像,其中包含了一些可以运行 CPU 密集计算任务的代码

docker pull mirrorgooglecontainers/hpa-example
##创建用于测试的pod
vim hpa-pod.yaml
apiVersion: apps/v1
kind: Deployment
metadata:
  labels:
    run: php-apache
  name: php-apache
spec:
  replicas: 1
  selector:
    matchLabels:
      run: php-apache
  template:
    metadata:
      labels:
        run: php-apache
    spec:
      containers:
      - image: mirrorgooglecontainers/hpa-example
        name: php-apache
        imagePullPolicy: IfNotPresent
        ports:
        - containerPort: 80
        resources:
          requests:
            cpu: 200m
---
apiVersion: v1
kind: Service
metadata:
  name: php-apache
spec:
  ports:
  - port: 80
    protocol: TCP
    targetPort: 80
  selector:
    run: php-apache
kubectl apply -f hpa-pod.yaml

17.HPA和rancher,13.Kubernetes,rancher

##创建hpa
kubectl autoscale deployment php-apache --min=1 --max=10 --cpu-percent=50 
apiVersion: autoscaling/v1
kind: HorizontalPodAutoscaler
metadata:
  creationTimestamp: null
  name: php-apache
spec:
  maxReplicas: 10
  minReplicas: 1
  scaleTargetRef:
    apiVersion: apps/v1
    kind: Deployment
    name: php-apache
  targetCPUUtilizationPercentage: 50
status:
  currentReplicas: 0
  desiredReplicas: 0

17.HPA和rancher,13.Kubernetes,rancher

##创建运行的pod
kubectl run test01 --image=busybox -o yaml --dry-run=client > test.yaml


kubectl run -it load-generator --image=busybox /bin/sh
apiVersion: v1
kind: Pod
metadata:
  labels:
    run: test01
  name: test01
spec:
  containers:
  - image: busybox
    name: test01
    command: ["/bin/sh", "-c", "sleep 3600"]
    resources: {}
  dnsPolicy: ClusterFirst
  restartPolicy: Always
##进入到容器中,做循环,模拟容器运行
kubectl exec -it test01 sh


while true
do
wget -q -O- 10.96.149.128
done

17.HPA和rancher,13.Kubernetes,rancher

  • HPA 扩容的时候,负载节点数量上升速度会比较快;但回收的时候,负载节点数量下降速度会比较慢。
  • 原因是防止在业务高峰期时因为网络波动等原因的场景下,如果回收策略比较积极的话,K8S集群可能会认为访问流量变小而快速收缩负载节点数量,而仅剩的负载节点又承受不了高负载的压力导致崩溃,从而影响业务

Rancher

  • Rancher 是一个开源的企业级多集群 Kubernetes 管理平台,实现了 Kubernetes 集群在混合云+本地数据中心的集中部署与管理, 以确保集群的安全性,加速企业数字化转型
  • Rancher 和 k8s 的区别
    • Rancher 和 k8s 都是用来作为容器的调度与编排系统。
    • 但是 rancher 不仅能够管理应用容器,更重要的一点是能够管理 k8s 集群。 Rancher2.x 底层基于 k8s 调度引擎,通过 Rancher 的封装,用户可以在不熟悉 k8s 概念的情况下轻松的通过 Rancher 来部署容器到k8s集群当中。
  • 官网:https://docs.rancher.cn/

部署Rancher

##在所有的 node节点下载 rancher-agent 镜像
docker pull rancher/rancher-agent:v2.5.7
##在rancher 节点下载 rancher 镜像
docker pull rancher/rancher:v2.5.7
##运行   在rancher 节点
docker run -d --restart=unless-stopped -p 80:80 -p 443:443 --privileged --name rancher rancher/rancher:v2.5.7

17.HPA和rancher,13.Kubernetes,rancher

##在浏览器访问服务器器的80端口
http://192.168.10.30

17.HPA和rancher,13.Kubernetes,rancher

设置密码后,进入主页

rancher添加集群

--》添加集群
--》导入
--》自定义集群名称
--》创建
--》根据提示在master节点执行

17.HPA和rancher,13.Kubernetes,rancher
17.HPA和rancher,13.Kubernetes,rancher
17.HPA和rancher,13.Kubernetes,rancher
17.HPA和rancher,13.Kubernetes,rancher

17.HPA和rancher,13.Kubernetes,rancher
17.HPA和rancher,13.Kubernetes,rancher
17.HPA和rancher,13.Kubernetes,rancher
17.HPA和rancher,13.Kubernetes,rancher
17.HPA和rancher,13.Kubernetes,rancher

仪表盘创建 namespace

--》左侧Namespaces
--》右上角create
--》输入名称,create

17.HPA和rancher,13.Kubernetes,rancher

17.HPA和rancher,13.Kubernetes,rancher

仪表盘创建 Deployments

--》左侧Deployments
--》右上角create
--》输入名称
——》根据需要选择不同的项目

17.HPA和rancher,13.Kubernetes,rancher

17.HPA和rancher,13.Kubernetes,rancher

仪表盘创建 service

--》左侧Deployments
--》右上角create
--》输入名称
——》根据需要选择不同的项目

17.HPA和rancher,13.Kubernetes,rancher
17.HPA和rancher,13.Kubernetes,rancher
17.HPA和rancher,13.Kubernetes,rancher
17.HPA和rancher,13.Kubernetes,rancher
17.HPA和rancher,13.Kubernetes,rancher

总结

  • Pod 的自动伸缩
    • HPA:Pod水平自动伸缩 为控制器管理的Pod资源副本数量实现自动扩缩容
    • VPA:Pod垂直自动伸缩 据容器资源使用率自动设置CPU和内存的requests
  • HPA的实现原理:
    • 利用 metrics-server 定期收集 Pod 资源的平均 CPU 负载情况,根据HPA配置的 CPU/内存 requests 百分比阈值来动态调整 Pod 的副本数量
    • HPA 扩容时,Pod 副本数量上升会比较快;缩容时,Pod 副本数量下降会比较慢
kubectl top  nodes|pods

kubectl autoscale  <Pod控制器资源>  <资源名称>  --min=<最小副本数>  --max=<最大副本数>  --cpu-percent=<CPU requests百分比阈值>
  • K8S集群管理工具:文章来源地址https://www.toymoban.com/news/detail-660182.html

    • kubectl命令行管理工具 dashboard(K8S官方的UI界面图形化管理工具) 只能管理单个K8S集群
    • 同时管理多个K8S集群:rancher kubesphere k9s

到了这里,关于17.HPA和rancher的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 如何利用 Kubernetes 的 HPA 进行自动缩容

    在前面的文章中,我们了解了 Kubernetes 的弹性伸缩机制,以及如何使用 Deployment、StatefulSet、 DaemonSet 等控制器来实现容器的自动扩缩容。其中,Horizontal Pod Autoscaler(HPA)是一种基于 CPU 使用率的自动缩容方案,可以自动调整 Pod 的数量,以保证系统的资源利用率和稳定性。 一

    2024年02月06日
    浏览(89)
  • Kubernetes/k8s之HPA,命名空间资源限制

    Horizontal Pod Autoscaling:po的水平自动伸缩 这是k8s自带的模块 pod占用cpu比例达到一定的阀值,会触发伸缩机制。 根据cpu的阀值触发伸缩机制 replication controller 副本控制器 控制pod的副本数 deployment controller 节点控制器 部署pod hpa控制副本的数量,以及如何控制部署pod 1、hpa基于kub

    2024年01月24日
    浏览(46)
  • Rancher 管理 Kubernetes 集群

    //Rancher 简介 Rancher 是一个开源的企业级多集群 Kubernetes 管理平台,实现了 Kubernetes 集群在混合云+本地数据中心的集中部署与管理, 以确保集群的安全性,加速企业数字化转型。超过 40000 家企业每天使用 Rancher 快速创新。 官网:https://docs.rancher.cn/ //Rancher 和 k8s 的区别 Ranch

    2024年02月16日
    浏览(92)
  • Kubernetes 使用 Rancher 管理

    只能管理单个K8S集群 kubectl命令行管理工具     dashboard(K8S官方的UI界面图形化管理工具)   (管理多集群很麻烦,切换不同集群每次需要更改kube-config文件 [kubectl配置文件] ,如果kubeadm部署每次都需要更改admin.conf [kubectl配置文件] ) 同时管理多个K8S集群 rancher kubesphere   k

    2024年02月12日
    浏览(44)
  • 使用Rancher管理Kubernetes集群

    整个部署包括2个部分,一是管理集群部署,二是k8s集群部署。管理集群功能主要提供web界面方式管理k8s集群。正常情况,管理集群3个节点即可,k8s集群至少3个。本文以3节点管理集群,3节点k8s集群为例 说明部署过程 管理集群需要通过域名的方式访问,需要在访问客户端添加

    2024年01月22日
    浏览(36)
  • Kubernetes rancher、prometheus、ELK的安装

    有关rancher的安装其实官方网站给的步骤已经很详细了,可以直接按照步骤安装即可。 执行 helm repo add 命令,以添加包含安装 Rancher 的 Chart 的 Helm Chart 仓库。 官方推荐的是 Stable:建议用于生产环境 默认是使用下面方式,当然你自己已有证书的情况还是配置为已有证书。 Ra

    2024年02月05日
    浏览(51)
  • K8S:Rancher管理 Kubernetes 集群

    Rancher 是一个开源的企业级多集群 Kubernetes 管理平台,实现了 Kubernetes 集群在混合云+本地数据中心的集中部署与管理, 以确保集群的安全性,加速企业数字化转型。超过 40000 家企业每天使用 Rancher 快速创新。 官网:https://docs.rancher.cn/ Rancher 和 k8s 都是用来作为容器的调度与

    2024年02月07日
    浏览(53)
  • Helm & Kubernetes Offline Deploy Rancher v2.7.5 Demo (helm 离线部署 rancher 实践)

    Rancher 是一个开源容器管理平台,专为在生产环境中部署容器的组织构建。Rancher可以轻松地在任何地方运行Kubernetes,满足IT需求,并为DevOps团队提供支持。 最新版本 Latest Release v2.7 Latest - v2.7.6 - rancher/rancher:v2.7.6 / rancher/rancher:latest - Read the full release notes. Stable - v2.7.6 - rancher

    2024年02月09日
    浏览(44)
  • 云原生|kubernetes|rancher-2.6.4安装部署简明手册

    rancher是一个比较特殊的开源的kubernetes管理工具,特殊在它是一个名称为k3s的简单kubernetes集群,而该集群是在kubernetes集群内的。 rancher还可以在一个裸的仅具有docker环境的机器部署,然后通过该机器将其它的kubernetes集群纳入rancher管理(简称纳管),或者是通过该机器快速的

    2023年04月26日
    浏览(36)
  • Kubernetes、Docker Swarm和Rancher的特点 - 容器编排平台比较

    本文将介绍三种流行的容器编排平台:Kubernetes、Docker Swarm和Rancher。我们将比较它们的特点,包括架构、功能、性能和生态系统。通过了解这些平台的优势和劣势,读者可以更好地选择适合自己需求的容器编排平台。 随着容器技术的快速发展,容器编排平台的需求也日益增长

    2024年02月12日
    浏览(63)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包