K8S之运用污点、容忍度设置Pod的调度约束

这篇具有很好参考价值的文章主要介绍了K8S之运用污点、容忍度设置Pod的调度约束。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

taints 是键值数据,用在节点上,定义污点;
tolerations 是键值数据,用在pod上,定义容忍度,能容忍哪些污点。

污点

污点是定义在k8s集群的节点上的键值属性数据,可以决定拒绝那些pod。
给了Node选则的主动权,给Node打个污点,不容忍 的Pod就调度不上来。

现象:刚部署好的K8S集群,默认master节点上不会被调度来任何pod。
原因:master节点上有个污点

看 master节点的信息

kubectl describe nodes k8s-master1

K8S之运用污点、容忍度设置Pod的调度约束,kubernetes,kubernetes,容器,云原生

Taints: node-role.kubernetes.io/control-plane:NoSchedule(排斥等级)

查看帮助命令,看如何设置Node的污点(taints是spec字段下的子字段)

kubectl explain node.spec.taints

K8S之运用污点、容忍度设置Pod的调度约束,kubernetes,kubernetes,容器,云原生

解释说明

taints的 effect 字段(必填) 用来定义对pod对象的排斥等级

  • NoSchedule:仅影响pod调度过程,仅对未调度的pod有影响。(例如:这个节点的污点改了,使得之前调度的pod不能容忍了,对现存的pod对象不产生影响)
  • NoExecute:既影响调度过程,又影响现存的pod对象(例如:如果现存的pod不能容忍节点后来加的污点,这个pod就会被驱逐)排斥等级最高
  • PreferNoSchedule:最好不,也可以,是NoSchedule的柔性版本。(例如:pod实在没其他节点调度了,也可以到到这个污点等级的节点上)排斥等级最低

上面看到的 master节点的污点是Noschedule
所以默认创建的pod都不会调度到master上,因为创建的pod没有容忍度

查看部署后master节点上Pod的信息

kubectl describe pods kube-apiserver-k8s-master1 -n kube-system

相关信息的片段
K8S之运用污点、容忍度设置Pod的调度约束,kubernetes,kubernetes,容器,云原生

可以看到这个pod的容忍度是NoExecute,则可以调度到k8s-master1上。
兼容了等级比NoExecute低的污点。

注意:在自建pod里污点等级,必须完全匹配才行

示例1: 使用污点排斥等级是NoSchedule

给k8s-node2打上污点
污点的key为node-type,值为production,排斥等级是NoSchedule

kubectl taint node k8s-node2 node-type=production:NoSchedule

ps. 排斥等级":NoSchedule"必填,否则创建失败

K8S之运用污点、容忍度设置Pod的调度约束,kubernetes,kubernetes,容器,云原生

给k8s-node2打污点后,pod如果不能容忍就不会调度过来
创建pod资源文件

vim taint-pod.yaml 
apiVersion: v1
kind: Pod
metadata:
  name: taint-pod
  namespace: default
  labels:
    tomcat:  tomcat-pod
spec:
  containers:
  - name:  taint-pod
    ports:
    - containerPort: 8080
    image: tomcat:8.5-jre8-alpine
imagePullPolicy: IfNotPresent 

创建pod资源

kubectl apply -f taint-pod.yaml

查看pod

kubectl get pods -o wide

K8S之运用污点、容忍度设置Pod的调度约束,kubernetes,kubernetes,容器,云原生

可以看到被调度到k8s-node1上了,因为k8s-node2这个节点打了污点,而在创建pod的时候没有容忍度,所以k8s-node2上不会有pod调度上去的

示例2 :使用污点类型是NoExecute

在示例1的基础上,给刚刚的k8s-node1打污点

kubectl taint node k8s-node1 node-type=dev:NoExecute

查看pod

kubectl get pods -o wide

K8S之运用污点、容忍度设置Pod的调度约束,kubernetes,kubernetes,容器,云原生
上面可以看到已经存在的pod节点都被撵走了

只看节点的污点

kubectl describe node k8s-node1|grep Taints

K8S之运用污点、容忍度设置Pod的调度约束,kubernetes,kubernetes,容器,云原生
ps. 删除污点的方式

kubectl taint nodes k8s-node2 node-type-

K8S之运用污点、容忍度设置Pod的调度约束,kubernetes,kubernetes,容器,云原生

容忍度

重新给node1打上污点,保证2个工作节点node上都打了污点。通过配置Pod的容忍度完成调度

查看帮助命令,看如何设置Pod的容忍度(tolerations是spec字段下的子字段)

kubectl explain pod.spec.tolerations

重点部分截图:
K8S之运用污点、容忍度设置Pod的调度约束,kubernetes,kubernetes,容器,云原生

解释说明

  • effect:用来匹配node的污点等级
  • key:node标签的键
  • operator:匹配表达式
  • value:node标签的值
  • tolerationSeconds:与NoExecute搭配使用表示驱逐时间

tolerations 中的 effect 字段 用来匹配污点等级

  • NoExecute
  • NoSchedule
  • PreferNoSchedule

示例1 创建pod时,指定具体可容忍的node的特征

创建pod资源文件

vim vim pod-demo-1.yaml 
apiVersion: v1
kind: Pod
metadata:
  name: myapp-deploy
  namespace: default
spec:
      containers:
      - name: myapp
        image: ikubernetes/myapp:v1
        imagePullPolicy: IfNotPresent
        ports:
        - name: http
          containerPort: 80
      tolerations:  # 设置Pod的容忍度
      - key: "node-type"   # node标签的键
        operator: "Equal"  # 匹配方式为等值匹配
        value: "production" # node标签的值
        effect: "NoExecute" # node的污点等级
        tolerationSeconds: 3600 # 与NoExecute搭配使用表示驱逐时间

创建pod资源

kubectl apply -f pod-demo-1.yaml

查看pod

kubectl get pods -o wide

K8S之运用污点、容忍度设置Pod的调度约束,kubernetes,kubernetes,容器,云原生

还是显示pending,因使用的是equal(等值匹配),所以 key、value和effect 必须和 node 节点定义的污点完全匹配才可以。
把上面yaml文件调整一下:
1、配置effect: “NoExecute"变成"NoSchedule”
2、去掉tolerationSeconds

apiVersion: v1
kind: Pod
metadata:
  name: myapp-deploy
  namespace: default
spec:
      containers:
      - name: myapp
        image: ikubernetes/myapp:v1
        imagePullPolicy: IfNotPresent
        ports:
        - name: http
          containerPort: 80
      tolerations:  
      - key: "node-type"   
        operator: "Equal"  
        value: "production" 
        effect: "NoSchedule"  

重建pod资源

kubectl delete -f pod-demo-1.yaml

kubectl apply -f pod-demo-1.yaml

查看pod

kubectl get pods -o wide

K8S之运用污点、容忍度设置Pod的调度约束,kubernetes,kubernetes,容器,云原生

上面就可以调度到k8s-node2上了,因为在pod中定义的容忍度能容忍node节点上的污点

示例2:使用非精准容忍度匹配

再调整 pod-demo-1.yaml 的部分配置

apiVersion: v1
kind: Pod
metadata:
  name: myapp-deploy
  namespace: default
spec:
      containers:
      - name: myapp
        image: ikubernetes/myapp:v1
        imagePullPolicy: IfNotPresent
        ports:
        - name: http
          containerPort: 80
      tolerations:  
      - key: "node-type"   
        operator: "Exists"    # 调整了匹配方式
        value: ""             # 去掉了node的污点值
        effect: "NoSchedule"  # 匹配的等级

只要对应的键是存在的,exists,其值被自动定义成通配符

重建pod资源

kubectl delete -f pod-demo-1.yaml

kubectl apply -f pod-demo-1.yaml

查看pod

kubectl get pods -o wide

K8S之运用污点、容忍度设置Pod的调度约束,kubernetes,kubernetes,容器,云原生

发现还是调度到k8s-node2上

再次修改

apiVersion: v1
kind: Pod
metadata:
  name: myapp-deploy
  namespace: default
spec:
      containers:
      - name: myapp
        image: ikubernetes/myapp:v1
        imagePullPolicy: IfNotPresent
        ports:
        - name: http
          containerPort: 80
      tolerations:  
      - key: "node-type"   
        operator: "Exists"  # 调整了匹配方式
        value: ""           # 去掉了值
        effect: ""          # 去掉node的污点等级

有一个node-type的键,不管值是什么,不管是什么污点等级,都能容忍

重建pod资源

kubectl delete -f pod-demo-1.yaml

kubectl apply -f pod-demo-1.yaml

查看pod

kubectl get pods -o wide

可以看到k8s-node2和k8s-node1节点上都有可能有pod被调度
K8S之运用污点、容忍度设置Pod的调度约束,kubernetes,kubernetes,容器,云原生
K8S之运用污点、容忍度设置Pod的调度约束,kubernetes,kubernetes,容器,云原生文章来源地址https://www.toymoban.com/news/detail-825527.html

到了这里,关于K8S之运用污点、容忍度设置Pod的调度约束的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 十七、K8S-污点(Taint)和容忍度(toleration)

    目录 一、什么是污点和容忍度 1、官方解释: 2、自我理解: 3、污点 1、污点的组成: 2、污点的三种策略:         1、PreferNoSchedule         2、NoExecute          3、NoSchedule  4、容忍 1、Toleration基本用法 2、用法: 3、注意: 二、使用演示 三、Pod优先级调度 1、调度策略:

    2024年02月20日
    浏览(26)
  • 【云原生】POD污点和容忍度

    节点亲和性 是 Pod 的一种属性,它使 Pod 被吸引到一类特定的节点 (这可能出于一种偏好,也可能是硬性要求)。 污点(Taint) 则相反——它使节点能够排斥一类特定的 Pod。 容忍度(Toleration) 是应用于 Pod 上的。容忍度允许调度器调度带有对应污点的 Pod。 容忍度允许调度

    2024年02月16日
    浏览(22)
  • 学习笔记十八:污点、容忍度

    给了节点选则的主动权,我们给节点打一个污点,不容忍的pod就运行不上来,污点就是定义在节点上的键值属性数据,可以定决定拒绝那些pod; taints是键值数据,用在节点上,定义污点; tolerations是键值数据,用在pod上,定义容忍度,能容忍哪些污点 pod亲和性是pod属性;但

    2024年02月12日
    浏览(24)
  • 【k8s】pod调度——亲和,反亲和,污点,容忍

    官方网址:https://kubernetes.io/zh/docs/concepts/scheduling-eviction/assign-pod-node/ pod.spec.nodeAffinity ●preferredDuringSchedulingIgnoredDuringExecution:软策略  p开头 ●requiredDuringSchedulingIgnoredDuringExecution:硬策略  r开头 pod.spec.affinity.podAffinity/podAntiAffinity ●preferredDuringSchedulingIgnoredDuringExecution:软策

    2024年02月05日
    浏览(33)
  • k8s 污点和容忍

    在 Kubernetes 中,节点亲和性 NodeAffinity 是 Pod 上定义的一种属性,能够使 Pod 按我们的要求调度到某个节点上,而 Taints(污点) 则恰恰相反,它是 Node 上的一个属性,可以让 Pod 不能调度到带污点的节点上,甚至会对带污点节点上已有的 Pod 进行驱逐。当然,对应的 Kubernetes 可以

    2023年04月08日
    浏览(22)
  • k8s概念-污点与容忍

    k8s 集群中可能管理着非常庞大的服务器,这些服务器可能是各种各样不同类型的,比如机房、地理位置、配置等,有些是计算型节点,有些是存储型节点,此时我们希望能更好的将 pod 调度到与之需求更匹配的节点上。 此时就需要用到污点(Taint)和容忍(Toleration),这些配

    2024年02月14日
    浏览(30)
  • K8s的亲和、反亲和、污点、容忍

    亲和性的原理其实很简单,主要利用label标签结合nodeSelector选择器来实现 从pod出发,可以分成亲和性和反亲和性,分别对应podAffinity和podAntiAffinity。 从node出发,也可以分成亲和性和反亲和性,分别对应nodeAffinity和nodeAntiAffinity。 从操作指令来讲,可以有ln、Notln、Exists、DoesN

    2024年04月27日
    浏览(26)
  • k8s-污点 (Taint)和容忍 (Tolerations)

    节点亲和性,是Pod的一种属性(偏好或硬性要求),它使Pod被吸引到一类特定的节点 Taint 则相反,它使节点能够排斥一类特定的 Pod Taint 和 Toleration 相互配合,可以用来避免 Pod 被分配到不合适的节点上。每个节点上都可以应用一个或多个 taint ,这表示对于那些不能容忍这些

    2024年01月16日
    浏览(28)
  • k8s打污点、取消污点、驱动pod

    在 Kubernetes 中,可以使用 kubectl taint 命令来打污点,它有以下语法: 其中, node-name 是节点的名称, key 和 value 是用于标识污点的键和值, effect 则指定了污点的影响。 例如,要在名为 node-1 的节点上打一个污点,使它不能被调度 NoSchedule ,可以使用以下命令: 这将在 node-

    2024年02月12日
    浏览(29)
  • k8s节点pod驱逐、污点标记

    一、设置污点,禁止pod被调度到节点上 kubectl cordon k8s-node-145  设置完成后,可以看到该节点附带了 SchedulingDisabled 的标记 二、驱逐节点上运行的pod到其他节点 kubectl drain --ignore-daemonsets --delete-emptydir-data k8s-node-145  显示被驱逐的 pod  三、去除污点,允许 pod 调度到节点上

    2024年02月11日
    浏览(39)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包