滴滴弹性云基于 K8S 的调度实践

这篇具有很好参考价值的文章主要介绍了滴滴弹性云基于 K8S 的调度实践。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

上篇文章详细介绍了弹性云混部的落地历程,弹性云是滴滴内部提供给网约车等核心服务的容器平台,其基于 k8s 实现了对海量 node 的管理和 pod 的调度。本文重点介绍弹性云的调度能力,分为以下部分:

  • 调度链路图:介绍当前弹性云调度体系链路,对架构体系有一个初步的认知

  • k8s 调度能力的运用:整体介绍弹性云现在用到的 k8s 调度能力和对其的增强

  • k8s 版本的升级:介绍到从 k8s 1.12 到 1.20 跨版本升级的方案

  • 服务画像/真实使用率调度:原生的 request 调度存在着和真实使用率之间的 gap 等缺陷,尝试通过对 node 上业务做数据画像来让调度做出更符合真实情况的调度

  • 重调度:由于调度只能依据当前数据,随着业务的增长、集群机器的下线等,调度效果可能不达预期,比如会产生一些宿主机热点等,介绍重调度对这块的处理能力

  • 调度规则引擎:通用的调度策略不能满足所有业务场景,直接在调度主流程中做适配比较 hack,介绍 Galahad+Webhook 对调度资源的灵活注入从而影响最终的调度结果的能力

  • 调度稳定性建设:介绍整体调度的稳定性保障体系

调度链路图

滴滴弹性云基于 K8S 的调度实践,kubernetes,java,docker,容器,云原生

  • kube-rescheduler:重调度模块,自动轮询集群状态,并发起异常 pod 的漂移

  • kube-odin:弹性云的上游 pass 层,用户通过 kube-odin 接入弹性云

  • galahad:调度规则引擎,按标签选取业务 pod 或 node 的调度策略存储,主要解决物理机集群差异化,快速变化的需求与 k8s 集群管理的灵活度匹配

  • kube-hook:k8s 的 mutatingwebhook 和对应服务,用于将 galahad 注入 pod 或 node

  • master:原生的 k8s 三大件

  • ipam:弹性云的 pod ip 分配模块

  • IRMAS:内核组件,包括 Odin-Agent 监控数据上报、pod quota 分配等能力

  • kube-agent:node 组件,做真实使用率数据的获取和写入

  • zhivago:基于 Prometheus 的服务画像引擎,涉及数据清洗,数据分析,数据存储,大盘展示等多个模块

k8s 调度能力的运用

涉及资源

  • 无状态服务(Deployment):弹性云最开始使用的 workload,但因为历史原因,比如要兼容业务在物理机时代的使用方式等,目前已废弃。

  • 有状态服务(StatefulSet):弹性云目前支持的主 workload,优化了控制器逻辑,实现了自定义部署顺序策略、无序删除策略、打散策略等等。

  • 静态容器(Pod):直接管理 pod,在现有的 Kubernetes 原生调度编排之上,提供和 VM 类似的资源交付手段,是为了兼容类似物理机使用方式的妥协,不  cloudnative,不建议新业务接入

  • Endponit:接流组件监听其变化,在pod漂移后自动接上dsi/lvs的流量

  • Deamonset:node 上 agent 的 workload

k8s 调度器的实现

kube-scheduler 的根本工作任务是根据各种调度算法将 Pod 绑定(bind)到最合适的工作节点,整个调度流程分为两个阶段:预选策略(Predicates)和优选策略(Priorities),这里不再赘述。

弹性云调度预选卡点

在 k8s 原生的预选卡点上我们做了很多增强:

滴滴弹性云基于 K8S 的调度实践,kubernetes,java,docker,容器,云原生

滴滴弹性云基于 K8S 的调度实践,kubernetes,java,docker,容器,云原生

弹性云调度优选算分

重点介绍两个优选算法:  

滴滴弹性云基于 K8S 的调度实践,kubernetes,java,docker,容器,云原生

滴滴弹性云基于 K8S 的调度实践,kubernetes,java,docker,容器,云原生

很长一段时间我们一直使用如下的优选打分权重,也就是 Balanced 和 Least 并重,但在资源紧张的情况下,重调度效果显示调度在即使有比较低利用率 cpu 的 node,也会选取另一个利用率较高但比较均衡的 node,而这个 node 更可能成为热点,这就是我们说的“调度bad case”。

滴滴弹性云基于 K8S 的调度实践,kubernetes,java,docker,容器,云原生

为此,当前在某些峰值利用率较高、热点较大的大机房,做了如下优选权重的调整,更加关注资源的使用率而不是平铺度。

滴滴弹性云基于 K8S 的调度实践,kubernetes,java,docker,容器,云原生

调度器框架

在将 k8s 版本升级到 1.20 后,我们将上述弹性云的预选卡点和优选算法全部通过 SchedulerFramework 做了重新实现,主要拆解为 PreFilter、Filter 和 Score 三种扩展点。

滴滴弹性云基于 K8S 的调度实践,kubernetes,java,docker,容器,云原生

k8s 版本的升级

不久之前弹性云部分机房 k8s 版本还是 1.12,升级到 1.20 的难点如下:

  • 集群体量大,最大集群规模已经远远超出了社区推荐的5千个 node 上限,有问题的爆炸半径大;

  • 场景复杂多样,隔离集群、有状态服务容器、不可变更ip漂移容器、静态容器等;

  • 周边涉及范围广,kube-odin、各种 operator 和控制器等诸多上游组件。

替换升级方案介绍:

  • 两个 k8s 集群,1.12 和 1.20,直接搭建新的一套新的 1.20 master 和周边组件;

  • 1.20 集群中创建和 1.12 和等量的业务负载,也就是 sts 和 pod;

  •  通过上游的流量管控应用决定流量分布,一开始流量都在 1.12 的 sts 的 pod中,逐步切流到 1.20 的 sts 的 pod;

  • 有问题的时候可以快速回切流量。

原地升级方案介绍:

  • 只有一个 k8s 集群,将 master 和周边组件直接从 1.12 升级到 1.20;

  • 逐步将集群中的 node 也就是 kubelet 从 1.12 版本升级到 1.20;

  • 不做任何业务负载相关的操作,也就是 sts 和 pod 无需重建,其实的流量分布也不做操作,随着 node 升级流量天然就逐步从 1.12 切到 1.20 了;

  • 有问题的时候需要部分回滚 node 的 kubelet,当出现全局性风险的时候需要全量回滚 master 和周边组件。

两个方案对比如下:

滴滴弹性云基于 K8S 的调度实践,kubernetes,java,docker,容器,云原生

从方案可落地以及成本角度最终选取了原地升级

核心实现

  • 有状态服务,比如 redis 等需要 kubelet 升级容器不重启:修改原生的kubelet 实现,按hash值是否变化来决定是否重建容器的策略。

滴滴弹性云基于 K8S 的调度实践,kubernetes,java,docker,容器,云原生

  • 升级中间态风险规避:master 1.20 +部分 Kubelet 1.12 的场景,梳理和关注高版本 apiserver 中资源或协议的变化,推动周边系统使用非 alpha 或 beta版本资源。

目前已无损升级滴滴所有核心机房万级别的 node 和十万级别 pod ,且升级过程中业务完全无感,未发生一次故障。

服务画像/真实使用率调度

从全局资源优化角度看,调度是动词,是策略的运用,关键是这个策略从何而来、怎么优化?我们知道 k8s 原生使用 request 做装箱,而一般为了成本考虑都会做 node 上的超卖,这在 node 上所有 pod 利用率都较高的情况下会产生热点和资源争抢。

服务画像的核心目标是探索不影响业务情况下的单机使用率上限,以及寻找真实资源的全局分布最优解。其核心能力包括:元信息完备的多维数据(map能力),灵活的聚合计算语言 promQL(reduce 能力),配置化的数据可视化大盘 (可观测性能力),以及灵活可配置的数据->策略通路(画像能力)。

数据分析 MapReduce

MapReduce 是一种数据处理思想,Map 代表数据预处理,包括归一化、格式化、补全数据元信息等,Reduce 代表数据聚合,可以进一步分为四种运算操作:过滤(filters)、聚合(aggregations)、集合操作(set operations)和联结(joins)。

举个例子,如何用MapReduce的思想分析数据:

北京机房下,X2234节点、wyc产品线的所有8核规格容器中,所有可漂移的容器过去七天消耗的最大CPU核数按宿主机维度求和。

表达式:

sum(max_over_time(ddcloud_pod_cpu_used{region="beijing", 
set="X2234", prod_line="wyc",cpu_limit="8", 
flexible="true"}[7d]))by(m_host)

结论:

依据该分析,可得出 wyc 产品线的容器在北京机房部分物理机上的分布情况,并据此人工或自动消除 wyc 产品线容器热点。

真实使用率调度

在过去一段时间,整个弹性云公共集群一直处于超卖较大的情况,而真实利用率的限制是真正保证高峰期宿主不会被打爆的主要策略。

如何算出真实使用率?算法是取当前宿主所有 pod,对其进行拟合取七天内最大的点作为调度参考值。当 pod 发生漂移时值也随之改变。zhivago 会将 pod 和 node 的7天最大值提前计算好保存到对应的配置中,此配置会被调度读取并作为调度决策的重要参考,每1分钟为更新周期。

为什么取七天最大值?因为从当前的数据的同比、环比可以看到,滴滴的业务特性7天为循环周期。取7天最大值可以在最坏的情况下尽量不产生热点。调度会保证宿主上所有 pod 7天真实使用率之和不超过真实资源的一定比例,包括cpu、内存、io 和磁盘等。

重调度

kubernetes 调度 pod 是一次性决策的,实时状态决策,但业务的压力是变化的,所以长期运行后 node 的状态不一定合理。我们的服务画像/真实使用率调度是一个偏“保守”的调度策略,如果业务流量保持和前7天完全一致,可以确保各个 node 在高峰期的 cpu 利用率都不会超过一定比例。但在很多场景下,业务流量会创新高,比如服务先扩容,后切流:

滴滴弹性云基于 K8S 的调度实践,kubernetes,java,docker,容器,云原生

还有,比如集群新增了亲和/互斥的策略,如何将策略作用于存量 pod ?集群修改超卖规则,超卖系数压缩怎么对存量 pod 生效?怎么处理不满足新调度规则的 pod?对这些场景,我们都希望用重调度来再做一次调度:

滴滴弹性云基于 K8S 的调度实践,kubernetes,java,docker,容器,云原生

核心流程

  • 定时任务1:每10分钟做一次筛选,对不满足调度 Good Case 的 pod 入队列;

  • 定时任务2:每分钟做一次筛选,对满足漂移条件的 pod 做漂移;

  • 定时任务3:每分钟做一次漂移失败的 pod 的检查,重新入队列;

  • 定时任务4:每天捞一轮数据以生成重调度的成功率、失败数以及未恢复 pod 的日报。

紧急均衡

由于 CPU 属于抖动性最强的资源,在利用率较高的情况下一般业务都会受到影响,所以提供了紧急情况立即均衡的能力,不区分业务高峰期。紧急均衡触发条件为:物理机实际利用率高于一定的水位,可配置调整。

兜底策略

重调度是统一的再调度中心,具备自动化能力,但调度本身较重,需要规避不可控的爆炸半径。因此有如下重调度的限制:

滴滴弹性云基于 K8S 的调度实践,kubernetes,java,docker,容器,云原生

效果说明

在流量和核数相同的情况下,重处理前后的集群热点率对比:

滴滴弹性云基于 K8S 的调度实践,kubernetes,java,docker,容器,云原生

调度规则引擎

一直以来我们努力的方向是完善调度策略精确性或者说是完善基础能力,虽有一定的效果,但已经无法满足日益复杂的调度需求。为了让调度的管理能力可配置化,而不再依赖于代码的上线,需要一个单独的组件对涉及到的如下属性做修改和使用:

  • Annotations (各种开关、阈值、附加属性等)

  • Labels (阈值、标签)

  • Resource (pod所需资源、node总资源)

  • Taints/Tolerations (node's taint and pod's tolerations)

  • Affinity (node's and pod's soft and hard [anti]affnity)

修改的对象可以是 Pod、Node、Pod Controller(如Statefulset)等。这就是 Galahad,它是核心调度组件,负责集群资源调度与管控,寻找集群调度过程中的圣杯。

Galahad 全景图如下图所示:

滴滴弹性云基于 K8S 的调度实践,kubernetes,java,docker,容器,云原生

核心实现

通过 Galahad 可以提供对 k8s 各个资源的自定义配置,如容器维度的调度打散,亲和性、物理机维度的资源超卖,资源限制、业务集群维度的物理机亲和性等等。具体是和 webhook 配合使用,基于 k8s 的 mutatingwebhook 实现对新建 pod 或者修改 node 的资源注入。   

滴滴弹性云基于 K8S 的调度实践,kubernetes,java,docker,容器,云原生

效果说明

支持以下场景:

  • 为了满足混合调度的需求,尽量减少调度器的修改,通过 Galahad 区分 pod 在不同集群的调度策略;

  • 在隔离集群等需要特殊打散配置的场景下,直接通过 Galahad 注入 pod 打散策略;

  • 在 map 等公共集群重数据服务上云的场景下,通过 Galahad 注入 pod 的跨 sts 平铺。

调度稳定性

稳定性体系

1、调度可观测:

  • 调度链路的可观测:apiserver->hook->etcd 的 trace 串联 

滴滴弹性云基于 K8S 的调度实践,kubernetes,java,docker,容器,云原生

  • 调度现场的可观测:调度失败详情、优选打分日志、调度现场的pod和node快照

滴滴弹性云基于 K8S 的调度实践,kubernetes,java,docker,容器,云原生

  • 集群状态的可观测,包括集群 node 和 pod 详情、剩余套餐数、热点和可解释大盘等

2、核心指标保障:周调度成功率、堆积和延迟,重调度成功率和延迟,各组件指标比如apiserver qps等,通过核心指标大盘体现。

3、功能点自动化回归验证:自动化巡检能力。

4、放火能力失败验证:故障注入和系统自我止损能力。

组件稳定性

1、apiserver 稳定性

  • 请求均衡:基于 go away 的长连接请求打平

  • 限流保护:原生的 apf 限流,对内部组件请求豁免的优化

  • 来源感知:复杂请求链路梳理、推动调用方增加 client 信息

  • 应急预案:master 备机和快速扩容 sop

2、调度器性能优化

  • 在离线 pod 调度优先级差异化处理和退避策略,保障在线调度性能

  • percentageOfNodesToScore 等调度器参数优化

3、控制器性能优化

  • endponit 控制器同步缓存数据优化,时间复杂度从n*n->1,发布封线时间缩短4/5

  • 1.12版本 taintController 直接从 etcd list pod 请求的优化

4、galahad+webhook 稳定性

  • 1.12 默认的 apiserver 对 webhook 长连接优化为短连接

  • webhook 部署优化,容器和物理机冷备

  • galahad 操作工单化,防止误操作

  • 强弱依赖不可用演练

5、etcd 稳定性

  • apiserver 对 etcd 的前置限流保护

  • event 和主 etcd 的拆分

  • 穿透到 etcd 的 list 请求治理

  • 客户端定时压缩优化为服务端自己主动压缩

  • 高峰期前的 deflag 磁盘碎片整理

故障治理能力

1、事前

  • 监控和告警补全

  • 周边依赖梳理,强依赖稳定性保障

  • 压测环境单集群容量上限摸底

2、事中

  • 护堤手册和大盘

  • 通用问题排查手册

  • 故障场景止损 SOP

3、事后

  • 复盘和改进落地流程

总结

滴滴弹性云基于 k8s 实现了容器调度,支持多云调度、在线隔离、在离混部的多种复杂业务场景,目前在线公共集群的平均利用率已经接近50%,未出现明显异常。

在这个过程中,基于对 k8s 的理解完善了画像、重调度、规则引擎能力,提升了调度效果,并通过稳定性治理保证了系统99.99%的可用。后续会进一步在业务精细化调度、隔离能力完善、多调度器支持以及可观测提升等方面做深耕。  



云原生夜话

聊聊看,您对k8s的使用落地有什么心得,怎么解决集群资源分配的问题呢?如需与我们进一步交流探讨,也可直接私信后台。

作者将选取1则最有意义的留言,送出滴滴200元打车券。10月24日晚9点开奖。文章来源地址https://www.toymoban.com/news/detail-753662.html

到了这里,关于滴滴弹性云基于 K8S 的调度实践的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 飞天使-k8s知识点19-kubernetes实操4-资源调度 标签和选择器:Label与Selector的使用-版本回退

    添加label 资源调度 Deployment:创建与配置文件解析 rs pod deploy 的关联信息展示 Deployment:滚动更新 Deployment:回滚 回退版本实际操作

    2024年02月20日
    浏览(52)
  • 基于Docker的K8s(Kubernetes)集群部署

    开始搭建k8s集群 三台服务器修改主机名称 关闭对话窗口,重新连接 三台主机名称呢就修改成功了。 接下来修改每台节点的 hosts 文件 所有节点关闭 setLinux 查看是否关闭成功 为每个节点添加 k8s 数据源 如果安装docker数据源找不到yum-config 所有节点安装kubelet kubelet安装中… k

    2024年02月08日
    浏览(100)
  • Kubernetes 启动Pod的方法-Pod的调度算法-Pod间的通信-k8s的控制器-Pod资源控制-发布Service服务

    目录 Pod 参考文档:Pod | Kubernetes Pod配置文件:simple-pod.yaml 对master进行如下操作 Pod的状态有: 参考文档:(70条消息) Pod生命周期中的状态解释_pod状态_闹玩儿扣眼珠子的博客-CSDN博客 进入Pod内的nginx容器: 当我们创建一个Pod,其中的步骤是什么?(启动Pob的流程) 大概步骤:

    2024年02月13日
    浏览(71)
  • 【k8s】基于Prometheus监控Kubernetes集群安装部署

    目录 基于Prometheus监控Kubernetes集群安装部署 一、环境准备 二、部署kubernetes集群 三、部署Prometheus监控平台 四、部署Grafana服务 五、grafana  web操作 IP地址 主机名 组件 192.168.100.131 k8s-master kubeadm、kubelet、kubectl、docker-ce 192.168.100.132 k8s-node01 kubeadm、kubelet、kubectl、docker-ce 192.168

    2024年02月12日
    浏览(59)
  • 基于Kubernetes(k8s)部署Dubbo+Nacos服务

    本文介绍基于 Kubernetes(k8s) 环境集成阿里云 私有镜像仓库 来部署一套 Dubbo + Nacos 的微服务系统,并使用 Kubernetes DNS 以及 port-forward 的方式来打通网络访问。 k8s环境搭建参考文章《基于minikube快速搭建kubernetes单节点环境》 中在阿里云镜像仓库构建的镜像来进行部署。 基于《基

    2024年02月02日
    浏览(38)
  • jenkins发布Kubernetes(K8s)集群(基于containerd)

    上一篇文章 Jenkins入门与安装 1、k8s环境 版本 v1.26.5 ,容器为containerd 二进制安装Kubernetes(K8s)集群(基于containerd)—从零安装教程(带证书) 主机名 IP 系统版本 安装服务 master01 10.10.10.21 rhel7.5 nginx、etcd、api-server、scheduler、controller-manager、kubelet、proxy master02 10.10.10.22 rhel7.5 ngin

    2024年02月09日
    浏览(95)
  • Kubernetes(K8s)与虚拟GPU(vGPU):实现高效管理和利用GPU资源的最佳实践

    目录 第一节:Kubernetes简介 第二节:虚拟GPU(vGPU)简介 第三节:Kubernetes中的GPU资源管理 第四节:虚拟GPU(vGPU)的部署和配置 第五节:GPU资源调度和负载均衡 第六节:GPU资源监控和调优 结论: 可先阅读一下参考: kubernetes如何将异构GPU(如NVIDIA、海光、寒武纪)统一协同

    2024年04月13日
    浏览(47)
  • Kubernetes-03-实践篇 Spring-cloud-kubernetes 自动引入 K8S的 ConfigMap 参数(参数引用 和 文件挂载)

    此篇文章中,我们将讲述如何从configMap中引入参数配置,如何从挂载文件中引入文件配置。其中文件挂载是应用部署中常见的形式。 1、通过 valueRef 引入 ConfigMap 配置信息 1.1: 初始化项目 1.2: 定义将外部引入的配置项 1.3: 构建镜像 发布应用 1.4: 确认配置的引用 2、通过 fileMo

    2024年02月03日
    浏览(48)
  • [kubernetes]二进制部署k8s集群-基于containerd

    k8s从1.24版本开始不再直接支持docker,但可以自行调整相关配置,实现1.24版本后的k8s还能调用docker。其实docker自身也是调用containerd,与其k8s通过docker再调用containerd,不如k8s直接调用containerd,以减少性能损耗。 除了containerd,比较流行的容器运行时还有podman,但是podman官方安装

    2024年02月12日
    浏览(57)
  • 持续集成部署-k8s-资源调度:HPA - Pod 基于负载指标自动水平扩容缩容

    首先我们找一个 Deployment 配置文件: nginx-deploy.yaml

    2024年02月07日
    浏览(54)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包