参考文章:kubernetes介绍
第一章 kubernetes介绍
本章节主要介绍应用程序在服务器上部署方式演变以及kubernetes的概念、组件和工作原理。
1.1 应用部署方式演变
在部署应用程序的方式上,主要经历了三个时代:
传统部署:互联网早期,会直接将应用程序部署在物理机上
优点:简单,不需要其它技术的参与
缺点:不能为应用程序定义资源使用边界,很难合理地分配计算资源,而且程序之间容易产生影响
虚拟化部署:可以在一台物理机上运行多个虚拟机,每个虚拟机都是独立的一个环境(比如VMware虚拟机)
优点:程序环境不会相互产生影响,提供了一定程度的安全性
缺点:增加了操作系统,浪费了部分资源
容器化部署:与虚拟化类似,但是共享了操作系统(比如docker容器)
优点:
可以保证每个容器拥有自己的文件系统、CPU、内存、进程空间等
运行应用程序所需要的资源都被容器包装,并和底层基础架构解耦
容器化的应用程序可以跨云服务商、跨Linux操作系统发行版进行部署
容器化部署方式给带来很多的便利,但是也会出现一些问题,比如说:
- 一个容器故障停机了,怎么样让另外一个容器立刻启动去替补停机的容器
- 当并发访问量变大的时候,怎么样做到横向扩展容器数量
容器编排问题——引入k8s
这些容器管理的问题统称为容器编排问题,为了解决这些容器编排问题,就产生了一些容器编排的软件:
- Swarm:Docker自己的容器编排工具
- Mesos:Apache的一个资源统一管控的工具,需要和Marathon结合使用
- Kubernetes:Google开源的的容器编排工具
主流容器编排工具市场占有率:
1.2 kubernetes简介
kubernetes,是一个全新的基于容器技术的分布式架构领先方案,是谷歌严格保密十几年的秘密武器----Borg系统的一个开源版本,于2014年9月发布第一个版本,2015年7月发布第一个正式版本。
主要功能
kubernetes的本质是一组服务器集群,它可以在集群的每个节点上运行特定的程序,来对节点中的容器进行管理。目的是实现资源管理的自动化,主要提供了如下的主要功能:
自我修复:一旦某一个容器崩溃,能够在1秒中左右迅速启动新的容器
弹性伸缩:可以根据需要,自动对集群中正在运行的容器数量进行调整
服务发现:服务可以通过自动发现的形式找到它所依赖的服务
负载均衡:如果一个服务起动了多个容器,能够自动实现请求的负载均衡
版本回退:如果发现新发布的程序版本有问题,可以立即回退到原来的版本
存储编排:可以根据容器自身的需求自动创建存储卷
1.3 kubernetes组件
一个kubernetes集群主要是由控制节点(master)、工作节点(node) 构成,每个节点上都会安装不同的组件。
控制节点(master):集群的控制平面,负责集群的决策 ( 管理 )
ApiServer : 资源操作的唯一入口,接收用户输入的命令,提供认证、授权、API注册和发现等机制
Scheduler : 负责集群资源调度,按照预定的调度策略将Pod调度到相应的node节点上
ControllerManager : 负责维护集群的状态,比如程序部署安排、故障检测、自动扩展、滚动更新等
Etcd:负责存储集群中各种资源对象的信息
工作节点(node):集群的数据平面,负责为容器提供运行环境 ( 干活 )
Kubelet: 负责维护容器的生命周期,即通过控制docker,来创建、更新、销毁容器
KubeProxy: 负责提供集群内部的服务发现和负载均衡
Docker: 负责节点上容器的各种操作
实例:nginx服务部署
下面,以部署一个nginx服务来说明kubernetes系统各个组件调用关系:
-
首先要明确,一旦kubernetes环境启动之后,master和node都会将自身的信息存储到etcd数据库中
-
一个nginx服务的安装请求会首先被发送到master节点的apiServer组件
-
apiServer组件会调用scheduler组件来决定到底应该把这个服务安装到哪个node节点上
在此时,它会从etcd中读取各个node节点的信息,然后按照一定的算法进行选择,并将结果告知apiServer
-
apiServer调用controller-manager去调度Node节点安装nginx服务
-
kubelet接收到指令后,会通知docker,然后由docker来启动一个nginx的pod
pod是kubernetes的最小操作单元,容器必须跑在pod中至此,
-
一个nginx服务就运行了,如果需要访问nginx,就需要通过kube-proxy来对pod产生访问的代理
这样,外界用户就可以访问集群中的nginx服务了
1.4 kubernetes概念
Master:集群控制节点,每个集群需要至少一个master节点负责集群的管控
Node:工作负载节点,由master分配容器到这些node工作节点上,然后node节点上的docker负责容器的运行
在Kubernetes(k8s)中,一个“节点”(Node)通常是指集群中的一台物理或虚拟机器,也就是宿主机(Host)。每个节点都能够运行由容器化的应用程序组成的工作负载。Kubernetes集群通常由多个节点组成,这些节点被分为两种类型:
-
Master节点(也称为控制平面节点):Master节点负责管理集群的状态,包括调度工作负载、响应集群事件(如扩展或滚动更新)、以及维护集群内不同组件之间的通信。
-
Worker节点:Worker节点是部署用户容器化应用程序的地方。每个Worker节点上都运行着kubelet,它是一个代理,用于管理该节点并与Kubernetes的Master节点通信。Worker节点还运行其他网络和存储相关的服务,以确保容器化的应用程序正常运行。
在Kubernetes架构中,节点提供了运行容器所需的资源,例如CPU、内存、网络和存储资源。每个节点都由Master节点监控和管理,确保分配给它的Pods(即一组一个或多个容器)正常运行。如果某个节点发生故障,Master节点可以将Pods重新调度到其他健康的节点上。
Pod:kubernetes的最小控制单元,容器都是运行在pod中的,一个pod中可以有1个或者多个容器
Controller:控制器,通过它来实现对pod的管理,比如启动pod、停止pod、伸缩pod的数量等等
Service:pod对外服务的统一入口,下面可以维护同一类的多个pod(kube-proxy与service区别)
在 Kubernetes 中,kube-proxy
和 Service
是两个相关但不同的概念,它们共同协作以提供对集群内部和外部服务的访问。
-
kube-proxy
kube-proxy
是一个运行在每个 Kubernetes 节点上的网络代理组件。它负责维护节点上的网络规则,并实现了部分服务发现和负载均衡功能。kube-proxy
使得来自 Pod 内部或集群外部的网络流量能够通过服务的虚拟IP地址(ClusterIP、NodePort、LoadBalancer IP等)被正确地转发到后端的 Pod。kube-proxy
支持几种流量转发模式:- 用户空间模式(User space mode):这是最早的模式,性能较低,现已不常使用。
- iptables 模式:利用 Linux 的 iptables 规则直接进行包转发,性能较好,是默认选项之一。
- IPVS 模式:使用 Linux 的 IP Virtual Server 进行更高效的流量转发,适合大规模集群。
-
Service
Service
是 Kubernetes 提供的一个抽象概念,它定义了一种访问一组特定 Pod 的方式,无论这些 Pod 运行在哪个节点上。每个Service
都有一个虚拟的固定IP地址(ClusterIP),以及一个DNS名称,使得其他组件可以通过它访问后端的 Pod,而不需要关心 Pod 的具体位置。Service
对象支持多种类型:文章来源:https://www.toymoban.com/news/detail-759627.html- ClusterIP:为服务提供一个内部集群IP,只能从集群内部访问。
-
NodePort:在 ClusterIP 的基础上,为服务在每个节点上打开一个端口,允许从集群外部通过
<节点IP>:<NodePort>
访问服务。 - LoadBalancer:在 NodePort 的基础上,还会请求云提供商的负载均衡器,允许通过外部的负载均衡器IP访问服务。
- ExternalName:通过返回一个外部域名而非IP地址来转发服务。
总的来说,kube-proxy
是负责实现服务连接和负载均衡的网络代理,而 Service
是定义如何访问一组 Pod 的高级抽象。当创建一个 Service
时,kube-proxy
将根据 Service
的定义更新节点上的网络规则,确保流量能够被正确转发到后端的 Pod。文章来源地址https://www.toymoban.com/news/detail-759627.html
Label:标签,用于对pod进行分类,同一类pod会拥有相同的标签
NameSpace:命名空间,用来隔离pod的运行环境
到了这里,关于云原生 黑马Kubernetes教程(K8S教程)笔记——第一章 kubernetes介绍——Master集群控制节点、Node工作负载节点、Pod控制单元的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!