本博客链接:https://security.blog.csdn.net/article/details/128840528
一、提要
部署Kubernetes集群至少需要3台服务器,其中至少要有1个服务器做master节点,至少要有1个服务器做node节点,且节点名称是唯一的。
当集群中只有一个master节点时,如果其出现了故障,会导致Kubernetes的控制平面完全失效。如要保证Kubernetes集群的高可靠性,可以设置多个master,当其中部分master出现故障时,其他master还可以管理整个集群。
因此,我们这里使用三台服务器部署,可以有2种部署方案,2个master+1个node,或者1个master+2个node,这里我们使用后一种方式。
三台服务器:
master,192.168.153.145
node1,192.168.153.146
node2,192.168.153.147
二、部署
修改主机名
# master机器执行命令
hostnamectl set-hostname master
# node1机器执行命令
hostnamectl set-hostname node1
# node2机器执行命令
hostnamectl set-hostname node2
关闭防火墙:
# 3台机器都执行
systemctl stop firewalld
systemctl disable firewalld
关闭selinux:
# 3台机器都执行
sed -i 's/enforcing/disabled/' /etc/selinux/config
关闭swap分区:
# 3台机器都执行
vim /etc/fstab
注释掉该行:/dev/mapper/centos-swap
编辑/etc/hosts文件,新增以下内容:
# 3台机器都执行
192.168.153.145 master master
192.168.153.146 node1 node1
192.168.153.147 node2 node2
创建并编辑/etc/sysctl.d/k8s.conf,新增以下内容:
# 主要是为了将桥接的IPv4流量传递到iptables
# 只在master机器上执行
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
执行命令:
# 只在master机器上执行
sysctl --system
配置时间同步:
# 3台机器都执行
yum -y install chrony
编辑/etc/chrony.conf文件,新增以下内容:
# 3台机器都执行
pool time1.aliyun.com iburst
执行命令:
# 3台机器都执行
systemctl enable --now chronyd
免密认证:
# 只在master机器上执行
ssh-keygen -t rsa
ssh-copy-id master
ssh-copy-id node1
ssh-copy-id node2
重启机器:
# 3台机器都执行
reboot
安装docker:
# 3台机器都执行
yum install -y yum-utils device-mapper-persistent-data lvm2
yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
yum -y install docker-ce
systemctl start docker
systemctl enable docker
docker -v
创建并编辑/etc/yum.repos.d/kubernetes.repo,新增以下内容:
# 主要是为了添加Kubernetes的源
# 3台机器都执行
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
安装kubeadm、kubelet、kubectl:
注:1.24以上版本已经放弃docker,如果安装,k8s在初始化时会报错
# 3台机器都执行
yum install -y kubelet-1.23.6 kubeadm-1.23.6 kubectl-1.23.6
systemctl enable kubelet
执行命令:
# 只在master机器上执行
docker pull coredns/coredns:1.8.5
docker tag coredns/coredns:1.8.5 registry.aliyuncs.com/google_containers/coredns:v1.8.5
创建并编辑/etc/docker/daemon.json,新增以下内容:
# 3台机器都执行
{
"exec-opts": ["native.cgroupdriver=systemd"]
}
执行命令:
# 3台机器都执行
systemctl daemon-reload
systemctl restart docker
systemctl restart kubelet
部署Kubernetes master节点:
# 只在master机器上执行
kubeadm init \
--apiserver-advertise-address=192.168.153.145 \
--image-repository registry.aliyuncs.com/google_containers \
--kubernetes-version v1.23.6 \
--service-cidr=10.1.0.0/16 \
--pod-network-cidr=10.244.0.0/16
-----------------------单行用于复制------------------------------
kubeadm init --apiserver-advertise-address=192.168.153.145 --image-repository registry.aliyuncs.com/google_containers --kubernetes-version v1.23.6 --service-cidr=10.1.0.0/16 --pod-network-cidr=10.244.0.0/16
如有问题通过百度解决,漫长等待后,记录下以下值:
kubeadm join 192.168.153.145:6443 --token zqlnxn.b8110o37bp5kwinl \
--discovery-token-ca-cert-hash sha256:69cf2bd1bf87495d1e2e5dc11b3736151feaf00e38a59ea66b276007a163a0aa
如下图所示:
执行命令:
# 只在master机器上执行
echo 'export KUBECONFIG=/etc/kubernetes/admin.conf' > /etc/profile.d/k8s.sh
source /etc/profile.d/k8s.sh
安装Pod网络插件:
# 只在master机器上执行
# 网上找到kube-flannel.yml下载下来之后手动安装
kubectl apply -f /root/kube-flannel.yml
生成worker节点用来加入集群的校验token:
# 只在master机器上执行
kubeadm token create --print-join-command
kubeadm join 192.168.153.145:6443 --token zqlnxn.b8110o37bp5kwinl --discovery-token-ca-cert-hash sha256:69cf2bd1bf87495d1e2e5dc11b3736151feaf00e38a59ea66b276007a163a0aa
加入Kubernetes的Node节点:
# 在两个node机器上执行
echo "1" > /proc/sys/net/bridge/bridge-nf-call-iptables
kubeadm join 192.168.153.145:6443 --token zqlnxn.b8110o37bp5kwinl --discovery-token-ca-cert-hash sha256:69cf2bd1bf87495d1e2e5dc11b3736151feaf00e38a59ea66b276007a163a0aa
master绑定:
# 在两个node机器上执行
echo "export KUBECONFIG=/etc/kubernetes/kubelet.conf" >> /etc/profile
source /etc/profile
查看节点状态(三台机器均可查看),如下图所示:
至此,如果解决完所有报错,则部署结束。
三、测试Kubernetes集群
执行命令:
# 只在master机器上执行
kubectl create deployment nginx --image=nginx
kubectl expose deployment nginx --port=80 --type=NodePort
kubectl get pod,svc
如图所示:
浏览器访问:
四、Kubernetes实践
以下只在master机器上执行
4.1、Deployment资源部署
集群上运行Nginx镜像:
kubectl run nginx --image=nginx
查看部署的Nginx应用:
kubectl get deployments.apps nginx
查看Nginx部署的详细信息及过程:
kubectl describe deploy nginx
查看Nginx的ReplicaSet资源:
# DESIRED-副本数期望值,CURRENT-当前副本数,READY-就绪状态的副本数,AGE-已启动时间
kubectl get rs
查看Nginx的Pod资源:
kubectl get pod -o wide
4.2、Deployment日志查看
查看Nginx的应用日志:
kubectl logs nginx-85b98978db-kxvn6
4.3、Deployment资源执行
通过kubectl进入Nginx应用对应的容器:
kubectl exec -it nginx-85b98978db-kxvn6 bash
查看Service和Pod的映射关系:
kubectl get endpoints
4.4、Deployment资源扩展
扩展Nginx应用的副本数为3(原来是1):
kubectl scale deployment nginx --replicas=3
扩展后查看Nginx应用的Deployment、ReplicaSet、Pod、Endpoints资源:
kubectl get deployment.apps nginx
kubectl get rs
kubectl get pod
kubectl get ep
4.5、资源删除
删除对应的Deployment资源(通过kubectl run启动的):
kubectl rollout undo deploy nginx
检验删除结果:
kubectl get pod
删除对应的Service资源(通过kubectl apply启动的):
kubectl delete -f /tmp/nginx.svc.yml
4.6、故障排查
查看Nginx的应用日志:文章来源:https://www.toymoban.com/news/detail-401333.html
kubectl logs nginx-85b98978db-kxvn6
输出资源的详细信息:文章来源地址https://www.toymoban.com/news/detail-401333.html
kubectl describe pod nginx-85b98978db-kxvn6
到了这里,关于Kubernetes集群部署与实践的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!