k8s 集群搭建详细教程

这篇具有很好参考价值的文章主要介绍了k8s 集群搭建详细教程。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

参考: Kubernetes 文档 / 入门 / 生产环境 / 使用部署工具安装 Kubernetes / 使用 kubeadm 引导集群 / 安装 kubeadm


B. 准备开始

  • 一台兼容的 Linux 主机。Kubernetes 项目为基于 Debian 和 Red Hat 的 Linux 发行版以及一些不提供包管理器的发行版提供通用的指令
  • 每台机器 2 GB 或更多的 RAM (如果少于这个数字将会影响你应用的运行内存)
  • 2 CPU 核或更多
  • 集群中的所有机器的网络彼此均能相互连接(公网和内网都可以)
  • 节点之中不可以有重复的主机名、MAC 地址或 product_uuid。请参见这里了解更多详细信息。
  • 开启机器上的某些端口。请参见这里 了解更多详细信息。
  • 禁用交换分区。为了保证 kubelet 正常工作,你 必须 禁用交换分区

U. 确保每个节点上 MAC 地址和 product_uuid 的唯一性

  • 你可以使用命令 ip linkifconfig -a 来获取网络接口的 MAC 地址
  • 可以使用 sudo cat /sys/class/dmi/id/product_uuid 命令对 product_uuid 校验

一般来讲,硬件设备会拥有唯一的地址,但是有些虚拟机的地址可能会重复。 Kubernetes 使用这些值来唯一确定集群中的节点。 如果这些值在每个节点上不唯一,可能会导致安装 失败。


V. 虚拟机

新建… / 创建自定虚拟机 /
Linux / Ubuntu 64位

  • 设置过程
ID 『虚拟机』设置 建议配置 默认值 说明
1 处理器 - 2 最低要求
2 内存 - 4096 MB 节约内存
3 显示器 取消复选加速 3D 图形 复选 节约内存
4 网络适配器 - nat 需上网
5 硬盘 40GB 20 GB 保证练习容量
6 选择固件类型 UEFI 传统 BIOS VMware Fusion 支持嵌套虚拟化
k8s 集群搭建详细教程
  • 设置结果
ID Your computer’s name CPU 核 RAM DISK NIC
1 k8s-master 4 或更多 8 GB或更多 40 GB nat
2 k8s-worker1 同上 2 GB或更多 同上 同上
3 k8s-worker2 同上 同上 同上 同上

I. 安装 Ubuntu 22.04 LTS

  1. Willkommen! Bienvenue! Welcome! Welkom!

        [ English ]
    k8s 集群搭建详细教程

  2. Installer update available

     [ Continue without updating ]
    k8s 集群搭建详细教程

  3. Keyboard configuration

    [ Done ]
    k8s 集群搭建详细教程

  4. Choose type of install

    (X) Ubuntu Server (minimized)
    / [ Done ]
    k8s 集群搭建详细教程

  5. Network connections

    [ Done ]
    k8s 集群搭建详细教程

  6. Configure proxy

    [ Done ]
    k8s 集群搭建详细教程

  7. Configure Ubuntu archive mirror

    Mirror address: http://mirror.nju.edu.cn/ubuntu
    / [ Done ]
    k8s 集群搭建详细教程

  8. Guided storage configuration

    [ Done ]

    k8s 集群搭建详细教程

  9. Storage configuration

    [ Done ]
    k8s 集群搭建详细教程k8s 集群搭建详细教程

  10. Profile setup

                             Your name: kiosk
             Your server 's name: k8s-master
                   Pick a username: kiosk
              Choose a password: ubuntu
        Confirm your password: ubuntu
        / [ Done ]

    k8s 集群搭建详细教程

  11. SSH Setup

    ​ [X] Install OpenSSH server
    ​ / [ Done ]
    k8s 集群搭建详细教程

  12. Featured Server Snaps

    [ Done ]
    k8s 集群搭建详细教程

  13. Install complete!

    🅰️ [ Cancel update and reboot ]

    k8s 集群搭建详细教程

    🅱️ [ Reboot Now ]

    k8s 集群搭建详细教程

  14. 建议(可选)

    关机后,做个快照


P. 准备工作

[kiosk@k8s-master|k8s-worker1|k8s-worker2]$

  1. 设置当前用户sudo免密

    sudo tee /etc/sudoers.d/$USER >/dev/null <<EOF
    $USER ALL=(ALL) NOPASSWD:ALL
    EOF
    
  2. 使用国内镜像仓库

    # 国内镜像仓库
    MIRROR_URL=http://mirror.nju.edu.cn/ubuntu
    
    # 生成软件仓库源
    sudo tee /etc/apt/sources.list >/dev/null <<EOF
    deb $MIRROR_URL jammy main restricted universe multiverse
    deb $MIRROR_URL jammy-updates main restricted universe  multiverse
    deb $MIRROR_URL jammy-backports main restricted universe multiverse
    deb $MIRROR_URL jammy-security main restricted universe multiverse
    EOF
    
  3. 安装相关软件

    # 更新
    sudo apt -y update
    
    # 安装
    sudo apt install -y openssh-server \
    	vim sshpass nfs-common \
    	bash-completion netcat-openbsd \
    	open-vm-tools
    

[kiosk@k8s-master]$

  1. 设置静态IP

    # 配置IP
    sudo tee /etc/netplan/00-installer-config.yaml >/dev/null <<EOF
    network:
      ethernets:
        ens33:
          dhcp4: false
          addresses: [192.168.147.128/24]
          gateway4: 192.168.147.2
          nameservers:
            addresses: [8.8.8.8]
      version: 2
    EOF
    
    # dns
    sudo ln -sf /run/systemd/resolve/resolv.conf /etc/resolv.conf
    
    # active
    sudo netplan apply
    

[kiosk@k8s-worker1]$

  1. 设置静态IP

    # 配置IP
    sudo tee /etc/netplan/00-installer-config.yaml >/dev/null <<EOF
    network:
      ethernets:
        ens33:
          dhcp4: false
          addresses: [192.168.147.129/24]
          gateway4: 192.168.147.2
          nameservers:
            addresses: [8.8.8.8]
      version: 2
    EOF
    
    # dns
    sudo ln -sf /run/systemd/resolve/resolv.conf /etc/resolv.conf
    
    # active
    sudo netplan apply
    

[kiosk@k8s-worker2]$

  1. 设置静态IP

    # 配置IP
    sudo tee /etc/netplan/00-installer-config.yaml >/dev/null <<EOF
    network:
      ethernets:
        ens33:
          dhcp4: false
          addresses: [192.168.147.130/24]
          gateway4: 192.168.147.2
          nameservers:
            addresses: [8.8.8.8]
      version: 2
    EOF
    
    # dns
    sudo ln -sf /run/systemd/resolve/resolv.conf /etc/resolv.conf
    
    # active
    sudo netplan apply
    

[kiosk@k8s-master|k8s-worker1|k8s-worker2]$

  1. 编辑 hosts

    sudo tee -a /etc/hosts >/dev/null <<EOF
    192.168.147.128	k8s-master
    192.168.147.129 k8s-worker1
    192.168.147.130 k8s-worker2
    EOF
    
    # 设置 root 密码
    (echo ubuntu; echo ubuntu) | sudo passwd root
    echo PermitRootLogin yes | sudo tee -a /etc/ssh/sshd_config
    sudo systemctl restart sshd
    

[kiosk@k8s-master]$

  1. ssh免密

    # 生成 keypair
    ssh-keygen -f ~/.ssh/id_rsa -N ''
    
    # 拷贝公钥
    for i in k8s-master k8s-worker1 k8s-worker2; do
       sshpass -pubuntu ssh-copy-id -o StrictHostKeyChecking=no kiosk@$i
       sshpass -pubuntu ssh-copy-id -o StrictHostKeyChecking=no root@$i
    done
    

[kiosk@k8s-master|k8s-worker1|k8s-worker2]$

  1. 禁用swap

    # 交换文件
    SWAPF=$(awk '/swap/ {print $1}' /etc/fstab)
    
    # 立即禁用
    sudo swapoff $SWAPF
    
    # 永久禁用
    sudo sed -i '/swap/d' /etc/fstab
    
    # 删除交换文件
    sudo rm $SWAPF
    
  2. 扩容

    # 逻辑卷名
    export LVN=$(sudo lvdisplay | awk '/Path/ {print $3}')
    
    # 扩容
    sudo lvextend -l 100%PVS $LVN
    
    # 立即生效
    sudo resize2fs $LVN
    
    # 验证
    df -h /
    
  3. 模块支持

    # 安装
    sudo apt -y install bridge-utils
    
    # 立即生效
    sudo modprobe br_netfilter
    
    # 内核支持
    sudo tee /etc/sysctl.d/k8s.conf >/dev/null <<EOF
    net.ipv4.ip_forward=1
    vm.swappiness=0
    vm.overcommit_memory=1
    vm.panic_on_oom=0
    EOF
    
    # 立即生效
    sudo sysctl -p /etc/sysctl.d/k8s.conf
    
  • docker: k8s-master, k8s-worker1
  • containerd: k8s-worker2

[kiosk@k8s-master|k8s-worker1]$

  1. 安装运行时

    # 创建文件夹
    sudo mkdir -p /etc/docker
    
    # 生成配置文件
    sudo tee /etc/docker/daemon.json >/dev/null <<EOF
    {
      "exec-opts": ["native.cgroupdriver=systemd"],
      "log-driver": "json-file",
      "log-opts": {
        "max-size": "100m",
        "max-file": "10"
      },
      "registry-mirrors": ["https://docker.nju.edu.cn/"]
    }
    EOF
    
    # 安装 runtime
    sudo apt -y install docker.io
    
    # 开机自启
    sudo systemctl enable docker
    
    # 立即重启
    sudo systemctl restart docker
    
    # 安装命令 cri-dockerd
    curl -# https://vmcc.xyz:8443/k8s/cri-docker/cri-dockerd-0.2.5.amd64.tgz \
    	-o cri-dockerd-0.2.5.amd64.tgz
    tar -xf cri-dockerd-0.2.5.amd64.tgz
    sudo cp cri-dockerd/cri-dockerd /usr/bin/
    
    # 安装服务 cri-docker.service
    sudo curl -s https://vmcc.xyz:8443/k8s/cri-docker/cri-docker.service \
    	-o /usr/lib/systemd/system/cri-docker.service
    sudo sed -i '/ExecStart/s+$+ --network-plugin=cni --pod-infra-container-image=registry.aliyuncs.com/google_containers/pause:3.8+' /usr/lib/systemd/system/cri-docker.service
    
    # 安装 cri-docker.socket
    sudo curl -s https://vmcc.xyz:8443/k8s/cri-docker/cri-docker.socket \
    	-o /usr/lib/systemd/system/cri-docker.socket
    
    # 启动服务 cri-dockerd
    sudo systemctl daemon-reload
    sudo systemctl enable cri-docker
    sudo systemctl restart cri-docker
    
    # 安装 crictl 命令
    curl -# https://vmcc.xyz:8443/k8s/crictl-v1.24.2-linux-amd64.tar.gz \
    	-o crictl-v1.24.2-linux-amd64.tar.gz
    tar -xf crictl-v1.24.2-linux-amd64.tar.gz
    sudo cp crictl /usr/bin/
    # crictl 配置文件
    sudo tee /etc/crictl.yaml >/dev/null <<EOF
    runtime-endpoint: unix:///var/run/cri-dockerd.sock
    image-endpoint: unix:///var/run/cri-dockerd.sock
    timeout: 10
    debug: false
    pull-image-on-create: true
    EOF
    

[kiosk@k8s-worker2]$

  1. 安装运行时

    # 安装 containerd
    sudo apt install -y containerd
    
    # 创建目录
    sudo mkdir /etc/containerd
    
    # 生成默认配置文件
    containerd config default | \
    sudo tee /etc/containerd/config.toml >/dev/null
    
    # 修改配置文件
    sudo sed -i \
    -e '/sandbox_image/s?k8s.gcr.io?registry.aliyuncs.com/google_containers?' \
    -e '/SystemdCgroup/s?false?true?' \
    -e '/registry.mirrors/a\        [plugins."io.containerd.grpc.v1.cri".registry.mirrors."docker.io"]' \
    -e '/registry.mirrors/a\          endpoint = ["https://docker.nju.edu.cn/"]' /etc/containerd/config.toml
    
    # 服务重启
    sudo systemctl restart containerd
    
    # 安装 crictl 命令
    curl -# https://vmcc.xyz:8443/k8s/crictl-v1.24.2-linux-amd64.tar.gz \
    	-o crictl-v1.24.2-linux-amd64.tar.gz
    tar -xf crictl-v1.24.2-linux-amd64.tar.gz
    sudo cp crictl /usr/bin/
    # crictl 配置文件
    sudo tee /etc/crictl.yaml >/dev/null <<EOF
    runtime-endpoint: unix:///run/containerd/containerd.sock
    image-endpoint: unix:///run/containerd/containerd.sock
    timeout: 10
    debug: false
    pull-image-on-create: true
    EOF
    
    

K. 安装 k8s

[kiosk@k8s-master|k8s-worker1|k8s-worker2]$

  1. 安装 kubeadm、kubelet 和 kubectl

    # 更新 apt 包索引并安装使用 Kubernetes apt 仓库所需要的包
    sudo apt -y install apt-transport-https ca-certificates curl
    
    # 下载 Google Cloud 公开签名秘钥
    curl -s https://mirrors.aliyun.com/kubernetes/apt/doc/apt-key.gpg | sudo apt-key add -
    
    # 添加 Kubernetes apt 仓库
    MIRROR_URL=https://mirror.nju.edu.cn/kubernetes/apt/
    sudo tee /etc/apt/sources.list.d/kubernetes.list >/dev/null <<EOF
    deb $MIRROR_URL kubernetes-xenial main
    EOF
    
    # 更新 apt 包索引
    sudo cp /etc/apt/trusted.gpg /etc/apt/trusted.gpg.d
    sudo apt update -y
    sudo apt-cache madison kubelet | grep 1.24
    
    # 安装 kubelet、kubeadm 和 kubectl 考试版本
    sudo apt install -y kubelet=1.24.1-00 kubeadm=1.24.1-00 kubectl=1.24.1-00
    
    # 锁定版本
    sudo apt-mark hold kubelet kubeadm kubectl
    
    

[kiosk@k8s-worker2]$

# 增加 k8s 支持
 sudo sed -i '/ExecStart=\//s|$| --container-runtime=remote --container-runtime-endpoint=unix:///run/containerd/containerd.sock --cgroup-driver=systemd|' /etc/systemd/system/kubelet.service.d/10-kubeadm.conf
# 重启 kubelet 服务
sudo systemctl daemon-reload
sudo systemctl restart kubelet

[kiosk@k8s-master]$

  1. 初始化

    # 生成初始文件
    sudo kubeadm config print init-defaults > kubeadm-config.yaml
    
    # 修改文件
    sudo sed -i \
      -e "/advertiseAddress/s?:.*?: 192.168.147.128?" \
      -e "/name/s?:.*?: k8s-master?" \
      -e "/clusterName/s?:.*?: ck8s?" \
      -e "/imageRepository/s?:.*?: registry.aliyuncs.com/google_containers?" \
      -e "/criSocket/s+containerd/containerd+cri-dockerd+" kubeadm-config.yaml
    
    # 使用初始文件,初始化集群
    sudo kubeadm init --config kubeadm-config.yaml
    

    …输出省略…
    Your Kubernetes control-plane has initialized successfully!

    To start using your cluster, you need to run the following as a regular user:

    mkdir -p $HOME/.kube
    sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
    sudo chown $(id -u):$(id -g) $HOME/.kube/config
    

    Alternatively, if you are the root user, you can run:

    export KUBECONFIG=/etc/kubernetes/admin.conf
    

    You should now deploy a pod network to the cluster.
    Run “kubectl apply -f [podnetwork].yaml” with one of the options listed at:
    https://kubernetes.io/docs/concepts/cluster-administration/addons/

    Then you can join any number of worker nodes by running the following on each as root:

    kubeadm join 192.168.147.128:6443 --token abcdef.0123456789abcdef \
    --discovery-token-ca-cert-hash sha256:c4781194de65ebb47984fc5e7e64d4897875410825ce4d18df81da1a298afa1f
    
  2. 配置文件

    # 创建目录
    mkdir -p $HOME/.kube
    
    # user 复制配置文件
    sudo \cp /etc/kubernetes/admin.conf $HOME/.kube/config
    sudo chown $(id -u):$(id -g) $HOME/.kube/config
    
    # root 变量
    sudo tee -a ~root/.bashrc >/dev/null <<EOF
    export KUBECONFIG=/etc/kubernetes/admin.conf
    EOF
    
  3. 创建网络

    kubectl apply -f https://docs.projectcalico.org/manifests/calico.yaml
    
  4. 命令补全

    # 立即生效
    source <(kubectl completion bash)
        
    # 永久生效
    mkdir ~/.kube
    kubectl completion bash > ~/.kube/completion.bash.inc
    printf "
    # Kubectl shell completion
    source '$HOME/.kube/completion.bash.inc'
    " >> $HOME/.bash_profile
    source $HOME/.bash_profile
    
  5. 命令别名

    # 永久生效
    tee -a $HOME/.bashrc >/dev/null <<EOF
    alias k='kubectl'
    complete -F __start_kubectl k
    EOF
    
    # 立即生效
    source $HOME/.bashrc
    

[kiosk@k8s-worker1]$

  1. 加入集群

    sudo kubeadm join 192.168.147.128:6443 \
      --token abcdef.0123456789abcdef \
      --discovery-token-ca-cert-hash sha256:c4781194de65ebb47984fc5e7e64d4897875410825ce4d18df81da1a298afa1f \
      --cri-socket unix://var/run/cri-dockerd.sock
    

[kiosk@k8s-worker2]$

  1. 加入集群

    sudo kubeadm join 192.168.147.128:6443 \
      --token abcdef.0123456789abcdef \
      --discovery-token-ca-cert-hash sha256:c4781194de65ebb47984fc5e7e64d4897875410825ce4d18df81da1a298afa1f
    

C. 确认环境正常

[kiosk@k8s-master]文章来源地址https://www.toymoban.com/news/detail-430002.html

$ kubectl get componentstatuses
Warning: v1 ComponentStatus is deprecated in v1.19+
NAME                 STATUS    MESSAGE                         ERROR
scheduler           `Healthy`  ok
controller-manager  `Healthy`  ok
etcd-0              `Healthy`  {"health":"true","reason":""}

$ kubectl get nodes
NAME          STATUS   ROLES                  AGE     VERSION
k8s-worker1  `Ready`  <none>                 4m4s    `v1.24.1`
k8s-worker2  `Ready`  <none>                 4m44s   `v1.24.1`
k8s-master   `Ready`  control-plane,master   13m     `v1.24.1`

$ kubectl -n kube-system get pod -w
NAME                                       READY   STATUS    RESTARTS   AGE
calico-kube-controllers-555bc4b957-8ccgh   1/1     Running   0          27m
calico-node-5qqcq                          1/1     Running   0          9m29s
calico-node-7qclz                          1/1     Running   0          27m
calico-node-kcvt5                          1/1     Running   0          9m29s
coredns-74586cf9b6-69fn7                   1/1     Running   0          156m
coredns-74586cf9b6-8mgl9                   1/1     Running   0          156m
etcd-k8s-master                            1/1     Running   0          156m
kube-apiserver-k8s-master                  1/1     Running   0          156m
kube-controller-manager-k8s-master         1/1     Running   0          156m
kube-proxy-8j248                           1/1     Running   0          9m29s
kube-proxy-g7r55                           1/1     Running   0          9m29s
kube-proxy-rbdcp                           1/1     Running   0          156m
kube-scheduler-k8s-master                  1/1     Running   0          156m
<Ctrl-C>

到了这里,关于k8s 集群搭建详细教程的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 基于ECS云主机搭建k8s集群-详细过程

    K8S集群部署过程耗时:不到1小时。 经过最近几次的k8s部署操作,自己也是踩过很多坑,总结记录一下详细、完整的部署过程,供对Kubernetes感兴趣的朋友参考,一起学习; 本次使用的3台2C4G的ECS百度云服务器,确保可以相互访问,如果跨VPC,可以建立“对等连接”: 主机名

    2024年01月16日
    浏览(43)
  • Linux搭建 Kubernetes(K8S)集群详情教程

    当搭建 Kubernetes 集群时,涉及的详细步骤可能较多,以下是详细的 Kubernetes 单节点集群搭建步骤: 步骤 1: 准备工作 确保满足以下基本要求: 一台运行 Ubuntu 18.04 或更高版本的机器。 2 GB 或更多内存。 2 个 CPU 核心或更多。 安装了 Docker。 步骤 2: 安装 Docker 步骤 3: 安装 kubea

    2024年01月17日
    浏览(63)
  • Linux 搭建K8s集群,最新教程,细到极致

      Hello,各位小伙伴,大家好呀。老哥最近在接触云原生相关的东西,然后的话,需要接触到k8s,之前一直没有时间搭建。今天趁着周末放假,赶紧动起来!   给大家带来的是最新版k8s集群的搭建,希望给大家带来一点小小的帮助。老哥资金有限,这次采用一主一从进行

    2024年02月03日
    浏览(34)
  • 【云原生-K8s-1】kubeadm搭建k8s集群(一主两从)完整教程及kubernetes简介

    🍁 博主简介   🏅云计算领域优质创作者   🏅华为云开发者社区专家博主   🏅阿里云开发者社区专家博主 💊 交流社区: 运维交流社区 欢迎大家的加入!   Kubernetes(简称:k8s) 是Google在2014年6月开源的一个容器集群管理系统,使用Go语言开发,用于管理云平台中多

    2024年02月07日
    浏览(66)
  • 超详细~使用shell脚本完成用kubeadm工具对k8s集群的搭建

    目录 1.环境规划 2.my_ssh.sh脚本: 1.修改/etc/hosts文件部分: 2.生成本地ssh公钥部分: 3.复制ssh公钥部分: 4.复制本地的hosts文件部分: 5.完整脚本: 3.my_env.sh脚本: 1.尝试连接主机部分: 2.升级内核部分 3.关闭防火墙,禁止使用selinux部分: 4.配置chrony服务器部分: 5.禁用swap分区

    2023年04月22日
    浏览(45)
  • kubeadm搭建单master多node的k8s集群--小白文,图文教程

    K8S基础知识与集群搭建 kubeadm搭建单master多node的k8s集群—主要参考这个博客,但是有坑,故贴出我自己的过程,坑会少很多 注意: 集群配置是:一台master:zabbixagent-k8smaster,两台node:k8snode1和k8snode2 当没有明说master机器做什么或者node机器做什么时,所有操作步骤默认是三台

    2024年02月19日
    浏览(53)
  • 【云原生-K8s】kubeadm搭建安装k8s集群v1.25版本完整教程【docker、网络插件calico、中间层cri-docker】

    从 k8s 1.24开始,dockershim已经从kubelet中移除,但因为历史问题docker却不支持kubernetes主推的CRI(容器运行时接口)标准,所以docker不能再作为k8s的容器运行时了,即从k8s v1.24开始不再使用docker了 但是如果想继续使用docker的话,可以在kubelet和docker之间加上一个中间层cri-docker。

    2024年02月03日
    浏览(45)
  • Ubuntu22 k8s 1.27.1 安装及集群搭建教学(2023.5.16 k8s 最新版本教学,只看这一篇就够了哦!保姆级教程!不行你来找我!)

    温馨提示请仔细阅读:❤️❤️❤️❤️❤️❤️❤️❤️ 1. 由于新版的k8s不支持docker了,因此开始前建议新开一台全新的虚拟机 2. 全程安装过程最大的问题是网络问题,经常需要拉取到外网的东西,如果条件允许请准备好魔法上网 3. 请在每一步进行之前妥善利用快照功能

    2024年02月07日
    浏览(49)
  • K8S1.23.6版本详细安装教程以及错误解决方案(包括前置环境,使用部署工具kubeadm来引导集群)

    一台兼容的 Linux 主机。Kubernetes 项目为基于 Debian 和 Red Hat 的 Linux 发行版以及一些不提供包管理器的发行版提供通用的指令。 每台机器 2 GB 或更多的 RAM(如果少于这个数字将会影响你应用的运行内存)。 CPU 2 核心及以上。 集群中的所有机器的网络彼此均能相互连接(公网和

    2024年03月14日
    浏览(43)
  • K8s(Kubernetes)学习(二):k8s集群搭建

    minikube 只是一个 K8S 集群模拟器,只有一个节点的集群,只为测试用,master 和 worker 都在一起。 裸机安装 至少需要两台机器(主节点、工作节点个一台),需要自己安装 Kubernetes 组件,配置会稍微麻烦点。 缺点:配置麻烦,缺少生态支持,例如负载均衡器、云存储。 直接用

    2024年02月09日
    浏览(62)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包