k8s--基础--24.3--efk--安装efk组件

这篇具有很好参考价值的文章主要介绍了k8s--基础--24.3--efk--安装efk组件。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

k8s–基础–24.3–efk–安装efk组件


下面的步骤在k8s集群的master1节点操作

1、创建名称空间

  1. 创建一个名称空间,将EFK组件安装到该名称空间中。
  2. 名称空间:kube-logging

1.1、脚本

vi  /root/efk/kube-logging.yaml

内容

kind: Namespace
apiVersion: v1
metadata:
  name: kube-logging

1.2、执行

kubectl apply -f /root/efk/kube-logging.yaml

# 查看kube-logging名称空间是否创建成功
kubectl get namespaces | grep kube-logging

efk集群安装部署,k8s,elasticsearch,kubernetes,docker

2、安装elasticsearch组件

  1. 通过上面步骤已经创建了一个名称空间kube-logging,在这个名称空间下去安装日志收集组件efk
  2. 我们将部署一个3节点的Elasticsearch集群,我们使用3个Elasticsearch Pods可以避免高可用中的多节点群集中发生的"裂脑"的问题。
  3. Elasticsearch脑裂可参考
    1. https://www.elastic.co/guide/en/elasticsearch/reference/current/modules-node.html#split-brain

2.1、创建一个headless service(无头服务)

  1. 创建一个headless service的Kubernetes服务,这个服务将为3个Pod定义一个DNS域。
  2. 服务名称:elasticsearch
  3. headless service不具备负载均衡也没有IP。

2.1.1、脚本

vi  /root/efk/elasticsearch_svc.yaml

内容

kind: Service
apiVersion: v1
metadata:
  # Service名称为elasticsearch
  name: elasticsearch
  # 名称空间为kube-logging
  namespace: kube-logging
  # Service的标签
  labels:
    app: elasticsearch
spec:
  # 带有app=elasticsearch标签,当我们将 Elasticsearch StatefulSet 与此服务关联时,服务将返回带有标签app=elasticsearch的 Elasticsearch Pods的DNS A记录
  selector:
    app: elasticsearch
  # 设置该服务设置成无头服务。
  clusterIP: None
  # 定义端口9200、9300,分别用于与 REST API 交互,以及用于节点间通信。 
  ports:
    - port: 9200
      name: rest
    - port: 9300
      name: inter-node

2.1.2、执行

kubectl apply -f /root/efk/elasticsearch_svc.yaml

# 查看
kubectl get svc -n=kube-logging

efk集群安装部署,k8s,elasticsearch,kubernetes,docker

  1. 上面操作总结
    1. 为Pod设置了 无头服务
    2. 为Pod设置了 一个稳定的域名.elasticsearch.kube-logging.svc.cluster.local
  2. 接下来我们通过StatefulSet来创建具体的Elasticsearch的Pod应用。

2.2、通过statefulset创建elasticsearch集群

  1. Kubernetes statefulset可以为Pods分配一个稳定的标识,让pod具有稳定的、持久的存储。
  2. Elasticsearch需要稳定的存储才能通过POD重新调度和重新启动来持久化数据。

2.2.1、脚本

vi  /root/efk/elasticsaerch-statefulset.yaml


内容


apiVersion: apps/v1
kind: StatefulSet
metadata:
  # StatefulSet的名称es-cluster
  name: es-cluster
  # 名称空间 kube-logging
  namespace: kube-logging
spec:
  # 使用名称为elasticsearch的Service服务
  # 可以确保可以使用以下DNS地址访问StatefulSet中的每个Pod:es-cluster-[0,1,2].elasticsearch.kube-logging.svc.cluster.local
  # 其中[0,1,2]与Pod分配的序号数相对应。
  serviceName: elasticsearch
  # 我们指定3个replicas(3个Pod副本)
  replicas: 3
  selector:
    # 匹配模板中 标签是app: elasticseach的pod
    matchLabels:
      app: elasticsearch
  template:
    metadata:
      # 模板中定义pod的标签为 app: elasticsearch
      labels:
        app: elasticsearch
    spec:
      # 定义容器
      containers:
      # 容器名称
      - name: elasticsearch
        # 使用的镜像
        image: docker.elastic.co/elasticsearch/elasticsearch:7.2.0
        # 镜像拉取策略,如果本地镜像存在就使用本地镜像
        imagePullPolicy: IfNotPresent
        # 资源限制,最小CPU 100m(0.1个CPU),最大CPU 1000m(1个CPU)
        resources:
            limits:
              cpu: 1000m
            requests:
              cpu: 100m
        # 暴漏了9200和9300两个端口,名称要和上面定义的Service保持一致
        ports:
        # 容器端口
        - containerPort: 9200
          # 端口名称
          name: rest
          # 协议
          protocol: TCP
        - containerPort: 9300
          name: inter-node
          protocol: TCP
        # 定义挂载
        volumeMounts:
        # 使用volumeClaimTemplates模板的名称
        - name: data
          # 定义挂载点
          mountPath: /usr/share/elasticsearch/data
        # 定义环境变量
        env:
          # Elasticsearch 集群的名称,我们这里是 k8s-logs
          - name: cluster.name
            value: k8s-logs
          # 节点的名称,通过metadata.name来获取。这将解析为 es-cluster-[0,1,2],取决于节点的指定顺序。
          - name: node.name
            valueFrom:
              fieldRef:
                fieldPath: metadata.name
          
          # seed_hosts 用于设置在Elasticsearch集群中节点相互连接的发现方法。
          # 由于我们之前配置的无头服务,我们的 Pod 具有唯一的 DNS 域es-cluster-[0,1,2].elasticsearch.kube-logging.svc.cluster.local
          # 因此我们相应地设置此变量。由于都在同一个 namespace 下面,所以我们可以将其缩短为es-cluster-[0,1,2].elasticsearch。
          - name: discovery.seed_hosts
            value: "es-cluster-0.elasticsearch,es-cluster-1.elasticsearch,es-cluster-2.elasticsearch"
            
          # 设置初始化es服务,这里使用es服务的节点名称,也就是pod名称
          - name: cluster.initial_master_nodes
            value: "es-cluster-0,es-cluster-1,es-cluster-2"
          # 设置JVM参数
          - name: ES_JAVA_OPTS
            value: "-Xms512m -Xmx512m"
      # 定义初始化容器,这些初始容器按照定义的顺序依次执行,执行完成后才会启动主应用容器。
      initContainers:
        # fix-permissions容器用来运行chown命令,将Elasticsearch数据目录的用户和组更改为1000:1000(Elasticsearch用户的 UID)。
        # 因为默认情况下,Kubernetes 用 root 用户挂载数据目录,这会使得 Elasticsearch 无法访问该数据目录
      - name: fix-permissions
        image: busybox
        imagePullPolicy: IfNotPresent
        # 将Elasticsearch数据目录的用户和组更改为1000:1000
        command: ["sh", "-c", "chown -R 1000:1000 /usr/share/elasticsearch/data"]
        securityContext:
		  # docker的privileged,让container内的root拥有真正的root权限。
          privileged: true
        # 设置挂载
        volumeMounts:
        - name: data
          mountPath: /usr/share/elasticsearch/data
          
      # increase-vm-max-map容器 用来增加操作系统对mmap计数的限制
      # 默认情况下该值可能太低,导致内存不足的错误
      - name: increase-vm-max-map
        image: busybox
        imagePullPolicy: IfNotPresent
        # 增加操作系统对mmap计数的限制
        command: ["sysctl", "-w", "vm.max_map_count=262144"]
        securityContext:
          privileged: true
      # increase-fd-ulimit容器 用来执行ulimit命令增加打开文件描述符的最大数量的。 
      - name: increase-fd-ulimit
        image: busybox
        imagePullPolicy: IfNotPresent
        # 增加打开文件描述符的最大数量的。 
        command: ["sh", "-c", "ulimit -n 65536"]
        securityContext:
          privileged: true
  # 使用 volumeClaimTemplates 来定义持久化模板,Kubernetes 会使用它为 Pod 创建 pv
  volumeClaimTemplates:
  - metadata:
      # 定义模板的名称
      name: data
      # 定义模板的标签
      labels:
        app: elasticsearch
    spec:
      # 定义pvc的访问模式为ReadWriteOnce,只能被 mount 到单个节点上进行读写
      accessModes: [ "ReadWriteOnce" ]
      # 设置一个存储类对象,我们需要提前创建该对象,我们这里使用的 NFS 作为存储后端,所以需要安装一个对应的nfs  provisioner 驱动。
      storageClassName: do-block-storage
      resources:
        requests:
          # 定义pvc的大小为1G
          storage: 1Gi


2.2.2、执行

kubectl apply -f /root/efk/elasticsaerch-statefulset.yaml


# 查看
kubectl get pods -n kube-logging

kubectl get StatefulSet -n kube-logging 

efk集群安装部署,k8s,elasticsearch,kubernetes,docker

2.2.3、查看

pod部署完成之后,可以通过REST API检查elasticsearch集群是否部署成功

2.2.3.1、在master1上执行以下命令
# 将本地端口9200转发到 Elasticsearch 节点(如es-cluster-0)对应的端口
kubectl port-forward es-cluster-0 9200:9200 --namespace=kube-logging
2.2.3.2、新开一个master1终端,执行如下请求
curl http://localhost:9200/_cluster/state?pretty

内容

{
  "cluster_name" : "k8s-logs",
  "cluster_uuid" : "6_lgzFwSTVmbxZYcXpklzg",
  "version" : 17,
  "state_uuid" : "_Dh8UScXT8KuPMqyfIlWeQ",
  "master_node" : "3Drb7yF1SJupD63olsPc1Q",
  "blocks" : { },
  "nodes" : {
    "MQIKdEc6TJaddwbnMl1zlg" : {
      "name" : "es-cluster-0",
      "ephemeral_id" : "jgY6M04QQH-BUu96cexFqA",
      "transport_address" : "10.244.1.254:9300",
      "attributes" : {
        "ml.machine_memory" : "4122746880",
        "ml.max_open_jobs" : "20",
        "xpack.installed" : "true"
      }
    },
    "tmPTMGQXQiCM_8HMbTw-fw" : {
      "name" : "es-cluster-2",
      "ephemeral_id" : "PHil1sr-ROuGiQ7H2VM3jA",
      "transport_address" : "10.244.1.3:9300",
      "attributes" : {
        "ml.machine_memory" : "4122746880",
        "ml.max_open_jobs" : "20",
        "xpack.installed" : "true"
      }
    },
    "3Drb7yF1SJupD63olsPc1Q" : {
      "name" : "es-cluster-1",
      "ephemeral_id" : "IQ4R0Cj2RcqzNz5idxHFFQ",
      "transport_address" : "10.244.1.2:9300",
      "attributes" : {
        "ml.machine_memory" : "4122746880",
        "ml.max_open_jobs" : "20",
        "xpack.installed" : "true"
      }
    }
  },
  	
......


表明 名称空间为k8s-logs的 Elasticsearch 集群成功创建了3个节点

  1. es-cluster-0(主节点)
  2. es-cluster-1
  3. es-cluster-2

3、安装kibana组件

elasticsearch安装成功之后,开始部署kibana

3.1、脚本

vi  /root/efk/kibana.yaml

内容

 
apiVersion: v1
kind: Service
metadata:
  # Service名称为kibana
  name: kibana
  # 名称空间
  namespace: kube-logging
  # Service标签
  labels:
    app: kibana
spec:
  # 端口
  ports:
  - port: 5601
  # pod对应的标签
  selector:
    app: kibana
---
apiVersion: apps/v1
kind: Deployment
metadata:
  # Deployment名称
  name: kibana
  # 名称空间
  namespace: kube-logging
  # Deployment标签
  labels:
    app: kibana
spec:
  # 副本数量
  replicas: 1
  # pod对应的标签
  selector:
    matchLabels:
      app: kibana
  # 定义模板
  template:
    metadata:
      # 定义模板的pod标签
      labels:
        app: kibana
    spec:
      # 定义容器
      containers:
        # 容器名称
      - name: kibana
        # 镜像地址
        image: docker.elastic.co/kibana/kibana:7.2.0
        # 镜像拉取策略
        imagePullPolicy: IfNotPresent
        # 定义资源
        resources:
          limits:
            cpu: 1000m
          requests:
            cpu: 100m
        # 定义环境变量
        env:
          - name: ELASTICSEARCH_URL
            # 使用名称为elasticsearch的service进行访问
            value: http://elasticsearch:9200
        # 定义端口
        ports:
        - containerPort: 5601

3.2、执行

kubectl apply -f  /root/efk/kibana.yaml
# 查看
kubectl get pods -n kube-logging

kubectl get svc -n kube-logging 

efk集群安装部署,k8s,elasticsearch,kubernetes,docker

3.3、修改service的type类型为NodePort

nodePort类型可以被k8s之外的主机或者浏览器访问

kubectl edit svc kibana -n kube-logging
# 查看
kubectl get svc -n kube-logging

efk集群安装部署,k8s,elasticsearch,kubernetes,docker

efk集群安装部署,k8s,elasticsearch,kubernetes,docker

3.4、浏览器访问

http://192.168.187.154:32238

efk集群安装部署,k8s,elasticsearch,kubernetes,docker

4、安装fluentd组件

  1. 保证集群中的每个节点都可以运行同样fluentd的pod副本,那就要使用daemonset控制器
  2. fluentd可以采集哪些日志
    1. 容器 的日志
    2. kubelet 的日志
    3. kube-proxy 的日志
    4. docker 的日志
  3. 在k8s集群中,容器应用程序的输入输出日志会重定向到node节点里的json文件中,fluentd可以tail和过滤以及把日志转换成指定的格式发送到elasticsearch集群中。

4.1、脚本

vi  /root/efk/fluentd.yaml

内容


# 创建sa账号
apiVersion: v1
kind: ServiceAccount
metadata:
  # 创建sa账号
  name: fluentd
  # 名称空间为kube-logging
  namespace: kube-logging 
  labels:
    # 选择标签为app: fluentd的pod
    app: fluentd
---
# 对sa账号做rbac授权
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
  name: fluentd
  labels:
    app: fluentd
rules:
- apiGroups:
  - ""
  resources:
  - pods
  - namespaces
  verbs:
  - get
  - list
  - watch
---
kind: ClusterRoleBinding
apiVersion: rbac.authorization.k8s.io/v1
metadata:
  name: fluentd
roleRef:
  kind: ClusterRole
  name: fluentd
  apiGroup: rbac.authorization.k8s.io
subjects:
- kind: ServiceAccount
  name: fluentd
  namespace: kube-logging
---
# 部署fluentd
apiVersion: apps/v1
kind: DaemonSet
metadata:
  # DaemonSet的名称
  name: fluentd
  # 名称空间为kube-logging
  namespace: kube-logging
  # DaemonSet的标签
  labels:
    app: fluentd
spec:
  # 定义标签选择器
  selector:
    matchLabels:
      # 选择标签为app: fluentd的template
      app: fluentd
  # 定义模板
  template:
    metadata:
      labels:
        # 定义标签是app: fluentd的pod
        app: fluentd
    spec:
      # 使用sa账号为fluentd
      serviceAccount: fluentd
      # 使用sa账号为fluentd
      serviceAccountName: fluentd
      # 定义容忍度,可以容忍 key: node-role.kubernetes.io/master,effect: NoSchedule的污点,也就是可以在master上部署pod
      tolerations:
      - key: node-role.kubernetes.io/master
        effect: NoSchedule
      # 定义容器
      containers:
      # 容器名称
      - name: fluentd
        # 镜像地址
        image: fluent/fluentd-kubernetes-daemonset:v1.4.2-debian-elasticsearch-1.1
        # 镜像策略,如果本地有镜像,就使用本地镜像
        imagePullPolicy: IfNotPresent
        # 定义环境变量
        env:
          - name:  FLUENT_ELASTICSEARCH_HOST
            value: "elasticsearch.kube-logging.svc.cluster.local"
          - name:  FLUENT_ELASTICSEARCH_PORT
            value: "9200"
          - name: FLUENT_ELASTICSEARCH_SCHEME
            value: "http"
          - name: FLUENTD_SYSTEMD_CONF
            value: disable
        # 定义资源限制
        resources:
          limits:
            memory: 512Mi
          requests:
            cpu: 100m
            memory: 200Mi
        # 挂载点
        volumeMounts:
        - name: varlog
          mountPath: /var/log
        - name: varlibdockercontainers
          mountPath: /var/lib/docker/containers
          # 只读存储卷
          readOnly: true
      # 等待容器进程完全停止,如果在30s还未完全停止,就发送 SIGKILL 信号强制杀死进程。
      terminationGracePeriodSeconds: 30
      # 定义存储卷
      volumes:
      # 存储卷名称
      - name: varlog
        # 使用hostPath类型的存储卷
        hostPath:
          # 节点的目录
          path: /var/log
      - name: varlibdockercontainers
        hostPath:
          path: /var/lib/docker/containers

4.2、执行

kubectl apply -f  /root/efk/fluentd.yaml

# 查看

kubectl get pods -n kube-logging -o wide
kubectl get sa -n kube-logging 

efk集群安装部署,k8s,elasticsearch,kubernetes,docker

4.3、查看

4.3.1、查Fluentd 启动成功后,可以看到如下配置页面

efk集群安装部署,k8s,elasticsearch,kubernetes,docker

  1. 有个es索引:logstash-当前时间
  2. 这里可以配置我们需要的 Elasticsearch 索引,前面 Fluentd 配置文件中我们采集的日志使用的是 logstash 格式,这里只需要在文本框中输入logstash-*即可匹配到 Elasticsearch 集群中的所有日志数据

4.3.2、创建可视化索引

efk集群安装部署,k8s,elasticsearch,kubernetes,docker
efk集群安装部署,k8s,elasticsearch,kubernetes,docker
efk集群安装部署,k8s,elasticsearch,kubernetes,docker

efk集群安装部署,k8s,elasticsearch,kubernetes,docker

4.4、测试容器日志

4.4.1、脚本

vi  /root/efk/pod.yaml 

内容

apiVersion: v1
kind: Pod
metadata:
  name: counter
spec:
  containers:
  - name: counter
    image: busybox
    imagePullPolicy: IfNotPresent
    args: [/bin/sh, -c,'i=0; while i<100; do echo "$i: $(date)"; i=$((i+1)); sleep 1; done']


4.4.2、执行

kubectl apply -f  /root/efk/pod.yaml 
# 执行一段时间就停掉
kubectl delete -f  /root/efk/pod.yaml 

4.4.3、查看

登录到kibana的控制面板,在discover处的搜索栏中输入kubernetes.pod_name:counter,这将过滤名为的Pod的日志数据counter,如下所示:

efk集群安装部署,k8s,elasticsearch,kubernetes,docker文章来源地址https://www.toymoban.com/news/detail-629733.html

5、总结

  1. 通过上面几个步骤,我们已经在k8s集群成功部署了elasticsearch,fluentd,kibana
  2. 内容
    1. 3个Elasticsearch Pod
    2. 一个Kibana Pod
    3. 一组作为DaemonSet部署的Fluentd Pod。

5.1、要了解更多关于elasticsearch可参考

https://www.elastic.co/cn/blog/small-medium-or-large-scaling-elasticsearch-and-evolving-the-elastic-stack-to-fit

5.2、Kubernetes中还允许使用更复杂的日志系统,要了解更多信息,可参考

https://kubernetes.io/docs/concepts/cluster-administration/logging/
 

到了这里,关于k8s--基础--24.3--efk--安装efk组件的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • EFK简单部署收集K8S日志

    安装ES kibana K8S部署

    2024年04月27日
    浏览(19)
  • K8S部署EFK(fluentd)收集日志

    首先部署es和kinban es部署 创建es-svc es-statefulset.yaml 开启es跨域访问 部署kinban 创建kibana的configmap kinban开启中文 创建kibana 部署fluentd 创建fluentd-configmap 只收集pod label 标记为 logging=true 的日志 注意挂载的日志目录出现unreadable 说明日志软连接有问题,无法读取日志 部署fluentd-dae

    2024年02月16日
    浏览(27)
  • K8s:部署 CNI 网络组件+k8s 多master集群部署+负载均衡及Dashboard k8s仪表盘图像化展示

    目录 1 部署 CNI 网络组件 1.1 部署 flannel 1.2 部署 Calico 1.3 部署 CoreDNS 2 负载均衡部署 3 部署 Dashboard K8S 中 Pod 网络通信: ●Pod 内容器与容器之间的通信 在同一个 Pod 内的容器(Pod 内的容器是不会跨宿主机的)共享同一个网络命令空间,相当于它们在同一台机器上一样,可以用

    2024年02月05日
    浏览(34)
  • 【 云原生 | K8S 】部署 CNI 网络组件+k8s 多master集群部署+负载均衡及Dashboard k8s仪表盘图像化展示管理

    目录 1 部署 CNI 网络组件 1.1 部署 flannel 1.2 部署 Calico 1.3 部署 CoreDNS 2 负载均衡部署 3 部署 Dashboard K8S 中 Pod 网络通信: ●Pod 内容器与容器之间的通信 在同一个 Pod 内的容器(Pod 内的容器是不会跨宿主机的)共享同一个网络命令空间,相当于它们在同一台机器上一样,可以用

    2024年01月22日
    浏览(36)
  • 安装部署k8s集群

    系统: CentOS Linux release 7.9.2009 (Core) 准备3台主机 192.168.44.148 k8s-master 92.168.44.154 k8s-worker01 192.168.44.155 k8s-worker02 3台主机准备工作 关闭防火墙和selinux 关闭swap分区(swap分区会降低性能,所以选择关闭) 参考如下链接: 设置node的主机名,并配置/etc/hosts (这样可以方面看到pod调

    2024年02月19日
    浏览(28)
  • 安装部署(卸载)k8s集群

    Kubeadm是一个K8s部署工具,提供kubeadm init和kubeadm join,用于快速部署Kubernetes集群。  序号 ip地址 hostname 节点 1 10.10.80.220 appnode1 主节点 2 10.10.80.221 appnode2 工作节点 3 10.10.80.222 dbnode 预留  1、安装docker: 2、添加阿里云YUM软件源   3、安装kubeadm,kubelet和kubectl 要求master node和worke

    2024年02月08日
    浏览(29)
  • Kubernetes(k8s)集群安装部署

    名称 IP 系统 配置 主控节点 192.168.202.101 CentOS 7.9.2009 2核4G 工作节点1 192.168.202.102 CentOS 7.9.2009 2核4G 工作节点2 192.168.202.103 CentOS 7.9.2009 2核4G 2.1 升级操作系统内核 导入elrepo gpg key 安装elrepo YUM源仓库 安装kernel-ml版本,ml为长期稳定版本,lt为长期维护版本 设置grub2默认引导为0 重

    2024年02月10日
    浏览(56)
  • K8s集群部署(二进制安装部署详细手册)

       一、简介 K8s部署主要有两种方式: 1、Kubeadm Kubeadm是一个K8s部署工具,提供kubeadm init和kubeadm join,用于快速部署Kubernetes集群。 2、二进制   从github下载发行版的二进制包,手动部署每个组件,组成Kubernetes集群。  本文通过二进制安装部署的方式在centos7上搭建kubernetes集群

    2024年02月15日
    浏览(39)
  • K8S集群安装与部署(Linux系统)

    一、环境说明:CentOS7、三台主机(Master:10.0.0.132、Node1:10.0.0.133、Node2:10.0.0.134) 二、准备环境: 映射 关闭防火墙 三、etcd集群配置 安装etcd(Master) 修改etcd配置文件/etc/etcd/etcd.conf(Master) 安装K8S节点组件、etcd、flannel以及docker(Node1和Node2) 修改etcd配置文件/etc/etcd/et

    2024年02月11日
    浏览(32)
  • K8s基础2——部署单Master节点K8s集群、切换containerd容器运行时、基本命令

    两种部署方式: kubeadm工具部署 。Kubeadm 是一个K8s 部署工具,提供 kubeadm init 和kubeadm join,用于快速部署 Kubernetes集群。 kubeadm 工具功能: kubeadm init:初始化一个 Master 节点。 kubeadm join:将工作节点加入集群。 kubeadm upgrade:升级 K8s 版本。 kubeadm token:管理 kubeadm join 使用的令

    2024年02月12日
    浏览(26)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包