【云原生-Kubernetes篇】K8s的存储卷/数据卷+PV与PVC

这篇具有很好参考价值的文章主要介绍了【云原生-Kubernetes篇】K8s的存储卷/数据卷+PV与PVC。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、Kubernetes中的存储卷

1.1 为什么需要存储卷?

容器部署过程中一般有以下三种数据:

• 启动时需要的初始数据:例如配置文件 (init container)

• 启动过程中产生的临时数据:该临时数据需要多个容器间共享

• 启动过程中产生的持久化数据:例如MySQL的data目录 (业务数据–很重要)

【云原生-Kubernetes篇】K8s的存储卷/数据卷+PV与PVC,Kurbernetes入门到精通,云原生,kubernetes,容器,运维,服务器,云计算,你吃余吗

而容器中的文件在磁盘上是临时存放的,这给容器中运行比较重要的应用程序带来一些问题

问题1: 数据持久化问题,当容器升级或者崩溃时,kubelet会重建容器,容器内文件会丢失

问题2: 数据共享问题,一个Pod中运行多个容器并需要共享文件

Kubernetes中的数据卷(Volume),也可以称为存储卷,能够解决这两个问题。

1.2 存储卷概述

1.2.1 简介

存储卷是用于持久化存储容器中数据的一种机制,可以提供容器内持久化存储的能力,使容器可以在不同的生命周期中保留数据。

数据卷与容器相互独立,并且具有自己的生命周期。

当容器被销毁或重启时,数据卷的内容仍然保持不变,从而确保了容器内数据的持久性(解决了问题1)。

数据卷可以与一个或多个容器进行绑定,使它们可以共享数据(解决了问题2)。

1.2.2 volume字段

Kubernetes中的Volume提供了在容器中挂载外部存储的能力

Pod需要设置卷来源volume)和挂载点volumeMounts)两个信息后才可以使用相应的Volume。

kubectl explain pod.spec.volumes
常用字段名 描述
name 指定数据卷的名称,用于标识该数据卷
<不同类型的数据卷> Kubernetes 支持不同类型的数据卷,如 NFS、GCE Persistent Disk、AWS EBS等,用于满足特定的存储需求
kubectl explain pod.spec.containers.volumeMounts
常用字段名 描述
name 指定要挂载的数据卷的名称
mountPath 指定挂载点的路径,即将数据卷挂载到容器内的哪个目录
readOnly 指定挂载点是否为只读模式。如果设置为 true,则容器只能读取挂载的数据,不能写入

1.3 常用的存储卷类型

1.3.1 emptyDir(临时存储卷)

简介

emptyDir可实现Pod中的容器之间共享目录数据,但没有持久化数据的能力存储卷会随着Pod生命周期结束而一起删除

emptyDir`的一些用途

  • 缓存空间,例如基于磁盘的归并排序。
  • 为耗时较长的计算任务提供检查点,以便任务能方便地从崩溃前状态恢复执行。
  • 在 Web 服务器容器服务数据时,保存内容管理器容器获取的文件。

字段

kubectl explain pod.spec.volumes.emptyDir

【云原生-Kubernetes篇】K8s的存储卷/数据卷+PV与PVC,Kurbernetes入门到精通,云原生,kubernetes,容器,运维,服务器,云计算,你吃余吗

emptyDir.medium 字段用于控制 emptyDir 卷的存储位置,有两个值:MemoryDefault

描述
Memory 表示将 emptyDir 卷存储在主机的内存
数据只存在于 Pod 的生命周期内,并且不会被持久化到磁盘上
Default 表示将 emptyDir 卷存储在主机的磁盘
数据会在 Pod 重新启动时保留,但不会在节点之间持久化

emptyDir.sizeLimit字段用于来限制卷的容量大小,但是不会自动调整底层存储的大小。

因此,如果设置的大小限制超过节点上的可用磁盘空间,可能会导致 Pod 失败启动或运行时出现错误。

emptyDir 配置示例

apiVersion: v1
kind: Pod
metadata:
  name: test-pd
spec:
  containers:
  - image: registry.k8s.io/test-webserver
    name: test-container
    volumeMounts:
    - mountPath: /cache
      name: cache-volume
  volumes:
  - name: cache-volume
    emptyDir:
      sizeLimit: 500Mi

1.3.2 hostPath(节点存储卷)

hostPath将node节点上的目录/文件挂载到Pod容器的指定目录上。

有持久化数据的能力,但只能在单个node节点上持久化数据,不能实现跨node节点的Pod共享数据

hostPath卷配置示例

apiVersion: v1
kind: Pod
metadata:
  name: test-pd
spec:
  containers:
  - image: registry.k8s.io/test-webserver
    name: test-container
    volumeMounts:
    - mountPath: /test-pd
      name: test-volume
  volumes:
  - name: test-volume
    hostPath:
      # 宿主机上目录位置
      path: /data
      # 此字段为可选
      type: Directory

支持的 type 值如下:

取值 行为
空字符串(默认)用于向后兼容,这意味着在安装 hostPath 卷之前不会执行任何检查。
DirectoryOrCreate 如果在给定路径上什么都不存在,那么将根据需要创建空目录,权限设置为 0755,具有与 kubelet 相同的组和属主信息。
Directory 在给定路径上必须存在的目录。
FileOrCreate 如果在给定路径上什么都不存在,那么将在那里根据需要创建空文件,权限设置为 0644,具有与 kubelet 相同的组和所有权。
File 在给定路径上必须存在的文件。
Socket 在给定路径上必须存在的 UNIX 套接字。
CharDevice 在给定路径上必须存在的字符设备。
BlockDevice 在给定路径上必须存在的块设备。

补充:FileOrCreate模式

FileOrCreate 模式不会负责创建文件的父目录。

如果欲挂载的文件的父目录不存在,Pod 启动会失败。

为了确保这种模式能够工作,可以尝试把文件和它对应的目录分开挂载,如 FileOrCreate 配置所示。

apiVersion: v1
kind: Pod
metadata:
  name: test-webserver
spec:
  containers:
  - name: test-webserver
    image: registry.k8s.io/test-webserver:latest
    volumeMounts:
    - mountPath: /var/local/aaa
      name: mydir
    - mountPath: /var/local/aaa/1.txt
      name: myfile
  volumes:
  - name: mydir
    hostPath:
      # 确保文件所在目录成功创建。
      path: /var/local/aaa
      type: DirectoryOrCreate
  - name: myfile
    hostPath:
      path: /var/local/aaa/1.txt
      type: FileOrCreate

1.3.3 nfs

nfs使用nfs服务存储卷挂载Pod容器的指定目录上

有持久化数据的能力,且也能实现跨node节点的Pod共享数据。

nfs卷的配置示例

apiVersion: v1
kind: Pod
metadata:
  name: test-pd
spec:
  containers:
  - image: registry.k8s.io/test-webserver
    name: test-container
    volumeMounts:
    - mountPath: /my-nfs-data
      name: test-volume
  volumes:
  - name: test-volume
    nfs:
      server: my-nfs-server.example.com
      path: /my-nfs-volume
      readOnly: true

注意:不能在 Pod spec 中指定 NFS 挂载可选项

可以选择设置服务端的挂载可选项,或者使用 /etc/nfsmount.conf。

此外,还可以通过允许设置挂载可选项的持久卷挂载 NFS 卷。

1.3.4 cephfs

cephfs 卷允许将现存的 CephFS 卷挂载到 Pod 中。

cephfs 卷可以被预先填充数据,且这些数据可以在 Pod 之间共享,同一 cephfs 卷可同时被多个挂载。

apiVersion: v1
kind: Pod
metadata:
  name: cephfs
spec:
  containers:
  - name: cephfs-rw
    image: kubernetes/pause
    volumeMounts:
    - mountPath: "/mnt/cephfs"
      name: cephfs
  volumes:
  - name: cephfs
    cephfs:
      monitors:
      - 10.16.154.78:6789
      - 10.16.154.82:6789
      - 10.16.154.83:6789
      # by default the path is /, but you can override and mount a specific path of the filesystem by using the path attribute
      # path: /some/path/in/side/cephfs
      user: admin
      secretFile: "/etc/ceph/admin.secret"
      readOnly: true

二、持久数据卷——PV和PVC

2.1 概念

【云原生-Kubernetes篇】K8s的存储卷/数据卷+PV与PVC,Kurbernetes入门到精通,云原生,kubernetes,容器,运维,服务器,云计算,你吃余吗

持久卷(PersistentVolume,PV):K8S在指定的存储设备空间中逻辑划分创建出来的可持久化的存储资源对象。

持久卷声明(PersistentVolumeClaim,PVC):对PV存储资源对象的请求和绑定,也是Pod能够挂载使用的一种存储卷类型。

2.2 PV的生命周期和状态

生命周期

【云原生-Kubernetes篇】K8s的存储卷/数据卷+PV与PVC,Kurbernetes入门到精通,云原生,kubernetes,容器,运维,服务器,云计算,你吃余吗

#PV和PVC之间的相互作用遵循这个生命周期
Provisioning(配置)---> Binding(绑定)---> Using(使用)---> Releasing(释放) ---> Recycling(回收)
生命周期 描述
Provisioning PV 的创建,可以直接创建 PV(静态方式),也可以使用StorageClass 动态创建
Binding 将 PV 分配给 PVC
Using Pod 通过 PVC 使用该 Volume,并可以通过准入控制StorageProtection(1.9及以前版本为PVCProtection) 阻止删除正在使用的 PVC
Releasing Pod 释放 Volume 并删除 PVC
Reclaiming 回收 PV,可以保留 PV 以便下次使用,也可以直接从云存储中删除

状态

PV的状态 描述
Available(可用) 表示为可用状态,PV已经被创建出来了,但是还未被PVC绑定
Bound(已绑定) 表示PV已经被PVC绑定了,PV与PVC是一对一的绑定关系
Released(已释放) 表示PVC被删除了,但是PV还没被回收
Failed(失败) 表示PV被自动回收失败

2.3 访问模式 (Access Modes) 和回收策略 (Reclaim Policy)

访问模式

存储卷在挂载到宿主机系统上时,可以设置不同的访问模式 (Access Modes)

支持的访问模式 描述
ReadWriteOnce (RWO) 读写权限,并且只能被单个Node挂载
ReadOnlyMany (ROX) 只读权限,允许被多个Node挂载
ReadWriteMany(RWX) 读写权限,允许被多个Node挂载

回收策略

通过PV定义中的persistentVolumeReclaimPolicy字段进行设置。

回收策略 描述
Retain(保留) 保留数据,需要手工处理
Recycle(回收) 简单清除文件的操作(例如运行rm -rf /thevolume/*命令),只有 NFS 和 HostPath 两种类型的 PV支持 Recycle 策略
Delete(删除) 与PV相连的后端存储完成Volume的删除操作,AWSElasticBlockStore、 GCEPersistentDis、 AzureDisk和Cinder类型的PV支持 Delete策略

三、静态创建PV

3.1 创建思路

1)准备好存储设备和共享目录;

2)准备yaml配置文件创建PV资源,设置 存储类型访问模式(RWO RWX ROX RWOP)、 空间大小回收策略(Retain Delete Recycle) 、storageClassName等;

3)准备yaml配置文件创建PVC资源,设置 访问模式(必要条件,必须是PV能支持的访问模式)、空间大小(默认就近选择大于等于指定大小的PV) 、storageClassName等来绑定PV

4)创建Pod资源挂载PVC存储卷,设置存储卷类型为 persistentVolumeClaim ,并在容器配置中定义存储卷挂载点目录

3.2 创建实例:NFS使用PV和PVC

Step1 配置nfs存储

#创建共享目录
mkdir /opt/test
cd /opt/test
mkdir v{1,2,3,4,5}
#定义多个共享目录和对应的访问权限
vim /etc/exports
 
/opt/test/v1 192.168.2.0/24(rw,no_root_squash)
/opt/test/v2 192.168.2.0/24(rw,no_root_squash)
/opt/test/v3 192.168.2.0/24(rw,no_root_squash)
/opt/test/v4 192.168.2.0/24(rw,no_root_squash)
/opt/test/v5 192.168.2.0/24(rw,no_root_squash)
#重新加载共享目录,应用修改
exportfs -arv

showmount -e

【云原生-Kubernetes篇】K8s的存储卷/数据卷+PV与PVC,Kurbernetes入门到精通,云原生,kubernetes,容器,运维,服务器,云计算,你吃余吗

Step2 定义PV

#这里定义5个PV,并且定义挂载的路径以及访问模式,还有PV划分的大小。
vim pv-demo.yaml

apiVersion: v1
kind: PersistentVolume
metadata:
  name: pv001
  labels:
    name: pv001
spec:
  nfs:
    path: /opt/test/v1
    server: master01
  accessModes: ["ReadWriteMany","ReadWriteOnce"]
  capacity:
    storage: 1Gi
---
apiVersion: v1
kind: PersistentVolume
metadata:
  name: pv002
  labels:
    name: pv002
spec:
  nfs:
    path: /opt/test/v2
    server: master01
  accessModes: ["ReadWriteOnce"]
  capacity:
    storage: 2Gi
---
apiVersion: v1
kind: PersistentVolume
metadata:
  name: pv003
  labels:
    name: pv003
spec:
  nfs:
    path: /opt/test/v3
    server: master01
  accessModes: ["ReadWriteMany","ReadWriteOnce"]
  capacity:
    storage: 2Gi
---
apiVersion: v1
kind: PersistentVolume
metadata:
  name: pv004
  labels:
    name: pv004
spec:
  nfs:
    path: /opt/test/v4
    server: master01
  accessModes: ["ReadWriteMany","ReadWriteOnce"]
  capacity:
    storage: 4Gi
---
apiVersion: v1
kind: PersistentVolume
metadata:
  name: pv005
  labels:
    name: pv005
spec:
  nfs:
    path: /opt/test/v5
    server: master01
  accessModes: ["ReadWriteMany","ReadWriteOnce"]
  capacity:
    storage: 5Gi
kubectl apply -f pv-demo.yaml -n my-ns
kubectl get pv -n my-ns

【云原生-Kubernetes篇】K8s的存储卷/数据卷+PV与PVC,Kurbernetes入门到精通,云原生,kubernetes,容器,运维,服务器,云计算,你吃余吗

Step3 定义PVC

这里定义了pvc的访问模式为多路读写,该访问模式必须在前面pv定义的访问模式之中。

定义PVC申请的大小为2Gi,此时PVC会自动去匹配多路读写且大小为2Gi的PV,匹配成功获取PVC的状态即为Bound

vim pod-vol-pvc.yaml

apiVersion: v1
kind: PersistentVolumeClaim
metadata:
  name: mypvc
  namespace: my-ns
spec:
  accessModes: ["ReadWriteMany"]
  resources:
    requests:
      storage: 2Gi
---
apiVersion: v1
kind: Pod
metadata:
  name: pod-vol-pvc
  namespace: my-ns
spec:
  containers:
  - name: myapp
    image: nginx
    volumeMounts:
    - name: html
      mountPath: /usr/share/nginx/html
  volumes:
    - name: html
      persistentVolumeClaim:
        claimName: mypvc
kubectl apply -f pod-vol-pvc.yaml

kubectl get pv

【云原生-Kubernetes篇】K8s的存储卷/数据卷+PV与PVC,Kurbernetes入门到精通,云原生,kubernetes,容器,运维,服务器,云计算,你吃余吗

kubectl get pvc

【云原生-Kubernetes篇】K8s的存储卷/数据卷+PV与PVC,Kurbernetes入门到精通,云原生,kubernetes,容器,运维,服务器,云计算,你吃余吗

Step4 访问测试

在存储服务器上创建index.html,并写入数据,通过访问Pod进行查看,可以获取到相应的页面。

#创建测试页面
cd /opt/test/v3/
echo "welcome to use pv3" > index.html
kubectl get pods -o wide -n my-ns

【云原生-Kubernetes篇】K8s的存储卷/数据卷+PV与PVC,Kurbernetes入门到精通,云原生,kubernetes,容器,运维,服务器,云计算,你吃余吗

#访问测试
firefox http://10.244.2.82

【云原生-Kubernetes篇】K8s的存储卷/数据卷+PV与PVC,Kurbernetes入门到精通,云原生,kubernetes,容器,运维,服务器,云计算,你吃余吗

四、动态创建PV

4.1 创建思路

1)准备好存储设备和共享目录;

2)如果是外置存储卷插件,需要先创建serviceaccount账户(Pod使用的账户)和做RBAC授权(创建角色授予相关资源对象的操作权限,再将账户与角色进行绑定),使sa账户具有对PV PVC StorageClass等资源的操作权限;

3)准备yaml配置文件创建外置存储卷插件的Pod,设置sa账户作为Pod的用户,并设置相关的环境变量(比如存储卷插件名称);

4)创建StorageClass(简称SC)资源,provisioner自动设置为存储卷插件名称 ;

以上操作是一劳永逸的,之后只需要创建PVC资源时引用StorageClass就可以自动调用存储卷插件动态创建PV资源了

5)准备yaml配置文件创建PVC资源,设置 访问模式、空间大小 storageClassName指定SC资源名称等来动态创建PV资源并绑定PV;

6)创建Pod资源挂载PVC存储卷,设置存储卷类型为 persistentVolumeClaim ,并在容器配置中定义存储卷挂载点目录。文章来源地址https://www.toymoban.com/news/detail-752853.html

4.2 StorageClass的概念

官方文档:存储类 | Kubernetes

简介

存储类(Storage Class) 是 Kubernetes 中用于定义持久卷(Persistent Volume)的类型和行为的对象

它定义了动态分配的存储和卷的属性,并指定如何创建和管理这些存储资源。

关于默认的StorageClass

当一个 PVC 没有指定 storageClassName 时,会使用默认的 StorageClass。

集群中只能有一个默认的 StorageClass。

如果不小心设置了多个默认的 StorageClass, 当 PVC 动态配置时,将使用最新设置的默认 StorageClass

关于字段

每个 StorageClass 都包含 provisionerparametersreclaimPolicy 字段, 这些字段会在 StorageClass 需要动态制备 PersistentVolume 时会使用到。

功能

1)提供动态卷配置:存储类可以与动态卷配置程序(比如 CSI 驱动程序)集成,以便在创建 PVC(Persistent Volume Claim)时自动创建相应的 PV(Persistent Volume)

2)指定卷的参数: 存储类可以定义卷的各种参数和配置选项,如访问模式、卷大小、复制策略等。

3)支持动态卷生命周期管理: 存储类可以定义如何动态创建、扩容和销毁卷,以及何时回收 PV 等。

4.3 Provisioner的概念

Provisioner(存储分配器): 卷插件,用于指定 Volume 插件的类型,包括内置插件(如 kubernetes.io/aws-ebs)和外部插件(如 external-storage 提供的 ceph.com/cephfs)。

详见:https://kubernetes.io/zh/docs/concepts/storage/storage-classes/

Kubernetes 本身支持的动态 PV 创建不包括 NFS,所以需要使用外部存储卷插件分配PV。

4.4 实例:NFS 的动态 PV 创建

搭建 StorageClass + nfs-client-provisioner ,实现 NFS 的动态 PV 创建

Step1 在master01节点上安装nfs,并配置nfs服务

#创建共享目录
mkdir /opt/test2
chmod 777 /opt/test2/

#添加权限
vim /etc/exports
/opt/test2 192.168.2.0/24(rw,no_root_squash,sync)
#重启NFS服务
systemctl restart nfs

exportfs -var
showmount -e

【云原生-Kubernetes篇】K8s的存储卷/数据卷+PV与PVC,Kurbernetes入门到精通,云原生,kubernetes,容器,运维,服务器,云计算,你吃余吗

Step2 创建 Service Account

Service Account 用来管理 NFS Provisioner 在 k8s 集群中运行的权限,设置nfs-clientPVPVCStorageClass 等的规则

#编写配置清单文件
vim nfs-client-rbac.yaml

#创建 Service Account 账户,用来管理 NFS Provisioner 在 k8s 集群中运行的权限
apiVersion: v1
kind: ServiceAccount
metadata:
  name: nfs-client-provisioner
---
#创建集群角色
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
  name: nfs-client-provisioner-clusterrole
rules:
  - apiGroups: [""]
    resources: ["persistentvolumes"]
    verbs: ["get", "list", "watch", "create", "delete"]
  - apiGroups: [""]
    resources: ["persistentvolumeclaims"]
    verbs: ["get", "list", "watch", "update"]
  - apiGroups: ["storage.k8s.io"]
    resources: ["storageclasses"]
    verbs: ["get", "list", "watch"]
  - apiGroups: [""]
    resources: ["events"]
    verbs: ["list", "watch", "create", "update", "patch"]
  - apiGroups: [""]
    resources: ["endpoints"]
    verbs: ["create", "delete", "get", "list", "watch", "patch", "update"]
---
#集群角色绑定
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
  name: nfs-client-provisioner-clusterrolebinding
subjects:
- kind: ServiceAccount
  name: nfs-client-provisioner
  namespace: default
roleRef:
  kind: ClusterRole
  name: nfs-client-provisioner-clusterrole
  apiGroup: rbac.authorization.k8s.io
##配置清单文件详解##
用于创建一个 Service Account 账户和相关的 Role、RoleBinding,用于管理 NFS Provisioner 在 Kubernetes 集群中的权限。

首先,创建了一个 Service Account 账户,命名为 "nfs-client-provisioner"

然后,创建了一个 Cluster Role,命名为 "nfs-client-provisioner-clusterrole"。
该角色定义了一组权限规则,包括对持久卷(persistentvolume)的获取、列表、监视、创建和删除操作,对持久卷声明(persistentvolumeclaim)的获取、列表、监视和更新操作,对存储类(storageclass)的获取、列表和监视操作,对事件(events)和端点(endpoints)的获取、列表、监视、创建、更新等操作。

最后,创建了一个 Cluster Role Binding,将上述角色与之前创建的 Service Account 进行绑定,并将其绑定到默认命名空间(namespace)中。
kubectl apply -f nfs-client-rbac.yaml
#Service Account "nfs-client-provisioner" 具备了管理 NFS Provisioner 所需的权限。

【云原生-Kubernetes篇】K8s的存储卷/数据卷+PV与PVC,Kurbernetes入门到精通,云原生,kubernetes,容器,运维,服务器,云计算,你吃余吗

Step3 使用 Deployment 创建 NFS Provisioner

NFS Provisioner(即 nfs-client),有两个功能
1)在 NFS 共享目录下创建挂载点(volume),另一个则是将 PV 与 NFS 的挂载点建立关联。

编写资源配置清单文件

#编写配置清单文件
vim nfs-client-provisioner.yaml

kind: Deployment
apiVersion: apps/v1
metadata:
  name: nfs-client-provisioner
spec:
  replicas: 1
  selector:
    matchLabels:
      app: nfs-client-provisioner
  strategy:
    type: Recreate
  template:
    metadata:
      labels:
        app: nfs-client-provisioner
    spec:
      serviceAccountName: nfs-client-provisioner   	  #指定Service Account账户
      containers:
        - name: nfs-client-provisioner
          image: quay.io/external_storage/nfs-client-provisioner:latest
          imagePullPolicy: IfNotPresent
          volumeMounts:
            - name: nfs-client-root
              mountPath: /persistentvolumes
          env:
            - name: PROVISIONER_NAME
              value: nfs-storage       #配置provisioner的Name,确保该名称与StorageClass资源中的provisioner名称保持一致
            - name: NFS_SERVER
              value: master01           #配置绑定的nfs服务器
            - name: NFS_PATH
              value: /opt/test2/          #配置绑定的nfs服务器目录
      volumes:              #申明nfs数据卷
        - name: nfs-client-root
          nfs:
            server: master01
            path: /opt/test2/

创建

kubectl apply -f nfs-client-provisioner.yaml 

kubectl get po 

【云原生-Kubernetes篇】K8s的存储卷/数据卷+PV与PVC,Kurbernetes入门到精通,云原生,kubernetes,容器,运维,服务器,云计算,你吃余吗

补充:报错解决方法
#由于 1.20 版本启用了 selfLink,所以 k8s 1.20+ 版本通过 nfs provisioner 动态生成pv会报错,解决方法如下:
vim /etc/kubernetes/manifests/kube-apiserver.yaml
spec:
  containers:
  - command:
    - kube-apiserver
    - --feature-gates=RemoveSelfLink=false       #添加这一行
    - --advertise-address=192.168.2.100
.....

【云原生-Kubernetes篇】K8s的存储卷/数据卷+PV与PVC,Kurbernetes入门到精通,云原生,kubernetes,容器,运维,服务器,云计算,你吃余吗

kubectl apply -f /etc/kubernetes/manifests/kube-apiserver.yaml

kubectl delete pods kube-apiserver -n kube-system

kubectl get pods -n kube-system | grep apiserver

Step4 创建 StorageClass

负责建立 PVC 并调用 NFS provisioner 进行预定的工作,并让 PV 与 PVC 建立关联。

#编写配置清单文件
vim nfs-client-storageclass.yaml

apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  name: nfs-client-storageclass
provisioner: nfs-storage     #这里的名称要和provisioner配置文件中的环境变量PROVISIONER_NAME保持一致
parameters:
  archiveOnDelete: "false"   #false表示在删除PVC时不会对数据目录进行打包存档,即删除数据;为ture时就会自动对数据目录进行打包存档,存档文件以archived开头
#声明式创建
kubectl apply -f nfs-client-storageclass.yaml

kubectl get storageclass

【云原生-Kubernetes篇】K8s的存储卷/数据卷+PV与PVC,Kurbernetes入门到精通,云原生,kubernetes,容器,运维,服务器,云计算,你吃余吗

Step5 创建 PVC ,进行Pod 测试

创建PVC

vim test-pvc-pod.yaml

apiVersion: v1
kind: PersistentVolumeClaim
metadata:
  name: test-nfs-pvc
  #annotations: volume.beta.kubernetes.io/storage-class: "nfs-client-storageclass"     #另一种SC配置方式
spec:
  accessModes:
    - ReadWriteMany
  storageClassName: nfs-client-storageclass    #关联StorageClass对象
  resources:
    requests:
      storage: 1Gi
---
apiVersion: v1
kind: Pod
metadata:
  name: test-storageclass-pod
spec:
  containers:
  - name: busybox
    image: busybox:latest
    imagePullPolicy: IfNotPresent
    command:
    - "/bin/sh"
    - "-c"
    args:
    - "sleep 3600"
    volumeMounts:
    - name: nfs-pvc
      mountPath: /mnt
  restartPolicy: Never
  volumes:
  - name: nfs-pvc
    persistentVolumeClaim:
      claimName: test-nfs-pvc      #与PVC名称保持一致
kubectl apply -f test-pvc-pod.yaml

kubectl get pvc 

【云原生-Kubernetes篇】K8s的存储卷/数据卷+PV与PVC,Kurbernetes入门到精通,云原生,kubernetes,容器,运维,服务器,云计算,你吃余吗

【云原生-Kubernetes篇】K8s的存储卷/数据卷+PV与PVC,Kurbernetes入门到精通,云原生,kubernetes,容器,运维,服务器,云计算,你吃余吗

查看 NFS 服务器上是否生成对应的目录

自动创建的 PV 会以 ${namespace}-${pvcName}-${pvName} 的目录格式放到 NFS 服务器上。

ls /opt/test2

【云原生-Kubernetes篇】K8s的存储卷/数据卷+PV与PVC,Kurbernetes入门到精通,云原生,kubernetes,容器,运维,服务器,云计算,你吃余吗

Pod测试

测试思路: 进入 Pod 在挂载目录 /mnt 下写一个文件,然后查看 NFS 服务器上是否存在该文件

#进入Pod,创建测试文件
kubectl exec -it test-storageclass-pod sh

/ # cd /mnt/
/mnt # echo 'this is test file' > test.txt

【云原生-Kubernetes篇】K8s的存储卷/数据卷+PV与PVC,Kurbernetes入门到精通,云原生,kubernetes,容器,运维,服务器,云计算,你吃余吗

#进入到目录
cd /opt/test2/default-test-nfs-pvc-pvc-7a63142b-a4b4-4f07-966c-828ca60bbdcb

【云原生-Kubernetes篇】K8s的存储卷/数据卷+PV与PVC,Kurbernetes入门到精通,云原生,kubernetes,容器,运维,服务器,云计算,你吃余吗

五、小结

5.1 PV、PVC的概念和状态

概念

PV: K8S在指定的存储设备空间中逻辑划分创建出来的可持久化的存储资源对象。

PVC: 对PV存储资源对象的请求和绑定,也是Pod能够挂载使用的一种存储卷类型。

创建方式简介

手动根据PV资源的yaml配置文件创建静态PV

根据PVC的配置通过StorageClass(简称SC)资源调用存储卷插件创建动态PV

PV的4种状态

PV的状态 描述
Available(可用) 表示为可用状态,PV已经被创建出来了,但是还未被PVC绑定
Bound(已绑定) 表示PV已经被PVC绑定了,PV与PVC是一对一的绑定关系
Released(已释放) 表示PVC被删除了,但是PV还没被回收
Failed(失败) 表示PV被自动回收失败

5.2 静态和动态创建PV的思路

创建使用静态PV

1)准备好存储设备和共享目录;

2)准备yaml配置文件创建PV资源,设置 存储类型访问模式(RWO RWX ROX RWOP)、 空间大小回收策略(Retain Delete Recycle) 、storageClassName等;

3)准备yaml配置文件创建PVC资源,设置 访问模式(必要条件,必须是PV能支持的访问模式)、空间大小(默认就近选择大于等于指定大小的PV) 、storageClassName等来绑定PV

4)创建Pod资源挂载PVC存储卷,设置存储卷类型为 persistentVolumeClaim ,并在容器配置中定义存储卷挂载点目录

创建使用动态PV

1)准备好存储设备和共享目录;

2)如果是外置存储卷插件,需要先创建serviceaccount账户(Pod使用的账户)和做RBAC授权(创建角色授予相关资源对象的操作权限,再将账户与角色进行绑定),使sa账户具有对PV PVC StorageClass等资源的操作权限;

3)准备yaml配置文件创建外置存储卷插件的Pod,设置sa账户作为Pod的用户,并设置相关的环境变量(比如存储卷插件名称);

4)创建StorageClass(简称SC)资源,provisioner自动设置为存储卷插件名称 ;

以上操作是一劳永逸的,之后只需要创建PVC资源时引用StorageClass就可以自动调用存储卷插件动态创建PV资源了

5)准备yaml配置文件创建PVC资源,设置 访问模式、空间大小 storageClassName指定SC资源名称等来动态创建PV资源并绑定PV;

6)创建Pod资源挂载PVC存储卷,设置存储卷类型为 persistentVolumeClaim ,并在容器配置中定义存储卷挂载点目录。

通过陈述式管理资源配置的方式 修改或添加资源对象的配置
kubectl patch <资源类型> <资源名称> -p '{"第一层字段": {"第二层字段": {....}}}'

kubectl patch deployment deploy-test -p '{"spec": {"replicas": 0}}'
kubectl patch deployment deploy-test -p '{"spec": {"template": {"spec": {"containers": [{"name": "myapp", "image": "soscscs/myapp:v1"}]}}}}'

创建使用动态PV

1)准备好存储设备和共享目录;

2)如果是外置存储卷插件,需要先创建serviceaccount账户(Pod使用的账户)和做RBAC授权(创建角色授予相关资源对象的操作权限,再将账户与角色进行绑定),使sa账户具有对PV PVC StorageClass等资源的操作权限;

3)准备yaml配置文件创建外置存储卷插件的Pod,设置sa账户作为Pod的用户,并设置相关的环境变量(比如存储卷插件名称);

4)创建StorageClass(简称SC)资源,provisioner自动设置为存储卷插件名称 ;

以上操作是一劳永逸的,之后只需要创建PVC资源时引用StorageClass就可以自动调用存储卷插件动态创建PV资源了

5)准备yaml配置文件创建PVC资源,设置 访问模式、空间大小 storageClassName指定SC资源名称等来动态创建PV资源并绑定PV;

6)创建Pod资源挂载PVC存储卷,设置存储卷类型为 persistentVolumeClaim ,并在容器配置中定义存储卷挂载点目录。

通过陈述式管理资源配置的方式 修改或添加资源对象的配置
kubectl patch <资源类型> <资源名称> -p '{"第一层字段": {"第二层字段": {....}}}'

kubectl patch deployment deploy-test -p '{"spec": {"replicas": 0}}'
kubectl patch deployment deploy-test -p '{"spec": {"template": {"spec": {"containers": [{"name": "myapp", "image": "soscscs/myapp:v1"}]}}}}'

到了这里,关于【云原生-Kubernetes篇】K8s的存储卷/数据卷+PV与PVC的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • k8s ------存储卷(PV、PVC)

    目录 一:为什么需要存储卷? 二:emptyDir存储卷  ​三:hostPath存储卷  四:nfs共享存储卷   五:PVC 和 PV 1、PVC 和 PV介绍 2、PV和PVC之间的相互作用遵循的生命周期 3、PV 的4 种状态 4、一个PV从创建到销毁的具体流程 六:静态创建pv和pvc资源由pod运用过程 ​1、配置nfs存储 ​

    2024年02月13日
    浏览(47)
  • k8s 存储卷和pvc,pv

    存储卷---数据卷 容器内的目录和宿主机的目录进行挂载。 容器在系统上的生命周期是短暂的,deletek8s用控制器创建的pod,delete相当于重启,容器的状态也会回复到初始状态。 一旦回到初始状态,所有的后天编辑的文件的都会消失。 容器容器和节点之间创建一个可以持久化保

    2024年01月16日
    浏览(51)
  • k8s pv pvc的介绍|动态存储|静态存储

    当Pod被分配给节点时,首先创建emptyDir卷,并且只要该Pod在该节点上运行,该卷就会存在。正如卷的名字所述,它最初是空的。Pod 中的容器可以读取和写入emptyDir卷中的相同文件,尽管该卷可以挂载到每个容器中的相同或不同路径上。当出于任何原因从节点中删除 Pod 时,em

    2024年02月06日
    浏览(37)
  • K8s---存储卷(动态pv和pvc)

    当我要发布pvc可以生成pv,还可以共享服务器上直接生成挂载目录。pvc直接绑定pv。 1、卷插件:k8s本生支持的动态pv创建不包括nfs,需要声明和安装一个外部插件 Provisioner: 存储分配器。动态创建pv,然后根据pvc的请求自动绑定和使用。 2、StorageClass:来定义pv的属性,存储类型

    2024年01月21日
    浏览(58)
  • k8s中的PV和PVC存储介绍

    目录 一.PV介绍 1.含义 2.关键配置参数 二.PVC介绍 1.含义 2.关键参数配置 三.PV和PVC的生命周期问题 1.PV的生命周期会有4个阶段 2.用户申请空间PV的周期流程 3.PV和PVC的使用/释放/回收 四.案例演示 1.NFS配置 2.新建PV 3.新建PVC 4.新建Pod测试 5.模拟删除Pod后后端目录内数据不会受影响

    2024年03月15日
    浏览(49)
  • K8S持久化存储--- PVC和PV的存储

    PersistentVolume ( PV )是群集中的一块存储,由管理员配置或使用存储类动态配置。 它是集群中的资源,就像 pod 是 k8s 集群资源一样。 PV是容量插件,如 Volumes ,其生命周期独立于使用 PV 的任何单个 pod 。 PersistentVolumeClaim ( PVC )是一个持久化存储卷,我们在创建 pod 时可以

    2023年04月10日
    浏览(51)
  • Kubernetes基础(二十二)-K8S的PV/PVC/StorageClass详解

    先来个 一句话总结 :PV、PVC是K8S用来做存储管理的资源对象,它们让存储资源的使用变得 可控 ,从而保障系统的稳定性、可靠性。StorageClass则是为了减少人工的工作量而去 自动化创建 PV的组件。所有Pod使用存储只有一个原则: 先规划  →  后申请  →  再使用 。 1.1 PV概念

    2024年02月20日
    浏览(52)
  • k8s篇-应用持久化存储(PV和PVC)

    一般来说,容器一旦被删除后,容器运行时内部产生的所有文件数据也会被清理掉,因此,Docker提供了 Volume 这种方式来将数据持久化存储。 可以说,Volume 是Pod与外部存储设备进行数据传递的通道,也是Pod内部容器间、Pod与Pod间、Pod与外部环境进行数据共享的方式。 实际上

    2023年04月08日
    浏览(45)
  • K8S临时存储-本地存储-PV和PVC的使用-动态存储(StorageClass)

    容器中的文件在磁盘上是临时存放的,当容器崩溃或停止时容器上面的数据未保存, 因此在容器生命周期内创建或修改的所有文件都将丢失。 在崩溃期间,kubelet 会以干净的状态重新启动容器。 当多个容器在一个 Pod 中运行并且需要共享文件时,会出现另一个问题,跨所有容

    2024年04月16日
    浏览(50)
  • k8s pv与pvc

    1.前言 PV 是 Kubernetes 集群中的一种资源对象,它代表着一块物理存储设备,例如磁盘、网络存储或云存储等。PV 可以被多个 Pod 共享,并且可以独立于 Pod 存在。PV 可以配置不同的访问模式 (Access Modes),例如 ReadWriteOnce 、 ReadOnlyMany 或 ReadWriteMany ,以确定 PV 可以被多少个 Pod 同

    2024年01月21日
    浏览(55)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包