k8s pv与pvc

这篇具有很好参考价值的文章主要介绍了k8s pv与pvc。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1.前言

PV 是 Kubernetes 集群中的一种资源对象,它代表着一块物理存储设备,例如磁盘、网络存储或云存储等。PV 可以被多个 Pod 共享,并且可以独立于 Pod 存在。PV 可以配置不同的访问模式 (Access Modes),例如 ReadWriteOnceReadOnlyManyReadWriteMany,以确定 PV 可以被多少个 Pod 同时挂载以及这些 Pod 是否可以进行读写操作。PV 还可以配置不同的回收策略 (Reclaim Policy),例如 RetainDeleteRecycle,以确定 PV 在被释放后如何进行清理,PVC 是 Kubernetes 集群中的另一种资源对象,它代表着一个 Pod 对 PV 的请求。PVC 可以指定所需的存储容量和访问模式,以及所需的 PV 的属性,例如存储类、访问模式和标签等。当 Pod 需要使用持久化存储时,它可以通过 PVC 来请求 PV。如果没有匹配的 PV 可用,则 Kubernetes 将自动创建一个新的 PV 来满足 PVC 的要求

2.配置存储

本实验搭建nfs存储来做为pv的存储

用master节点搭建nfs服务端

yum -y install nfs-common nfs-utils

创建nfs共享目录

mkdir /k8s-master

授权共享目录

chmod 666 /k8s-master

配置exports文件

cat > /etc/exports << EOF

/k8s-data *(rw,no_root_squash,no_all_squash,sync)

EOF

启动nfs服务

systemctl strart rpcbind

systemctl start nfs

在所有node节点也需要按照nfs客户端,不然使用pv时挂载不了

yum -y install nfs-utils

3.静态pv

3.1先来说一下pv中的几个参数配置项

persistentVolumeReclaimPolicy配置pv回收策略,有以下三个参数

Retain:此回收策略在删除pvc时,不会清除pv中的数据,并且pv也不会自动回收,需要手动删除pv重建,pv才会变成可用状态,当然重建后pv路径中的数据依然还存在

Recycle:删除pvc后,自动清除pv挂载路径下的数据,pv变为可被绑定状态,但是此策略已经在k8s 1.22.0版本中被废弃了

Delete: 删除 Storage Provider上对应的存储资源,但是NFS不支持Delete策略,只有使用其它的存储才支持,例如 AWS EBS等

accessModes配置访问模式,有以下三个参数

ReadWriteOnce:pv可以被一个节点以读写的方式挂载

ReadOnlyMany:pv可以被多个节点以只读的方式挂载

ReadWriteMany:pv可以被多个节点以读写的方式挂载

限制多节点和单节点的挂载对NFS存储无效,NFS 存储插件支持多次挂载,即使 accessModes 属性设置为 ReadWriteOnce,也可以被多个 Pod 挂载

3.2 创建pv

我这边因为有nas存储所以就没用master作为服务器

因为使用的是nfs网络共享存储服务,所以所有k8s节点都需要提前安装nfs服务,不然挂载会出现报错

yum -y install nfs-utils

创建pv yaml文件

vi pv1.yaml

apiVersion: v1
kind: PersistentVolume
metadata:
  name: pv1
spec:
  capacity:
    storage: 1Gi    #配置容量大小
  accessModes:
    - ReadWriteOnce     #配置访问策略为只允许一个节点读写
  persistentVolumeReclaimPolicy: Retain  #配置回收策略,Retain为手动回收
  storageClassName: nfs       #配置为nfs
  nfs:
    path: /volume2/k8s-data/pv1   #配置nfs服务端的共享路径
    server: 10.1.13.99    #配置nfs服务器地址

使用yaml文件生成pv

kubectl create -f pv1.yaml

kubectl get pv

k8s创建pvc,绑定到指定的pv上,kubernetes,kubernetes,java,容器

 可以看到已经按yaml文件中的要求创建了一个pv,状态为availabel,此状态为可绑定状态

在这里也介绍一下pv的几个状态

Available:PV 可以被 PVC 请求并绑定

Bound:PV 已经被 PVC 绑定,并且可以被 Pod 挂载和使用

Released:PVC 已经释放了 PV,但是 PV 中的数据仍然存在,可以被其他 PVC 请求并绑定

Failed:PV 的状态出现了错误,可能是由于存储设备故障或者其他原因导致的

3.3创建pvc

vi pvc1.yaml

apiVersion: v1
kind: PersistentVolumeClaim
metadata:
  name: pvc1
spec:
  accessModes:
    - ReadWriteOnce
  resources:
    requests:
      storage: 1Gi
  storageClassName: nfs

执行yaml文件创建pvc

kubectl create -f pvc1.yaml

kubectl get pvc

k8s创建pvc,绑定到指定的pv上,kubernetes,kubernetes,java,容器

 可以看到已经创建出了pvc,并且状态为绑定状态,再来查看一下pv的状态

kubectl get pv

k8s创建pvc,绑定到指定的pv上,kubernetes,kubernetes,java,容器

可以看到pv也是bound状态,接下来创建一个deployment来使用这个pvc 

3.4创建deployement

vi deployment-nginx.yaml

apiVersion: apps/v1
kind: Deployment
metadata: 
  labels:
    app: nginx
  name: nginx
  namespace: default
spec:
  replicas: 5
  progressDeadlineSeconds: 600
  minReadySeconds: 10
  strategy:
    rollingUpdate:
      maxSurge: 1
      maxUnavailable: 0
    type: RollingUpdate
  selector:
    matchLabels:
      app: nginx
  template:
    metadata:
      labels:
        app: nginx
    spec: 
      containers:
      - name: nginx
        image: nginx:1.21
        imagePullPolicy: IfNotPresent
        ports:
        - containerPort: 80
        volumeMounts:        #配置在pod上的挂载目录
        - mountPath: "/data"
          name: data
      volumes:      #配置使用pvc
        - name: data
          persistentVolumeClaim:
            claimName: pvc1

现在来执行一下这个yaml

kubectl create -f deployment-nginx.yaml 

kubectl describe deployment nginx

k8s创建pvc,绑定到指定的pv上,kubernetes,kubernetes,java,容器

查看deployment的详细信息可以看到我们配置的挂载,进入pod的挂载目录创建一下文件看看效果

 kubectl get pod -l app=nginx

kubectl exec -it nginx-848ccb9994-8hkx7 /bin/sh

k8s创建pvc,绑定到指定的pv上,kubernetes,kubernetes,java,容器

可以看到我们在挂载的目录中创建了一个123.txt的文件,在nfs服务端路径中查看一下效果

 k8s创建pvc,绑定到指定的pv上,kubernetes,kubernetes,java,容器

可以看到在nfs服务端的路径中同步创建出了123.txt文件,现在我们把deployment和pvc都删除掉看看会怎么样

kubectl delete deployment nginx

kubectl delete pvc pvc1

kubectl get pv

k8s创建pvc,绑定到指定的pv上,kubernetes,kubernetes,java,容器

 可以看到我们把pvc删除后pv变成了released状态数据也依然存在,这是因为配置了回收策略为retain,需要手动删除数据,可以把pv删除后重建就会变回available状态,即使把pv删除,路径中的数据依然存在

kubectl delete -f pv1.yaml

kubectl create -f pv1.yaml

kubectl get pv

ls /dev/nas/pv1

k8s创建pvc,绑定到指定的pv上,kubernetes,kubernetes,java,容器

 因为使用的是nfs的原因也展示不了其它的回收策略和写入策略的功能

4.动态pv

当使用pv比较多的时候,使用自动创建pv是比较方便的

因为使用的是nfs的原因需要额外安装一个NFS Client Provisioner插件

4.1安装插件并授权

vi nfs-rbac.yaml

#配置插件rabc权限yaml
kind: ServiceAccount
apiVersion: v1
metadata:
  name: nfs-client-provisioner
---
kind: ClusterRole
apiVersion: rbac.authorization.k8s.io/v1
metadata:
  name: nfs-client-provisioner-runner
rules:
  - apiGroups: [""]
    resources: ["persistentvolumes"]
    verbs: ["get", "list", "watch", "create", "delete"]
  - apiGroups: [""]
    resources: ["persistentvolumeclaims"]
    verbs: ["get", "list", "watch", "update"]
  - apiGroups: ["storage.k8s.io"]
    resources: ["storageclasses"]
    verbs: ["get", "list", "watch"]
  - apiGroups: [""]
    resources: ["events"]
    verbs: ["create", "update", "patch"]
---
kind: ClusterRoleBinding
apiVersion: rbac.authorization.k8s.io/v1
metadata:
  name: run-nfs-client-provisioner
subjects:
  - kind: ServiceAccount
    name: nfs-client-provisioner
    namespace: default
roleRef:
  kind: ClusterRole
  name: nfs-client-provisioner-runner
  apiGroup: rbac.authorization.k8s.io
---
kind: Role
apiVersion: rbac.authorization.k8s.io/v1
metadata:
  name: leader-locking-nfs-client-provisioner
rules:
  - apiGroups: [""]
    resources: ["endpoints"]
    verbs: ["get", "list", "watch", "create", "update", "patch"]
---
kind: RoleBinding
apiVersion: rbac.authorization.k8s.io/v1
metadata:
  name: leader-locking-nfs-client-provisioner
subjects:
  - kind: ServiceAccount
    name: nfs-client-provisioner
    namespace: default
roleRef:
  kind: Role
  name: leader-locking-nfs-client-provisioner
  apiGroup: rbac.authorization.k8s.io

#创建nfs插件yaml
---
kind: Deployment
apiVersion: apps/v1
metadata:
  name: nfs-client-provisioner
  namespace: default
  labels:
    app: nfs-client-provisioner
spec:
  replicas: 1
  strategy:
    type: Recreate
  selector:
    matchLabels:
      app: nfs-client-provisioner
  template:
    metadata:
      labels:
        app: nfs-client-provisioner
    spec:
      serviceAccountName: nfs-client-provisioner
      containers:
        - name: nfs-client-provisioner
          image: gmoney23/nfs-client-provisioner   #插件镜像
          volumeMounts:
            - name: nfs-client-root
              mountPath: /persistentvolumes
          env:
            - name: PROVISIONER_NAME
              value: nfs-client
            - name: NFS_SERVER
              value: 10.1.13.99   #配置nfs服务地址
            - name: NFS_PATH
              value: /volume2/k8s-data  #配置nfs服务的共享路径
      volumes:
        - name: nfs-client-root  
          nfs:
            server: 10.1.13.99  #配置nfs服务地址
            path: /volume2/k8s-data  #配置nfs服务的共享路径


#配置自动创建pv的模板yaml
---
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  name: nfs-storage
  annotations:
    storageclass.kubernetes.io/is-default-class: "true"
provisioner: nfs-client
parameters:
  archiveOnDelete: "true"

我这边为了方便直接把配置pv自动创建模板的yaml也写到了一起,接下来执行一下这个yaml文件

 kubectl create -f nfs-rbac.yaml

kubectl get storageclass

k8s创建pvc,绑定到指定的pv上,kubernetes,kubernetes,java,容器

这边来创建pvc测试一下,看看是否会自动生成pv

vi pvc1.yaml

apiVersion: v1
kind: PersistentVolumeClaim
metadata:
  name: pvc1
spec:
  accessModes:
    - ReadWriteOnce
  resources:
    requests:
      storage: 3Gi
  storageClassName: nfs-storage  #写入pv模板的名称

执行一下yaml看看是否有自动生成pv

kubectl get pv

kubectl create -f pvc1.yaml

kubectl get pvc

kubectl get pv

k8s创建pvc,绑定到指定的pv上,kubernetes,kubernetes,java,容器

 可以看到自动创建出了符合pvc要求的pv,并且状态也是已绑定状态

现在删除一下pvc看看,pv是什么状态

kubectl delete pvc pvc1

kubectl get pvc

kubectl get pv

k8s创建pvc,绑定到指定的pv上,kubernetes,kubernetes,java,容器

可以看到删除pvc后,pv也自动被删除了文章来源地址https://www.toymoban.com/news/detail-813177.html

到了这里,关于k8s pv与pvc的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • PV & PVC in K8s

    在Kubernetes中,PV(Persistent Volume)和PVC(Persistent Volume Claim)是用于管理持久化存储的重要资源对象。PV表示存储的实际资源,而PVC表示对PV的声明性要求。当应用程序需要使用持久化存储时,它可以通过创建PVC来请求和使用PV。以下是使用PV和PVC时的一些注意事项: 定义存储类

    2024年02月09日
    浏览(21)
  • 【K8S 存储卷】K8S的存储卷+PV/PVC

    目录 一、K8S的存储卷 1、概念: 2、挂载的方式: 2.1、emptyDir: 2.2、hostPath: 2.3、NFS共享存储: 二、PV和PVC: 1、概念 2、请求方式 3、静态请求流程图: 4、PV和PVC的生命周期 5、PV的状态: 6、PV的读写挂载方式: 7、回收策略: 三、PV和PVC静态请求实验: 1、默认的Retain保留策

    2024年02月02日
    浏览(38)
  • 【K8S系列】深入解析K8S中PV 和PVC

    在 Kubernetes 中,PV(持久卷)和 PVC(持久卷声明)之间的关系是一种动态匹配和绑定关系,用于实现 Pod 与存储资源的解耦。 PV 是集群中的一块网络存储,它独立于 Pod 存在。PV 可以是各种存储系统,如云提供商的存储、NFS、iSCSI、本地存储等。 管理员负责创建 PV,并配置其

    2024年04月23日
    浏览(35)
  • k8s 存储卷和pvc,pv

    存储卷---数据卷 容器内的目录和宿主机的目录进行挂载。 容器在系统上的生命周期是短暂的,deletek8s用控制器创建的pod,delete相当于重启,容器的状态也会回复到初始状态。 一旦回到初始状态,所有的后天编辑的文件的都会消失。 容器容器和节点之间创建一个可以持久化保

    2024年01月16日
    浏览(39)
  • k8s~动态生成pvc和pv

    有时,我们不想手动建立pv和pvc,这时,我们可以通过strongClass存储类来帮我们实现,动态建立pvc,并动态为它分配pv存储空间,我们以nfs为例,说一下动态分配在nfs存储截至上建立pv的方式。 StorageClass和PVC及PV 集群权限与绑定rbac.yaml 建立动态pvc的provisioner.yaml 建立strongClass的

    2024年02月03日
    浏览(36)
  • k8s里pv pvc configmap

    通过storageClassName 将PV 和PVC 关联起来。

    2024年02月11日
    浏览(20)
  • K8s---存储卷(动态pv和pvc)

    当我要发布pvc可以生成pv,还可以共享服务器上直接生成挂载目录。pvc直接绑定pv。 1、卷插件:k8s本生支持的动态pv创建不包括nfs,需要声明和安装一个外部插件 Provisioner: 存储分配器。动态创建pv,然后根据pvc的请求自动绑定和使用。 2、StorageClass:来定义pv的属性,存储类型

    2024年01月21日
    浏览(41)
  • k8s中的PV和PVC存储介绍

    目录 一.PV介绍 1.含义 2.关键配置参数 二.PVC介绍 1.含义 2.关键参数配置 三.PV和PVC的生命周期问题 1.PV的生命周期会有4个阶段 2.用户申请空间PV的周期流程 3.PV和PVC的使用/释放/回收 四.案例演示 1.NFS配置 2.新建PV 3.新建PVC 4.新建Pod测试 5.模拟删除Pod后后端目录内数据不会受影响

    2024年03月15日
    浏览(40)
  • 【云原生】K8S存储卷:PV、PVC详解

    容器磁盘上的文件的生命周期是短暂的,这就使得在容器中运行重要应用时会出现一些问题。首先,当容器崩溃时,kubelet 会重启它,但是容器中的文件将丢失——容器以干净的状态(镜像最初的状态)重新启动。其次,在Pod中同时运行多个容器时,这些容器之间通常需要共

    2024年02月12日
    浏览(29)
  • k8s pv pvc的介绍|动态存储|静态存储

    当Pod被分配给节点时,首先创建emptyDir卷,并且只要该Pod在该节点上运行,该卷就会存在。正如卷的名字所述,它最初是空的。Pod 中的容器可以读取和写入emptyDir卷中的相同文件,尽管该卷可以挂载到每个容器中的相同或不同路径上。当出于任何原因从节点中删除 Pod 时,em

    2024年02月06日
    浏览(27)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包