glusterfs做快照

这篇具有很好参考价值的文章主要介绍了glusterfs做快照。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

说明:
gluasterfs做快照需要创建精简卷(Thinly-Provisioned )。
官网
中文
https://access.redhat.com/documentation/zh-cn/red_hat_enterprise_linux/7/html/logical_volume_manager_administration/thinly_provisioned_volume_creation
英文
https://access.redhat.com/documentation/en-us/red_hat_enterprise_linux/7/html/logical_volume_manager_administration/lv#thinly_provisioned_volume_creation

创建精简卷

说明:共3台主机,每台主机做同样的操作。
1、加一块盘(20g)
2、创建卷组

vgcreate vg001 /dev/vdd

3、创建精简卷

lvcreate -L 19G -T vg001/mythinpool -V 19G -n thinvolume

4、查看LV Path

lvdisplay 
  --- Logical volume ---
  LV Name                mythinpool
  VG Name                vg001
  LV UUID                DVXGur-xtLK-MTFG-12Ed-vHo5-JdYQ-x0BukS
  LV Write Access        read/write (activated read only)
  LV Creation host, time gluster01, 2023-07-19 10:14:58 +0800
  LV Pool metadata       mythinpool_tmeta
  LV Pool data           mythinpool_tdata
  LV Status              available
  # open                 0
  LV Size                19.00 GiB
  Allocated pool data    0.06%
  Allocated metadata     10.57%
  Current LE             4864
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:3
   
  --- Logical volume ---
  LV Path                /dev/vg001/thinvolume
  LV Name                thinvolume
  VG Name                vg001
  LV UUID                OuzIKL-SG2j-BlHi-8P5e-qIoh-hh5v-PqXhPr
  LV Write Access        read/write
  LV Creation host, time gluster01, 2023-07-19 10:14:58 +0800
  LV Pool name           mythinpool
  LV Status              available
  # open                 1
  LV Size                19.00 GiB
  Mapped size            0.06%
  Current LE             4864
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:4

glusterfs创建新的卷

说明:只在一台主机操作。
1、格式化LV Path

mkfs.xfs -i size=512 /dev/vg001/thinvolume

2、添加挂载信息到/etc/fstab

echo "/dev/vg001/thinvolume /export/thinvolume01/ xfs defaults 0 0"  >> /etc/fstab

3、创建挂载点并挂载

mkdir -p /export/thinvolume01 && mount -a && mkdir -p /export/thinvolume01/brick

4、创建新的卷

gluster volume create gv1 disperse 3 gluster{01..03}:/export/thinvolume01/brick 

5、启动gv1卷

gluster volume start gv1

6、查看卷信息

gluster volume info

输出

Volume Name: gv1
Type: Disperse
Volume ID: afbf6c59-8229-4e38-acda-d0ba96fc7df2
Status: Started
Snapshot Count: 0
Number of Bricks: 1 x (2 + 1) = 3
Transport-type: tcp
Bricks:
Brick1: gluster01:/export/thinvolume01/brick
Brick2: gluster02:/export/thinvolume01/brick
Brick3: gluster03:/export/thinvolume01/brick
Options Reconfigured:
storage.fips-mode-rchecksum: on
transport.address-family: inet
nfs.disable: on

测试快照恢复数据

1、挂载glusterfs文件

mount -t glusterfs gluster01:/gv1 /mnt/glusterlocal/

2、生成数据

cd /mnt/glusterlocal/
for i in `seq 100`;do echo "this is $i file" >> $i.txt;cat /etc/passwd >> $i.txt;done

说明:可以看到挂载点目录和glusterfs后端都有数据生成。
glusterfs后端数据(任选一个节点查看)

ls /export/thinvolume02/brick/
100.txt  14.txt  1.txt   24.txt  36.txt  44.txt  57.txt  64.txt  6.txt   74.txt  84.txt  95.txt
10.txt   15.txt  20.txt  25.txt  38.txt  47.txt  5.txt   65.txt  70.txt  75.txt  87.txt  98.txt
11.txt   16.txt  21.txt  2.txt   3.txt   54.txt  60.txt  67.txt  71.txt  77.txt  88.txt
12.txt   18.txt  22.txt  30.txt  43.txt  55.txt  61.txt  69.txt  72.txt  7.txt   92.txt
[gluster] root@gluster03:~# ls /export/thinvolume01/brick/
13.txt  26.txt  31.txt  35.txt  41.txt  48.txt  51.txt  58.txt  66.txt  78.txt  82.txt  89.txt  93.txt  99.txt
17.txt  27.txt  32.txt  37.txt  42.txt  49.txt  52.txt  59.txt  68.txt  79.txt  83.txt  8.txt   94.txt  9.txt
19.txt  28.txt  33.txt  39.txt  45.txt  4.txt   53.txt  62.txt  73.txt  80.txt  85.txt  90.txt  96.txt  test
23.txt  29.txt  34.txt  40.txt  46.txt  50.txt  56.txt  63.txt  76.txt  81.txt  86.txt  91.txt  97.txt

挂载点目录数据

ls /mnt/glusterlocal
100.txt  17.txt  24.txt  31.txt  39.txt  46.txt  53.txt  60.txt  68.txt  75.txt  82.txt  8.txt   97.txt
10.txt   18.txt  25.txt  32.txt  3.txt   47.txt  54.txt  61.txt  69.txt  76.txt  83.txt  90.txt  98.txt
11.txt   19.txt  26.txt  33.txt  40.txt  48.txt  55.txt  62.txt  6.txt   77.txt  84.txt  91.txt  99.txt
12.txt   1.txt   27.txt  34.txt  41.txt  49.txt  56.txt  63.txt  70.txt  78.txt  85.txt  92.txt  9.txt
13.txt   20.txt  28.txt  35.txt  42.txt  4.txt   57.txt  64.txt  71.txt  79.txt  86.txt  93.txt  test
14.txt   21.txt  29.txt  36.txt  43.txt  50.txt  58.txt  65.txt  72.txt  7.txt   87.txt  94.txt
15.txt   22.txt  2.txt   37.txt  44.txt  51.txt  59.txt  66.txt  73.txt  80.txt  88.txt  95.txt
16.txt   23.txt  30.txt  38.txt  45.txt  52.txt  5.txt   67.txt  74.txt  81.txt  89.txt  96.txt

3、创建快照

gluster snapshot create gv1-snap01  gv1 description "/mnt/glusterlocal data"

输出

snapshot create: success: Snap gv1-snap01_GMT-2023.07.19-07.00.01 created successfully

4、删除数据
说明:删除数据后,glusterfs后端及挂载点数据都会删除。

cd /mnt/glusterlocal/
rm -rf *

5、激活快照

gluster snapshot activate gv1-snap01_GMT-2023.07.19-07.00.01

6、使用快照恢复数据
说明:恢复快照前要先停止卷。

gluster volume stop gv1
gluster snapshot restore gv1-snap01_GMT-2023.07.19-07.00.01

7、恢复快照后再开启卷

gluster volume start gv1

8、验证数据是否恢复
说明:恢复快照后,不开启卷,会报错。如下

ls
ls: cannot open directory '.': Transport endpoint is not connected

开启卷后发现数据已经恢复。

ls /mnt/glusterlocal/
100.txt  17.txt  24.txt  31.txt  39.txt  46.txt  53.txt  60.txt  68.txt  75.txt  82.txt  8.txt   97.txt
10.txt   18.txt  25.txt  32.txt  3.txt   47.txt  54.txt  61.txt  69.txt  76.txt  83.txt  90.txt  98.txt
11.txt   19.txt  26.txt  33.txt  40.txt  48.txt  55.txt  62.txt  6.txt   77.txt  84.txt  91.txt  99.txt
12.txt   1.txt   27.txt  34.txt  41.txt  49.txt  56.txt  63.txt  70.txt  78.txt  85.txt  92.txt  9.txt
13.txt   20.txt  28.txt  35.txt  42.txt  4.txt   57.txt  64.txt  71.txt  79.txt  86.txt  93.txt
14.txt   21.txt  29.txt  36.txt  43.txt  50.txt  58.txt  65.txt  72.txt  7.txt   87.txt  94.txt
15.txt   22.txt  2.txt   37.txt  44.txt  51.txt  59.txt  66.txt  73.txt  80.txt  88.txt  95.txt
16.txt   23.txt  30.txt  38.txt  45.txt  52.txt  5.txt   67.txt  74.txt  81.txt  89.txt  96.txt

警告:每次还原快照后,df查看挂载,挂载会变。
原来的挂载

/dev/mapper/vg001-thinvolume                           19G  170M   19G   1% /export/thinvolume01
/dev/mapper/vg002-thinvolume                           19G  170M   19G   1% /export/thinvolume02

还原快照后的挂载

/dev/mapper/vg001-94114825f8034fe49c7a2d9164404bfc_0   19G  170M   19G   1% /run/gluster/snaps/94114825f8034fe49c7a2d9164404bfc/brick1
/dev/mapper/vg002-94114825f8034fe49c7a2d9164404bfc_1   19G  170M   19G   1% /run/gluster/snaps/94114825f8034fe49c7a2d9164404bfc/brick4

glusterfs 快照常用操作

1、创建快照

gluster snapshot create gv1-snap01  gv1 description "k8s pod jfs-test-69b556c6df-nv2mx data"

输出

snapshot create: success: Snap gv1-snap01_GMT-2023.07.19-03.24.45 created successfully

2、查看可用的快照
不指定volume名字

gluster snapshot list

输出

gv1-snap01_GMT-2023.07.19-03.24.45

指定volume名字

gluster snapshot list gv1

输出

gv1-snap01_GMT-2023.07.19-03.24.45

3、查看快照信息

gluster snapshot info gv1-snap01_GMT-2023.07.19-03.24.45
Snapshot                  : gv1-snap01_GMT-2023.07.19-03.24.45
Snap UUID                 : 029f083f-10c4-42ce-800c-203612121e38
Description               : k8s pod jfs-test-69b556c6df-nv2mx data
Created                   : 2023-07-19 03:24:45 +0000
Snap Volumes:

	Snap Volume Name          : 81bd41a880874426a3f9196603a1f44e
	Origin Volume name        : gv1
	Snaps taken for gv1      : 1
	Snaps available for gv1  : 255
	Status                    : Stopped

4、查看快照状态

gluster snapshot status gv1-snap01_GMT-2023.07.19-03.24.45
Snap Name : gv1-snap01_GMT-2023.07.19-03.24.45
Snap UUID : 029f083f-10c4-42ce-800c-203612121e38

	Brick Path        :   gluster01:/run/gluster/snaps/81bd41a880874426a3f9196603a1f44e/brick1/brick
	Volume Group      :   N/A (Deactivated Snapshot)
	Brick Running     :   No
	Brick PID         :   N/A
	Data Percentage   :   N/A
	LV Size           :   N/A

	Brick Path        :   gluster02:/run/gluster/snaps/81bd41a880874426a3f9196603a1f44e/brick2/brick
	Volume Group      :   N/A (Deactivated Snapshot)
	Brick Running     :   No
	Brick PID         :   N/A
	Data Percentage   :   N/A
	LV Size           :   N/A

	Brick Path        :   gluster03:/run/gluster/snaps/81bd41a880874426a3f9196603a1f44e/brick3/brick
	Volume Group      :   N/A (Deactivated Snapshot)
	Brick Running     :   No
	Brick PID         :   N/A
	Data Percentage   :   N/A
	LV Size           :   N/A

6、激活快照

gluster snapshot activate gv1-snap01_GMT-2023.07.19-03.24.45

输出

Snapshot activate: gv1-snap01_GMT-2023.07.19-03.24.45: Snap activated successfully

说明:激活快照后,再次查看快照状态会发生变化。文章来源地址https://www.toymoban.com/news/detail-583052.html

到了这里,关于glusterfs做快照的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 华为HCIE学习之Openstack Cinder组件(cinder对接glusterfs)

    服务内各组件交互通过MQ进行 IET,Linux用软件做存储,CNA识别过去就是IET TGT,物理存储,CNA识别过去就是TGT cinder-api :cinder模块对外唯一接口,cinder的endpoint,接收和处理rest请求。 cinder-scheduler : 根据预定的调度过滤策略以及权重计算策略,选择出合适的后端来处理任务。

    2024年02月13日
    浏览(35)
  • GlusterFs 分布式复制卷(Distributed-Replicate)性能测试

    目录 fio工具参数解释 Glusterfs 和NFS 性能测试 顺序写: 随机写: 顺序读: 随机读: 随机读写: 参数说明: 测试结论: 与NFS对比 压测对比结果 NFS和GlusterFs的优缺点 NFS的优点 NFS的缺点 GlusterFS的优点 GlusterFS的缺点 NFS与GlusterFS对比 1. 功能对比 2. 吞吐量对比 3. 可靠性对比 4

    2024年02月12日
    浏览(42)
  • GlusterFS:开源分布式文件系统的深度解析与应用场景实践

    在当今大数据时代背景下,企业对存储系统的容量、性能和可靠性提出了前所未有的挑战。GlusterFS作为一款开源的、高度可扩展的分布式文件系统,以其独特的无中心元数据设计和灵活的卷管理机制,在众多场景中脱颖而出,为解决大规模数据存储难题提供了强有力的支持。

    2024年02月19日
    浏览(40)
  • 38掌握分布式存储系统 GlusterFS 的基本用法,包括卷管理、数据复制

    GlusterFS是一种分布式文件系统,可以将多个存储服务器集成为一个分布式存储池。以下是一些基本的使用方法和示例代码。 安装和启动 GlusterFS 在所有节点上安装 GlusterFS,并确保每个节点上的GlusterFS服务已经启动。 创建 GlusterFS 卷 使用 gluster 命令创建 GlusterFS 卷,其中serve

    2023年04月08日
    浏览(39)
  • 最后的组合:K8s 1.24 基于 Hekiti 实现 GlusterFS 动态存储管理实践

    知识点 定级: 入门级 GlusterFS 和 Heketi 简介 GlusterFS 安装部署 Heketi 安装部署 Kubernetes 命令行对接 GlusterFS 实战服务器配置(架构 1:1 复刻小规模生产环境,配置略有不同) 主机名 IP CPU 内存 系统盘 数据盘 用途 ks-master-0 192.168.9.91 2 4 50 100 KubeSphere/k8s-master ks-master-1 192.168.9.92 2 4 5

    2024年02月09日
    浏览(38)
  • Elasticsearch创建快照与快照恢复

    使用了 kibana 进行请求发送 1.旧es创建快照 1.查看elasticsearch.yml配置的仓库路径,没有添加上,重启es 2.注册仓库,如仓库名 backup1 3.创建两个快照,如 snapshot_1 , snapshot_2 2.新es恢复快照 1.复制旧 backups 目录下所有仓库到新es的 backups (新es的仓库路径)路径下 2.注册仓库 3.查看仓库所

    2024年02月07日
    浏览(39)
  • 13、HDFS Snapshot快照

    1、hadoop3.1.4简单介绍及部署、简单验证 2、HDFS操作 - shell客户端 3、HDFS的使用(读写、上传、下载、遍历、查找文件、整个目录拷贝、只拷贝文件、列出文件夹下文件、删除文件及目录、获取文件及文件夹属性等)-java 4、HDFS-java操作类HDFSUtil及junit测试(HDFS的常见操作以及H

    2024年02月11日
    浏览(46)
  • 【Redis】——RDB快照

    Redis 是 内存数据库 ,但是它为数据的持久化提供了两个技术,一个是AOF日志,另一个是RDB快照: AOF 文件的内容是操作命令; RDB 文件的内容是二进制数据。 RDB 快照就是记录某一个瞬间的内存数据 ,记录的是实际数据,而 AOF 文件记录的是命令操作的日志,而不是实际的数

    2024年02月14日
    浏览(39)
  • Elasticsearch:删除快照安全吗?

    快速回答 :是的! 删除快照是安全的,因为每个快照在逻辑上都是独立的。 了解如何以及为何可以继续阅读。 Elasticsearch 使用增量快照,使你能够高效地备份和恢复数据。 你可以在这篇精彩的文章中找到它的工作原理 “Elasticsearch:增量快照如何工作?” 下面分享一些关于

    2024年02月16日
    浏览(45)
  • Elasticsearch 快照和恢复

    快照是正在运行的Elasticsearch集群的备份。可以使用快照来: 定期备份群集,无需停机 删除或硬件故障后恢复数据 在群集之间传输数据等 默认情况下,集群的快照包含集群状态、所有常规数据流和所有常规索引 快照必须存储在存储库中,存储库的内容不能修改,否则会造成

    2024年02月14日
    浏览(39)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包