Linux Centos 使用软件 RAID 磁盘阵列方法

这篇具有很好参考价值的文章主要介绍了Linux Centos 使用软件 RAID 磁盘阵列方法。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

前言

Raid磁盘阵列简单的说就是按照不同的需求将多块硬盘组合在一起。目前常见raid组合方式有raid0、raid1、raid5、raid10,关于这几种模式的区别就不多做介绍。

Raid实现方式也可以分为硬件raid(使用硬盘 raid 阵列卡或者硬盘柜),软件raid(在操作系统上安装软件去控制硬盘实现raid模式),软件raid与硬件raid各有各的优劣。
如果你不喜欢折腾可以选硬件raid,但你都找到这篇文章应该已经确定要做软件raid了,作为一名垃圾佬看到稍好点的raid阵列卡有点小贵,而且cpu确实有点性能过剩了应该利用起来,我这里要介绍的就是软件raid。

准备工作

关于实体服务器raid调试:我在家翻来覆去勉强凑齐了4个USB存储设备,2个MP3,1张tf卡配读卡器,1个U盘,这4个设备虽然容量不同,但依旧可以组件raid,组建raid时容量是按照最小容量而去叠加的,例如你要组件raid0,你使用2个存储设备1个8G1个16G,那容量就按照最小的8G来叠加,将你的16G容量砍到8G,然后总容量为8G+8G=16G。如果你凑不齐存储设备或者硬盘也问题不大,可以使用虚拟机创建虚拟磁盘调试。

怎么使用软件开raid,linux,centos,运维

安装raid软件

查看系统是否已经安装软件:

[root@vm ~]# rpm -qa|grep mdadm 
mdadm-4.1-9.el7_9.x86_64

如果未安装执行:

yum -y install mdadm

执行 mdadm 命令时常用的参数参考表格

参数 功能
-a 检测设备名称
-n 指定设备数量
-l 指定RAID等级
-C 创建
-v 显示过程
-f 模拟设备损坏
-r 移除设备
-a 增加设备
-Q 查看摘要信息
-D 查看详细信息
-S 停止

先查看所有的磁盘列表:

fdisk -l

怎么使用软件开raid,linux,centos,运维

我就用这4个做演示,由于我这里最小的盘只有 7780MB,所以另外3个盘的容量都会在raid的搭建中容量被砍到7780MB,当然了正常情况下搭建raid肯定都是使用同型号同容量的硬盘。

这里温馨提示:在组建 RAID 前如果硬盘有重要数据记得提前备份!! 在搭建阵列时会格式化硬盘

记得备份数据!!!

记得备份数据!!!

记得备份数据!!!




RAID0搭建

首先我们执行命令:

mdadm -C /dev/md0 -a yes -l 0 -n 2 /dev/sdd /dev/sde

这条命令的意思是

  • 使用 mdadm
  • 创建(-C)
  • raid设备“/dev/md0” (/dev/md0 -a yes)
  • 等级为raid0 (-l 0)
  • 使用硬盘数量为2 (-n 2)
  • 使用设备“/dev/sdd”与“/dev/sde”

这里的raid设备名称必须要为:“/dev/md数字”这样的格式,其他的名称无法正常创建,因为我已经试过了不行。
在这里输入y确定创建
怎么使用软件开raid,linux,centos,运维

现在我们已经创建好了一个raid0设备,可以输入命令:

fdisk -l

查看
怎么使用软件开raid,linux,centos,运维
比之前多了一个设备“/dev/md0”,这个16.1GB就是两个硬盘叠加的容量
我们也可以使用命令:

mdadm -D /dev/md0

去查看raid的详细信息

[root@localhost ~]# mdadm -D /dev/md0
/dev/md0:
           Version : 1.2
     Creation Time : Thu Oct 12 18:58:10 2023
        Raid Level : raid0                               # raid阵列级别为raid0
        Array Size : 15691264 (14.96 GiB 16.07 GB)       # raid阵列总容量
      Raid Devices : 2                                   # raid阵列成员个数
     Total Devices : 2                                   # raid阵列中下属成员的总计个数(因为还有冗余硬盘或分区)
       Persistence : Superblock is persistent

       Update Time : Thu Oct 12 18:58:10 2023
             State : clean                               # raid状态,(clean 表示正常,degraded 表示有问题,recovering 表示正在恢复或构建)
    Active Devices : 2                                   # 被激活的 RAID 成员个数
   Working Devices : 2                                   # 正常工作的 RAID 成员个数
    Failed Devices : 0                                   # 出问题的 RAID 成员
     Spare Devices : 0                                   # 备用 RAID 成员个数(会自动替换出现问题的成员)

        Chunk Size : 512K

Consistency Policy : none

              Name : localhost.localdomain:0  (local to host localhost.localdomain)
              UUID : 8ffa4b84:1694187c:96d59d99:5ae938b2  #RAID 的 UUID 值,在系统中是唯一的
            Events : 0

    Number   Major   Minor   RaidDevice State
       0       8       48        0      active sync   /dev/sdd
       1       8       64        1      active sync   /dev/sde

然后我们在使用前将创建的raid设备格式化为ext4系统 (你也可以格式化为其他的系统):

mkfs -t ext4 /dev/md0

然后就可以将硬盘挂载到指定的空白目录下,例如我挂载到了/test 下:

mount /dev/md0 /test

怎么使用软件开raid,linux,centos,运维

现在还没结束,我在创建raid设备“/dev/md0”后重启系统,发现名称变化了,这就很不利于我们设置开机自动挂载
怎么使用软件开raid,linux,centos,运维
怎么使用软件开raid,linux,centos,运维

还需要创建 mdadm 的配置文件,创建 mdadm 文件就是为了每次重启系统时自动加载RAID

# 指定 RAID 设备
echo "DEVICE /dev/sdd /dev/sde" >> /etc/mdadm.conf
# 将 RAID0 的 UUID 追加到该目录
mdadm -Ds /dev/md0 >> /etc/mdadm.conf

怎么使用软件开raid,linux,centos,运维
这配置完成后每次启动系统raid设备名称就不会改变了,要记得当你删除raid设备的时候这边的配置也需要修改。

这里值得一提的是我用usb设备组建的raid阵列在开机时有概率加载不出来,所以会导致系统挂载失败,也有可能是因为部分设备为usb2.0的原因,但是我用虚拟硬盘或者实体硬盘测试开机自动加载阵列以及开机自动挂载都是没有问题的,最后就是将你的raid设备添加到开机自动挂载中,修改你的 “/etc/fstab” 文件,添加自动挂载:

#你的设备名称  #你要挂载的目录	#硬盘的格式  #默认   #默认 #默认
/dev/md0      /data   			ext4        defaults    0 0




RAID取消搭建

在搭建raid1前可以先熟悉一下如何取消搭建raid,不需要可以直接跳过这步开始搭建raid1。
如果raid设备还挂载在某个目录下可以使用取消挂载命令:

umount /dev/md0

取消挂载后执行取消raid搭建命令:

mdadm -S /dev/md0

不要忘了清空 “/etc/mdadm.conf” 中的内容哦



RAID1搭建

使用其中两个设备 “/dev/sdd /dev/sde” 组合创建raid1“/dev/md1”

mdadm -C /dev/md1 -a yes -l 1 -n 2 /dev/sdd /dev/sde

别忘了更新 mdadm 配置文件:

# 指定 RAID 设备
echo "DEVICE /dev/sdd /dev/sde" >> /etc/mdadm.conf
# 将 RAID1 的 UUID 追加到该目录
mdadm -Ds /dev/md1 >> /etc/mdadm.conf

老样子,我们先格式化raid设备

mkfs -t ext4 /dev/md1

然后挂载到你指定的目录:

mount /dev/md1 /test

怎么使用软件开raid,linux,centos,运维

我们可以试着往这个目录下放入一些文件
怎么使用软件开raid,linux,centos,运维
没问题,接下来我们来模拟硬盘损坏的情况,可以使用命令行模拟:

mdadm /dev/md1 -f /dev/sdd

但我要符合真实情况,所以我直接拔掉其中一个usb设备来模拟硬盘损坏,(反正这老设备坏了也不心疼)
在模拟之前先记录一下raid的状态:

[root@localhost ~]# mdadm -D /dev/md1
/dev/md1:
           Version : 1.2
     Creation Time : Thu Oct 12 20:38:13 2023
        Raid Level : raid1
        Array Size : 7592960 (7.24 GiB 7.78 GB)
     Used Dev Size : 7592960 (7.24 GiB 7.78 GB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

       Update Time : Thu Oct 12 20:40:03 2023
             State : active, resyncing 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync   #同步状态,一个磁盘读写,一个磁盘同步

     Resync Status : 3% complete

              Name : localhost.localdomain:1  (local to host localhost.localdomain)
              UUID : aa61be45:e49f79cf:02db0e38:5e14e548
            Events : 15

    Number   Major   Minor   RaidDevice State
       0       8       48        0      active sync   /dev/sdd
       1       8       64        1      active sync   /dev/sde

现在我已经拔掉了其中的一个设备 “/dev/sde”,先看看挂载目录下的文件都还在不,
怎么使用软件开raid,linux,centos,运维
还好,都还在,让我们再看一下raid的状态

[root@localhost ~]# mdadm -D /dev/md1
/dev/md1:
           Version : 1.2
     Creation Time : Thu Oct 12 20:38:13 2023
        Raid Level : raid1
        Array Size : 7592960 (7.24 GiB 7.78 GB)
     Used Dev Size : 7592960 (7.24 GiB 7.78 GB)
      Raid Devices : 2
     Total Devices : 1
       Persistence : Superblock is persistent

       Update Time : Thu Oct 12 20:43:22 2023
             State : active, degraded 
    Active Devices : 1
   Working Devices : 1
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync

              Name : localhost.localdomain:1  (local to host localhost.localdomain)
              UUID : aa61be45:e49f79cf:02db0e38:5e14e548
            Events : 48

    Number   Major   Minor   RaidDevice State
       0       8       48        0      active sync   /dev/sdd
       -       0        0        1      removed

执行命令后我发现和别人模拟损坏的结果好像有点不太一样

不过还是先继续往下个步骤进行,先移除不能识别的磁盘:

mdadm /dev/md1 -f /dev/sde

额。。但是我这不按照套路来,看样子是自动帮我移除了不能识别的磁盘:

[root@localhost ~]# mdadm /dev/md1 -r /dev/sde
mdadm: stat failed for /dev/sde: No such file or directory

问题不大,只要记住了就好,如果损坏的硬盘还没移除那就先执行移除。。
接下来模拟替换坏硬盘:

[root@localhost ~]# mdadm /dev/md1 -a /dev/sdc
mdadm: added /dev/sdc

完成后再查看raid状态,看样子在同步中,进度到了8%:

[root@localhost ~]# mdadm -D /dev/md1
/dev/md1:
           Version : 1.2
     Creation Time : Thu Oct 12 20:38:13 2023
        Raid Level : raid1
        Array Size : 7592960 (7.24 GiB 7.78 GB)
     Used Dev Size : 7592960 (7.24 GiB 7.78 GB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

       Update Time : Thu Oct 12 21:09:56 2023
             State : clean, degraded, recovering 
    Active Devices : 1
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 1

Consistency Policy : resync

    Rebuild Status : 8% complete

              Name : localhost.localdomain:1  (local to host localhost.localdomain)
              UUID : aa61be45:e49f79cf:02db0e38:5e14e548
            Events : 250

    Number   Major   Minor   RaidDevice State
       0       8       48        0      active sync   /dev/sdd
       2       8       32        1      spare rebuilding   /dev/sdc

这个是同步完成的状态:

[root@localhost ~]# mdadm -D /dev/md1
/dev/md1:
           Version : 1.2
     Creation Time : Thu Oct 12 20:38:13 2023
        Raid Level : raid1
        Array Size : 7592960 (7.24 GiB 7.78 GB)
     Used Dev Size : 7592960 (7.24 GiB 7.78 GB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

       Update Time : Thu Oct 12 21:30:33 2023
             State : clean 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync

              Name : localhost.localdomain:1  (local to host localhost.localdomain)
              UUID : aa61be45:e49f79cf:02db0e38:5e14e548
            Events : 342

    Number   Major   Minor   RaidDevice State
       0       8       48        0      active sync   /dev/sdd
       2       8       32        1      active sync   /dev/sdc




RAID5搭建

我使用“/dev/sdb”、“/dev/sdc”、“/dev/sdd”创建了一个raid5阵列“/dev/md5”

mdadm -C /dev/md5 -a yes -l 5 -n 3 /dev/sdb /dev/sdc /dev/sdd

别忘了更新 mdadm 配置文件:

# 指定 RAID 设备
echo "DEVICE /dev/sdb /dev/sdc /dev/sdd" >> /etc/mdadm.conf
# 将 RAID5 的 UUID 追加到该目录
mdadm -Ds /dev/md5 >> /etc/mdadm.conf

老样子,我们先格式化raid设备

mkfs -t ext4 /dev/md5

然后挂载到你指定的目录:

mount /dev/md5 /test

还是一样往里面写入数据
怎么使用软件开raid,linux,centos,运维

我们查看一下raid设备状态:

[root@localhost /]# mdadm -D /dev/md5
/dev/md5:
           Version : 1.2
     Creation Time : Fri Oct 13 13:45:22 2023
        Raid Level : raid5
        Array Size : 15185920 (14.48 GiB 15.55 GB)
     Used Dev Size : 7592960 (7.24 GiB 7.78 GB)
      Raid Devices : 3
     Total Devices : 3
       Persistence : Superblock is persistent

       Update Time : Fri Oct 13 14:11:59 2023
             State : clean, degraded, recovering 
    Active Devices : 2
   Working Devices : 3
    Failed Devices : 0
     Spare Devices : 1

            Layout : left-symmetric
        Chunk Size : 512K

Consistency Policy : resync

    Rebuild Status : 50% complete					#看样子构建状态只到了50%

              Name : localhost.localdomain:5  (local to host localhost.localdomain)
              UUID : 2010290f:626a4cd1:f6da260b:9e4067cf
            Events : 57

    Number   Major   Minor   RaidDevice State
       0       8       32        0      active sync   /dev/sdc
       1       8       48        1      active sync   /dev/sdd
       3       8       64        2      spare rebuilding   /dev/sde

模拟损坏可以使用命令: ```bash mdadm /dev/md5 -f /dev/sde ``` 构建一定要等它到100%,我模拟硬盘损坏,还是像前面一样,我直接拔掉一个设备,然后查看状态,这里可以看到掉了一个硬盘 (但数据好像还可以正常访问)
[root@localhost ~]# mdadm -D /dev/md5
/dev/md5:
           Version : 1.2
     Creation Time : Fri Oct 13 17:15:28 2023
        Raid Level : raid5
        Array Size : 15177728 (14.47 GiB 15.54 GB)
     Used Dev Size : 7588864 (7.24 GiB 7.77 GB)
      Raid Devices : 3
     Total Devices : 2
       Persistence : Superblock is persistent

       Update Time : Fri Oct 13 19:24:18 2023
             State : active, degraded 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

            Layout : left-symmetric
        Chunk Size : 512K

Consistency Policy : resync

              Name : localhost.localdomain:5  (local to host localhost.localdomain)
              UUID : 0ec22c1e:96079eb9:e88563b6:7474157c
            Events : 25

    Number   Major   Minor   RaidDevice State
       0       8       32        0      active sync   /dev/sdc
       1       8       48        1      active sync   /dev/sdd
       -       0        0        2      removed

接下来模拟添加新的硬盘,先移除异常硬盘,有可能系统已经帮你自动移除了,但还是还是照样移除一下:

[root@localhost ~]# mdadm /dev/md5 -r /dev/sde
mdadm: stat failed for /dev/sde: No such file or directory

那就直接添加新硬盘,如果添加不进去记得先取消挂载:

mdadm /dev/md5 -a /dev/sdf

再查看状态,发现已经正在开始同步了,等它同步到100%就好了:

[root@localhost ~]# mdadm -D /dev/md5
/dev/md5:
           Version : 1.2
     Creation Time : Fri Oct 13 17:15:28 2023
        Raid Level : raid5
        Array Size : 15177728 (14.47 GiB 15.54 GB)
     Used Dev Size : 7588864 (7.24 GiB 7.77 GB)
      Raid Devices : 3
     Total Devices : 3
       Persistence : Superblock is persistent

       Update Time : Fri Oct 13 19:27:53 2023
             State : clean, degraded, recovering 
    Active Devices : 2
   Working Devices : 3
    Failed Devices : 0
     Spare Devices : 1

            Layout : left-symmetric
        Chunk Size : 512K

Consistency Policy : resync

    Rebuild Status : 1% complete	# 等待同步到100%

              Name : localhost.localdomain:5  (local to host localhost.localdomain)
              UUID : 0ec22c1e:96079eb9:e88563b6:7474157c
            Events : 46

    Number   Major   Minor   RaidDevice State
       0       8       32        0      active sync   /dev/sdc
       1       8       48        1      active sync   /dev/sdd
       3       8       80        2      spare rebuilding   /dev/sdf

RAID5添加硬盘实现空间扩展

当我们觉得当前RAID5空间不够用了想增加硬盘扩容也是可以实现无损扩容的,但还是老规矩,有重要数据记得提前备份。
例如我使用“/dev/sdb”、“/dev/sdc”、“/dev/sdd”创建了一个raid5阵列“/dev/md5”,单硬盘容量为4G,目前总可用容量为8G,我要添加新的硬盘 “/dev/sde” 到阵列中,首先执行添加硬盘到阵列的命令:

[root@MiWiFi-RD03-srv ~]# mdadm /dev/md5 -a /dev/sde
mdadm: added /dev/sde

查看raid5当前状态,可以看到硬盘虽然添加进去了,但“/dev/sde”还只是用做热备份盘:

[root@MiWiFi-RD03-srv ~]# mdadm -D /dev/md5
/dev/md5:
           Version : 1.2
     Creation Time : Sat Oct 14 13:51:52 2023
        Raid Level : raid5
        Array Size : 8378368 (7.99 GiB 8.58 GB)
     Used Dev Size : 4189184 (4.00 GiB 4.29 GB)
      Raid Devices : 3
     Total Devices : 4
       Persistence : Superblock is persistent

       Update Time : Sat Oct 14 13:53:44 2023
             State : clean 
    Active Devices : 3
   Working Devices : 4
    Failed Devices : 0
     Spare Devices : 1

            Layout : left-symmetric
        Chunk Size : 512K

Consistency Policy : resync

              Name : MiWiFi-RD03-srv:5  (local to host MiWiFi-RD03-srv)
              UUID : efa8b5f4:dfa65f62:9cc75635:e82c6124
            Events : 19

    Number   Major   Minor   RaidDevice State
       0       8       16        0      active sync   /dev/sdb
       1       8       32        1      active sync   /dev/sdc
       3       8       48        2      active sync   /dev/sdd

       4       8       64        -      spare   /dev/sde

把硬盘“/dev/sde”加入活动盘中,最开始我们设置的活动硬盘数量为3,现在改为4(以实际情况为准):

mdadm -G /dev/md5 -n 4

查看raid5当前状态,如果这段 “Reshape Status : 61% complete” 未加载到100%那就等待加载,看样子已经成功加进去了,但目前还是不能使用所有空间容量

[root@MiWiFi-RD03-srv ~]# mdadm -D /dev/md5
/dev/md5:
           Version : 1.2
     Creation Time : Sat Oct 14 13:57:22 2023
        Raid Level : raid5
        Array Size : 12567552 (11.99 GiB 12.87 GB)
     Used Dev Size : 4189184 (4.00 GiB 4.29 GB)
      Raid Devices : 4
     Total Devices : 4
       Persistence : Superblock is persistent

       Update Time : Sat Oct 14 14:00:30 2023
             State : clean 
    Active Devices : 4
   Working Devices : 4
    Failed Devices : 0
     Spare Devices : 0

            Layout : left-symmetric
        Chunk Size : 512K

Consistency Policy : resync

              Name : MiWiFi-RD03-srv:5  (local to host MiWiFi-RD03-srv)
              UUID : 6fc48912:31f2a51e:26ec0914:093ee49a
            Events : 47

    Number   Major   Minor   RaidDevice State
       0       8       16        0      active sync   /dev/sdb
       1       8       32        1      active sync   /dev/sdc
       3       8       48        2      active sync   /dev/sdd
       4       8       64        3      active sync   /dev/sde

可以看到系统还是只识别了8G,如果你方便执行格式化那以下的内容就可以跳过,
怎么使用软件开raid,linux,centos,运维

接下来我们对硬盘容量进行刷新,以ext4系统为例,输入命令“resize2fs -f /dev/md5”:
可以看到执行成功

[root@MiWiFi-RD03-srv ~]# resize2fs -f /dev/md5
resize2fs 1.42.9 (28-Dec-2013)
Filesystem at /dev/md5 is mounted on /test; on-line resizing required
old_desc_blocks = 1, new_desc_blocks = 2
The filesystem on /dev/md5 is now 3141888 blocks long.

然后就成功扩容
怎么使用软件开raid,linux,centos,运维

如果是xfs系统就执行硬盘刷新命令:

xfs_growfs /dev/md5







RAID10搭建

mdadm -C /dev/md10 -a yes -l 10 -n 4 /dev/sdb /dev/sdc /dev/sdd /dev/sde

格式化

 mkfs -t ext4 /dev/md10

别忘了更新 mdadm 配置文件:

# 指定 RAID 设备
echo "DEVICE /dev/sdb /dev/sdc /dev/sdd /dev/sde" >> /etc/mdadm.conf
# 将 RAID10 的 UUID 追加到该目录
mdadm -Ds /dev/md10 >> /etc/mdadm.conf

查看状态,还在构建中,进度到57%,等待到100%

[root@MiWiFi-RD03-srv /]# mdadm -D /dev/md10
/dev/md10:
           Version : 1.2
     Creation Time : Fri Oct 13 21:17:29 2023
        Raid Level : raid10
        Array Size : 41908224 (39.97 GiB 42.91 GB)
     Used Dev Size : 20954112 (19.98 GiB 21.46 GB)
      Raid Devices : 4
     Total Devices : 4
       Persistence : Superblock is persistent

       Update Time : Fri Oct 13 21:19:31 2023
             State : clean, resyncing 
    Active Devices : 4
   Working Devices : 4
    Failed Devices : 0
     Spare Devices : 0

            Layout : near=2
        Chunk Size : 512K

Consistency Policy : resync

     Resync Status : 57% complete

              Name : MiWiFi-RD03-srv:10  (local to host MiWiFi-RD03-srv)
              UUID : 6eb0b741:c439ba13:f3cef0f0:71c1b4cb
            Events : 11

    Number   Major   Minor   RaidDevice State
       0       8       16        0      active sync set-A   /dev/sdb
       1       8       32        1      active sync set-B   /dev/sdc
       2       8       48        2      active sync set-A   /dev/sdd
       3       8       64        3      active sync set-B   /dev/sde

挂载使用

mount /dev/md10 /test

测试方式还是和前面相同,参考前面







软件raid搭建的顾虑

在搭建软件raid之前我一直担心一个问题,例如当我在服务器1(centos7.9) 上用2块硬盘搭建了 raid1,那这个 raid1 是仅限于 服务器1 上使用吗?网上找不到确切的答案,有的说可以,有的说不行,但实践是检验真理的唯一标准,我将组建 raid0 或 raid1 的两个设备转移到了 服务器2(centos7.6) 上,也安装过同版本的mdadm,同样使用命令:

fdisk -l

发现raid设备也显示了出来,只是名称不一样,在服务器1上 raid 设备名称设定为 /dev/md0,
怎么使用软件开raid,linux,centos,运维
虽然在服务器2上显示的是 /dev/md127,
怎么使用软件开raid,linux,centos,运维
但我也是成功挂载上去了,并且里面的数据也是可以顺利的读取,
怎么使用软件开raid,linux,centos,运维
那就没问题了。所以这就证明了软件 raid 并不是
与系统一起绑定无法拆分,而是根据软件绑定的;同理硬件raid是与阵列卡绑定的。







友情链接:
Centos 7 磁盘阵列配置介绍(RAID)
Centos 7 磁盘阵列配置介绍(RAID)
CentOS7 部署 RAID 磁盘阵列
RAID5的配置流程及模拟硬盘损坏
RAID实现命令整理
lvm逻辑卷管理 创建 |ext4 xfs扩容
parted命令详解
Centos7 Rsync怎么实现热备份笔记文章来源地址https://www.toymoban.com/news/detail-772851.html

到了这里,关于Linux Centos 使用软件 RAID 磁盘阵列方法的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • RAID磁盘阵列

    目录 一、RAID的介绍 1、RAID存储方式 2、RAID逻辑卷 二、RAID的分类 1、RAID 0 2、RAID 1 3、RAID 2 4、RAID 3 5、RAID 4 6、RAID 5 7、RAID 6 8、RAID 10 三、RAID比较 四、部署磁盘阵列 五、损坏磁盘阵列及修复 取消挂载 扩展 六、磁盘阵列+备份盘 ​ RAID 简称廉价磁盘冗余阵列 (Redundant Arrays of

    2024年02月04日
    浏览(41)
  • RAID(磁盘阵列)

    RAID是英文(Redundant Array of Independent Disks)的缩写,翻译成中文是“独立磁盘冗余阵列”, 简称磁盘阵列(Disk Array)。 简单的说,RAID是一种把多块独立的硬盘(物理硬盘)按不同的方式组合起来形成一个硬盘组(逻辑硬盘),从而提供比单个硬盘更高的存储性能和提供数据备份

    2023年04月08日
    浏览(30)
  • 5种raid冗余磁盘阵列

    RAID就是冗余磁盘阵列,通常称作「磁盘阵列」的RAID (Redundant Array of Independent Disks)功能,多半是应用在NAS这类肩负资料储存的设备上,它能依据NAS里硬盘数量、容量的不同,提供不同的RAID模式让使用者选用后,再依据所选用的RAID模式,把一颗以上的硬盘合并成一个可用的单一

    2024年02月11日
    浏览(42)
  • RAID磁盘阵列(看咱这篇就够了!)

    目录 一、RAID简介 二、RAID的级别详列 三、总结        写这篇博客的原因是小编在工作中遇到的这个不熟悉的硬件知识,然后工作之余就立马搜集了资料进行学习。了解了RAID的作用和区别以及如何进行挂载之类的。本篇以及之后的一篇博客适合新手小白来初识RAID!     

    2024年02月04日
    浏览(45)
  • 服务器硬件及RAID磁盘阵列详解

    cpu 主板 内存 硬盘 网卡 电源 raid卡 风扇 远程管理卡 服务器常见故障 系统不停重启进入不了系统 排查是否是硬件故障,系统盘是否损坏(硬盘灯红色,黄色,绿色) 查看系统第一启动项是那种方式(硬盘 网络网卡 光驱 U盘) bios 是否双系统?双系统 硬盘主板背板是否有问题

    2024年01月24日
    浏览(46)
  • 【服务器数据恢复】Raid磁盘阵列常见故障类型&原因分析

    由于raid的特点和优势,磁盘阵列技术被广泛应用于服务器和存储等商用领域。由于用户基数大,出现故障的情况也不少。通过这篇文章介绍一下常见的raid磁盘阵列数故障类型和原因。   故障类型一、磁盘阵列处于降级状态时未及时rebuild。 RAID磁盘阵列的数据安全冗余是利用

    2023年04月25日
    浏览(46)
  • R730服务器热插拔换磁盘(raid阵列)

    r730服务器发现磁盘闪橙等,说明磁盘报警了,这时候我们就要换磁盘了。 由于本服务器磁盘是raid5的阵列磁盘,所以要采用热插拔的方式换磁盘。 这边要注意的是,不能关机的时候,直接来换磁盘。 因为关机换磁盘,那个更换的磁盘不能正常在线。 所以我们必须开机换磁盘

    2024年02月08日
    浏览(59)
  • IBM服务器RAID5磁盘阵列出现故障的数据恢复案例

    服务器数据恢复环境: IBM某型号服务器,服务器中5块SAS磁盘组建了一组RAID5磁盘阵列。划分了一个LUN以及3个分区:第一个分区存放windows server系统,第二个分区存放SQL Server数据库,第三个分区存放备份文件。   服务器故障: 服务器在运行过程中崩溃,raid阵列不可用。北亚

    2024年02月12日
    浏览(51)
  • raid5两块磁盘掉线导致阵列崩溃的服务器数据恢复案例

    服务器数据恢复环境: DELL PowerVault系列某型号存储,15块硬盘搭建了一组RAID5磁盘阵列。   服务器故障检测: 存储设备raid5阵列中一块磁盘由于未知原因离线,管理员对该磁盘阵列进行了同步操作。在同步的过程中又有一块磁盘指示灯报警,磁盘离线,磁盘阵列同步失败,

    2024年02月13日
    浏览(60)
  • mdadm(管理磁盘阵列组)命令详解

    mdadm命令来自于英文词组“multiple devices admin”的缩写,其功能是用于管理RAID磁盘阵列组。作为Linux系统下软RAID设备的管理神器,mdadm命令可以进行创建、调整、监控、删除等全套管理操作。 语法格式:mdadm [参数] 设备名 参数大全 -D 显示RAID设备的详细信息 -A 加入一个以前定

    2024年02月14日
    浏览(36)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包