mdadm(管理磁盘阵列组)命令详解

这篇具有很好参考价值的文章主要介绍了mdadm(管理磁盘阵列组)命令详解。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

mdadm命令来自于英文词组“multiple devices admin”的缩写,其功能是用于管理RAID磁盘阵列组。作为Linux系统下软RAID设备的管理神器,mdadm命令可以进行创建、调整、监控、删除等全套管理操作。

语法格式:mdadm [参数] 设备名

参数大全

-D 显示RAID设备的详细信息

-A 加入一个以前定义的RAID

-l 指定RAID的级别

-n 指定RAID中活动设备的数目

-f 把RAID成员列为有问题,以便移除该成员

-r 把RAID成员移出RAID设备

-a 向RAID设备中添加一个成员
-S 停用RAID设备,释放所有资源

-x 指定初始RAID设备的备用成员的数量

 

先创四个分区

mdadm命令,linux

[root@compute ~]# mdadm -C /dev/md7 -n 3  -l 5 -x 1 /dev/sde{1,2,3,4}
mdadm: /dev/sde1 appears to be part of a raid array:
       level=raid5 devices=3 ctime=Tue Mar  7 17:24:53 2023
mdadm: /dev/sde2 appears to be part of a raid array:
       level=raid5 devices=3 ctime=Tue Mar  7 17:24:53 2023
mdadm: /dev/sde3 appears to be part of a raid array:
       level=raid5 devices=3 ctime=Tue Mar  7 17:24:53 2023
mdadm: /dev/sde4 appears to be part of a raid array:
       level=raid5 devices=3 ctime=Tue Mar  7 17:24:53 2023
mdadm: largest drive (/dev/sde4) exceeds size (2094080K) by more than 1%
Continue creating array? y
mdadm: Fail create md7 when using /sys/module/md_mod/parameters/new_array
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md7 started.
sde                                               8:64   0   10G  0 disk  
├─sde1                                            8:65   0    2G  0 part  
│ └─md7                                           9:7    0    4G  0 raid5 
├─sde2                                            8:66   0    2G  0 part  
│ └─md7                                           9:7    0    4G  0 raid5 
├─sde3                                            8:67   0    2G  0 part  
│ └─md7                                           9:7    0    4G  0 raid5 
└─sde4                                            8:68   0    4G  0 part  
  └─md7                                           9:7    0    4G  0 raid5 
[root@compute ~]# mdadm -D /dev/md7 
/dev/md7:
           Version : 1.2
     Creation Time : Tue Mar  7 17:29:25 2023
        Raid Level : raid5
        Array Size : 4188160 (3.99 GiB 4.29 GB)
     Used Dev Size : 2094080 (2045.00 MiB 2144.34 MB)
      Raid Devices : 3
     Total Devices : 4
       Persistence : Superblock is persistent

       Update Time : Tue Mar  7 17:29:36 2023
             State : clean 
    Active Devices : 3
   Working Devices : 4
    Failed Devices : 0
     Spare Devices : 1

            Layout : left-symmetric
        Chunk Size : 512K

Consistency Policy : resync

              Name : compute:7  (local to host compute)
              UUID : dcdfacfb:9b2f17cd:ce176b58:9e7c56a4
            Events : 18

    Number   Major   Minor   RaidDevice State
       0       8       65        0      active sync   /dev/sde1
       1       8       66        1      active sync   /dev/sde2
       4       8       67        2      active sync   /dev/sde3

       3       8       68        -      spare   /dev/sde4
mdadm -S /dev/md7  //一次性停止有个硬盘的阵列组

[root@compute ~]# mdadm -C /dev/md7 -x 1 -n 3 -l 5 /dev/sdd{1..4}
mdadm: /dev/sdd1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Tue Mar  7 17:25:51 2023
mdadm: /dev/sdd2 appears to be part of a raid array:
level=raid5 devices=3 ctime=Tue Mar  7 17:25:51 2023
mdadm: largest drive (/dev/sdd4) exceeds size (2094080K) by more than 1%
Continue creating array? yes
mdadm: Fail create md7 when using /sys/module/md_mod/parameters/new_array
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md7 started.

└─cinder--volumes-cinder--volumes--pool       253:5    0   69G  0 lvm   
sdd                                               8:48   0   10G  0 disk  
├─sdd1                                            8:49   0    2G  0 part  
│ └─md7                                           9:7    0    4G  0 raid5 
├─sdd2                                            8:50   0    2G  0 part  
│ └─md7                                           9:7    0    4G  0 raid5 
├─sdd3                                            8:51   0    2G  0 part  
│ └─md7                                           9:7    0    4G  0 raid5 
└─sdd4                                            8:52   0    4G  0 part  
└─md7                                           9:7    0    4G  0 raid5 
sde                                               8:64   0   10G  0 disk  
[root@compute ~]# mdadm -D /dev/md7 
/dev/md7:
Version : 1.2
Creation Time : Wed Mar  8 14:52:00 2023
Raid Level : raid5
Array Size : 4188160 (3.99 GiB 4.29 GB)
Used Dev Size : 2094080 (2045.00 MiB 2144.34 MB)
Raid Devices : 3
Total Devices : 4
Persistence : Superblock is persistent

Update Time : Wed Mar  8 14:52:11 2023
State : clean 
Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1

Layout : left-symmetric
Chunk Size : 512K

Consistency Policy : resync

Name : compute:7  (local to host compute)
UUID : 700d9a77:0babc26d:3b5a6768:223d47a8
Events : 18

Number   Major   Minor   RaidDevice State
0       8       49        0      active sync   /dev/sdd1
1       8       50        1      active sync   /dev/sdd2
4       8       51        2      active sync   /dev/sdd3

3       8       52        -      spare   /dev/sdd4
[root@compute ~]# mdadm /dev/md7  -f /dev/sdd1
mdadm: set /dev/sdd1 faulty in /dev/md7
[root@compute ~]# mdadm -D /dev/md7           
/dev/md7:
Version : 1.2
Creation Time : Wed Mar  8 14:52:00 2023
Raid Level : raid5
Array Size : 4188160 (3.99 GiB 4.29 GB)
Used Dev Size : 2094080 (2045.00 MiB 2144.34 MB)
Raid Devices : 3
Total Devices : 4
Persistence : Superblock is persistent

Update Time : Wed Mar  8 14:59:00 2023
State : clean, degraded, recovering 
Active Devices : 2
Working Devices : 3
Failed Devices : 1
Spare Devices : 1

Layout : left-symmetric
Chunk Size : 512K

Consistency Policy : resync

Rebuild Status : 66% complete

Name : compute:7  (local to host compute)
UUID : 700d9a77:0babc26d:3b5a6768:223d47a8
Events : 30

Number   Major   Minor   RaidDevice State
3       8       52        0      spare rebuilding   /dev/sdd4
1       8       50        1      active sync   /dev/sdd2
4       8       51        2      active sync   /dev/sdd3

0       8       49        -      faulty   /dev/sdd1
[root@compute ~]# mdadm /dev/md7  -r /dev/sdd1
mdadm: hot removed /dev/sdd1 from /dev/md7
[root@compute ~]# mdadm -D /dev/md7           
/dev/md7:
Version : 1.2
Creation Time : Wed Mar  8 14:52:00 2023
Raid Level : raid5
Array Size : 4188160 (3.99 GiB 4.29 GB)
Used Dev Size : 2094080 (2045.00 MiB 2144.34 MB)
Raid Devices : 3
Total Devices : 3
Persistence : Superblock is persistent

Update Time : Wed Mar  8 15:00:22 2023
State : clean 
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0

Layout : left-symmetric
Chunk Size : 512K

Consistency Policy : resync

Name : compute:7  (local to host compute)
UUID : 700d9a77:0babc26d:3b5a6768:223d47a8
Events : 38

Number   Major   Minor   RaidDevice State
3       8       52        0      active sync   /dev/sdd4
1       8       50        1      active sync   /dev/sdd2
4       8       51        2      active sync   /dev/sdd3
[root@compute ~]# mdadm /dev/md7  -a /dev/sdd1
mdadm: added /dev/sdd1
[root@compute ~]# mdadm -D /dev/md7           
/dev/md7:
Version : 1.2
Creation Time : Wed Mar  8 14:52:00 2023
Raid Level : raid5
Array Size : 4188160 (3.99 GiB 4.29 GB)
Used Dev Size : 2094080 (2045.00 MiB 2144.34 MB)
Raid Devices : 3
Total Devices : 4
Persistence : Superblock is persistent

Update Time : Wed Mar  8 15:01:29 2023
State : clean 
Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1

Layout : left-symmetric
Chunk Size : 512K

Consistency Policy : resync

Name : compute:7  (local to host compute)
UUID : 700d9a77:0babc26d:3b5a6768:223d47a8
Events : 39

Number   Major   Minor   RaidDevice State
3       8       52        0      active sync   /dev/sdd4
1       8       50        1      active sync   /dev/sdd2
4       8       51        2      active sync   /dev/sdd3

5       8       49        -      spare   /dev/sdd1

 文章来源地址https://www.toymoban.com/news/detail-619971.html

到了这里,关于mdadm(管理磁盘阵列组)命令详解的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • lvm + raid(逻辑磁盘+阵列)创建删除恢复 for linux

    本教程适用于linux lvm为逻辑磁盘,raid为阵列,两种技术可以单独使用也可以搭配使用 2023.9.3更新 前三节是操作命令和基础知识,后面是实操。 硬盘分区相关操作在后面用的到,可以先略过,有需要了再回来查 1.查看所有存储硬件详细信息 2.查看文件系统 3.查看分区对应硬盘

    2024年02月09日
    浏览(44)
  • 视频集中存储/云存储/磁盘阵列/视频监控管理平台EasyCVR接入海康SDK后视频播放崩溃的问题排查

    视频集中存储/云存储/磁盘阵列/视频监控管理平台EasyCVR可支持海量视频的轻量化接入与汇聚管理。在视频能力上,EasyCVR可实现视频直播、云端录像、检索与回放、云存储、告警上报、语音对讲、电子地图、H.265视频自动转码、服务器集群、AI智能分析接入以及平台级联等。安

    2024年02月09日
    浏览(44)
  • RAID(磁盘阵列)

    RAID是英文(Redundant Array of Independent Disks)的缩写,翻译成中文是“独立磁盘冗余阵列”, 简称磁盘阵列(Disk Array)。 简单的说,RAID是一种把多块独立的硬盘(物理硬盘)按不同的方式组合起来形成一个硬盘组(逻辑硬盘),从而提供比单个硬盘更高的存储性能和提供数据备份

    2023年04月08日
    浏览(31)
  • RAID磁盘阵列

    目录 一、RAID的介绍 1、RAID存储方式 2、RAID逻辑卷 二、RAID的分类 1、RAID 0 2、RAID 1 3、RAID 2 4、RAID 3 5、RAID 4 6、RAID 5 7、RAID 6 8、RAID 10 三、RAID比较 四、部署磁盘阵列 五、损坏磁盘阵列及修复 取消挂载 扩展 六、磁盘阵列+备份盘 ​ RAID 简称廉价磁盘冗余阵列 (Redundant Arrays of

    2024年02月04日
    浏览(42)
  • 磁盘阵列Raid探讨

    最近公司买服务器,顺便了解一下服务器配置方面的问题 以下讨论的都是入门级服务器配置,全部是主观意见,没有任何科学依据,欢迎大家讨论 先说结论: 做Raid10 在大容量硬盘时代(=1T), 由于Raid5在损坏一块硬盘的情况下降级运行时的性能很差而且恢复时间特别长,所以统

    2024年02月08日
    浏览(40)
  • 5种raid冗余磁盘阵列

    RAID就是冗余磁盘阵列,通常称作「磁盘阵列」的RAID (Redundant Array of Independent Disks)功能,多半是应用在NAS这类肩负资料储存的设备上,它能依据NAS里硬盘数量、容量的不同,提供不同的RAID模式让使用者选用后,再依据所选用的RAID模式,把一颗以上的硬盘合并成一个可用的单一

    2024年02月11日
    浏览(43)
  • RAID磁盘阵列(看咱这篇就够了!)

    目录 一、RAID简介 二、RAID的级别详列 三、总结        写这篇博客的原因是小编在工作中遇到的这个不熟悉的硬件知识,然后工作之余就立马搜集了资料进行学习。了解了RAID的作用和区别以及如何进行挂载之类的。本篇以及之后的一篇博客适合新手小白来初识RAID!     

    2024年02月04日
    浏览(46)
  • 【服务器数据恢复】Raid磁盘阵列常见故障类型&原因分析

    由于raid的特点和优势,磁盘阵列技术被广泛应用于服务器和存储等商用领域。由于用户基数大,出现故障的情况也不少。通过这篇文章介绍一下常见的raid磁盘阵列数故障类型和原因。   故障类型一、磁盘阵列处于降级状态时未及时rebuild。 RAID磁盘阵列的数据安全冗余是利用

    2023年04月25日
    浏览(46)
  • R730服务器热插拔换磁盘(raid阵列)

    r730服务器发现磁盘闪橙等,说明磁盘报警了,这时候我们就要换磁盘了。 由于本服务器磁盘是raid5的阵列磁盘,所以要采用热插拔的方式换磁盘。 这边要注意的是,不能关机的时候,直接来换磁盘。 因为关机换磁盘,那个更换的磁盘不能正常在线。 所以我们必须开机换磁盘

    2024年02月08日
    浏览(59)
  • IBM服务器RAID5磁盘阵列出现故障的数据恢复案例

    服务器数据恢复环境: IBM某型号服务器,服务器中5块SAS磁盘组建了一组RAID5磁盘阵列。划分了一个LUN以及3个分区:第一个分区存放windows server系统,第二个分区存放SQL Server数据库,第三个分区存放备份文件。   服务器故障: 服务器在运行过程中崩溃,raid阵列不可用。北亚

    2024年02月12日
    浏览(51)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包