管理ceph集群

这篇具有很好参考价值的文章主要介绍了管理ceph集群。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。


ceph的常用命令

查看集群状态

管理ceph集群,ceph,linux,运维

ceph osd pool application enable pool-name rbd #将池启用rbd功能
ceph osd dump #查看osd的状态

ceph osd pool get pool-name pg_num #获取pool的pg数量
ceph osd pool get pool-name pgp_num #获取pool的pgp数量

ceph osd pool set pool-name pg_num 32 #设置pool的pg数量为32

查看pg的状态

ceph pg stat
ceph pg ls

管理ceph集群,ceph,linux,运维

查看mon节点状态

ceph mon dump

管理ceph集群,ceph,linux,运维

查看osd的通用命令

ceph osd tree

管理ceph集群,ceph,linux,运维

查看osd的容量

ceph osd df

管理ceph集群,ceph,linux,运维

查看osd池

ceph osd lspools
ceph df

管理ceph集群,ceph,linux,运维

写入文件测试

管理ceph集群,ceph,linux,运维

查看池的属性

管理ceph集群,ceph,linux,运维

查看文件映射过程

outputfile文件被映射到 osd.0
管理ceph集群,ceph,linux,运维
查看当前池rbd-bak应用的rule set,并修改其使用新的RuleSet。再次查看文件outputfile的映射过程。
管理ceph集群,ceph,linux,运维

添加磁盘

建议在节点中一次添加一个 OSD,并等到集群恢复到 active+clean 状态。,之后再继续添加下一个OSD。
查看远程节点ceph-2的硬盘

[root@ceph-1 cluster]# ceph-deploy disk list ceph-2

擦净节点ceph-2的磁盘

[root@ceph-1 cluster]# ceph-deploy disk zap ceph-2:/dev/vdb

prepare新的磁盘:

[root@ceph-1 cluster]# ceph-deploy disk prepare ceph-2:/dev/vdb

激活新的磁盘:

[root@ceph-1 cluster]# ceph-deploy osd activate ceph-2:/dev/vdb1

管理ceph集群,ceph,linux,运维

删除磁盘

建议在节点中一次删除一个 OSD,并等到集群恢复到 active+clean 状态。,之后再继续删除下一个OSD。

需要注意的是,在删除osd磁盘之前,需要先将osd的权重设置为0.待集群恢复平衡之后,再继续操作。

正确的操作是第一步:

ceph osd crush reweight osd.12 0.0  #调整osd的权重为0

等待平衡之后

第二步 :将该磁盘从集群删除
管理ceph集群,ceph,linux,运维
此时磁盘的状态变成down
管理ceph集群,ceph,linux,运维

第三步 : ceph-2节点停止服务
命令格式为:

systemctl start ceph-osd@${osd_id}.service

管理ceph集群,ceph,linux,运维
第四步 : 分别从crush中删除对应的条目
第五步 :删除认证密钥
第六步 :删除磁盘
管理ceph集群,ceph,linux,运维文章来源地址https://www.toymoban.com/news/detail-621539.html

到了这里,关于管理ceph集群的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • TiDB 应急运维脚本,更加方便的管理TiDB集群

    TiDB 应急运维脚本,更加方便的管理TiDB集群 使用方法 修改权限 使用示例

    2024年02月12日
    浏览(46)
  • 【Kubernetes运维篇】RBAC之创建集群用户管理K8S

    需求:公司新入职两位运维同事,分别是zhangsan、lisi,刚入职肯定不能给K8S管理员权限,所以需要创建两个系统账号,分别对应不同的权限: zhangsan用户 :对uat名称空间拥有管理员权限 lisi用户 :对所有命名空间拥有查看Pod的权限 第一步:生成一个私钥 第二步:生成一个证

    2024年02月16日
    浏览(50)
  • Ceph入门到精通- Linux 磁盘管理(block 与 inode)

    1)  硬盘的最小存储单位:sector(扇区),每个扇区储存 512 字节;操作系统会一次性连续读取多个扇区,即一次性读取多个扇区称为一个 block(块) 2)  文件存取的最小单位:block(块),由多个扇区组成;block 的大小常见的有 1KB、2KB、4KB,在 linux 中常见设置为 4KB,即连

    2024年02月14日
    浏览(48)
  • 云计算Linux运维——Linux系统管理——软件管理

    目录 点关注不迷路 1RPM软件管理 1、软件安装包类型 2、RPM软件安装包的组成 二、RPM软件管理操作 rpm命令 1、安装软件 2、查看软件 3、卸载软件 2yum工具介绍 一、yum工具介绍 1、优势 2、yum源配置文件 二、配置本地源安装软件 1、备份自带的HTTP源 2、编写本地源 3、清除旧的

    2024年02月06日
    浏览(50)
  • 云计算Linux运维——Linux系统管理——磁盘管理

    点关注不迷路 目录 1磁盘分区管理 一、硬盘基础知识 1、硬盘的表示方法 2、查看块设备 3、硬盘分区的表示方法 4、创建文件系统/格式化 5、操作磁盘的流程 二、管理磁盘分区工具 fdisk 1、使用格式 2、查看磁盘分区 三、磁盘分区案例 1、规划 2、创建分区 3、让内核识别硬盘

    2024年02月12日
    浏览(67)
  • Linux运维:网络管理

    提前看:本文是Linux运维的学习笔记,之前的Linux命令基础和shell基础,使我们对Linux有系统的认识,但是这个方面的知识点非常多,今天啥也不干,就整理Linux运维各种范围出现的名词性内容进行解释。 CPU(中央处理器)是计算机的主要组成部分,它负责执行计算机程序中的

    2024年02月03日
    浏览(55)
  • 【Ceph】Ceph集群应用详解

    接上文基于ceph-deploy部署Ceph集群详解 Pool是Ceph中 存储Object对象抽象概念 。我们可以将其理解为 Ceph存储上划分的逻辑分区 ,Pool由多个PG组成;而 PG通过CRUSH算法映射到不同的OSD上 ;同时Pool可以设置副本size大小,默认副本数量为3。 Ceph客户端向monitor请求集群的状态,并向P

    2024年02月16日
    浏览(40)
  • 云计算Linux运维——Linux系统管理——网络参数配置

    点关注不迷路 目录 1网络参数配置 一、网络参数 1、主机名 2、查看网卡IP地址 3、查看网关 4、查看DNS服务器地址 二、配置网卡 1、修改网卡配置文件 2、nmcli命令 3、nmcli配置网卡 3)重新加载配置 三、VMware网络工作模式 1、虚拟网络、虚拟网卡 2、虚拟网络工作模式 2双网卡绑

    2024年02月04日
    浏览(43)
  • 【Ceph】基于ceph-deploy部署Ceph集群详解

    DAS(直接附加存储,是 直接接到计算机主板总线上的存储 ) IDE、SATA、SCSI、SAS、USB接口的磁盘 所谓接口就是一种 存储设备驱动下的磁盘设备 ,提供 块级别的存储 NAS(网络附加存储,是 通过网络附加到当前主机文件系统之上的存储 ) NFS、CIFS、FTP 文件系统级别的存储,本

    2024年02月16日
    浏览(38)
  • Ceph:关于Ceph 集群如何访问的一些笔记

    准备考试,整理 Ceph 相关笔记 博文内容涉及,Ceph 集群四种访问方式介绍及 Demo,Ceph 客户端支持的操作介绍 理解不足小伙伴帮忙指正 对每个人而言,真正的职责只有一个:找到自我。然后在心中坚守其一生,全心全意,永不停息。所有其它的路都是不完整的,是人的逃避方式

    2024年02月09日
    浏览(39)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包