ceph的常用命令
查看集群状态
ceph osd pool application enable pool-name rbd #将池启用rbd功能
ceph osd dump #查看osd的状态
ceph osd pool get pool-name pg_num #获取pool的pg数量
ceph osd pool get pool-name pgp_num #获取pool的pgp数量
ceph osd pool set pool-name pg_num 32 #设置pool的pg数量为32
查看pg的状态
ceph pg stat
ceph pg ls
查看mon节点状态
ceph mon dump
查看osd的通用命令
ceph osd tree
查看osd的容量
ceph osd df
查看osd池
ceph osd lspools
ceph df
写入文件测试
查看池的属性
查看文件映射过程
outputfile文件被映射到 osd.0
查看当前池rbd-bak应用的rule set,并修改其使用新的RuleSet。再次查看文件outputfile的映射过程。
添加磁盘
建议在节点中一次添加一个 OSD,并等到集群恢复到 active+clean 状态。,之后再继续添加下一个OSD。
查看远程节点ceph-2的硬盘
[root@ceph-1 cluster]# ceph-deploy disk list ceph-2
擦净节点ceph-2的磁盘
[root@ceph-1 cluster]# ceph-deploy disk zap ceph-2:/dev/vdb
prepare新的磁盘:
[root@ceph-1 cluster]# ceph-deploy disk prepare ceph-2:/dev/vdb
激活新的磁盘:
[root@ceph-1 cluster]# ceph-deploy osd activate ceph-2:/dev/vdb1
删除磁盘
建议在节点中一次删除一个 OSD,并等到集群恢复到 active+clean 状态。,之后再继续删除下一个OSD。
需要注意的是,在删除osd磁盘之前,需要先将osd的权重设置为0.待集群恢复平衡之后,再继续操作。
正确的操作是第一步:
ceph osd crush reweight osd.12 0.0 #调整osd的权重为0
等待平衡之后
第二步 :将该磁盘从集群删除
此时磁盘的状态变成down
第三步 : ceph-2节点停止服务
命令格式为:文章来源:https://www.toymoban.com/news/detail-621539.html
systemctl start ceph-osd@${osd_id}.service
第四步 : 分别从crush中删除对应的条目
第五步 :删除认证密钥
第六步 :删除磁盘
文章来源地址https://www.toymoban.com/news/detail-621539.html
到了这里,关于管理ceph集群的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!