ceph写满,nearfull osd解决思路

这篇具有很好参考价值的文章主要介绍了ceph写满,nearfull osd解决思路。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

现象:ceph写满,ceph-s 中nearfull osd

办法:调整osd weight权重,进行数据均衡

步骤:1,执行ceph osd df可以看到当前的pg在osd上分布情况以及使用率情况

2,防止数据均衡过程中,其他osd 数据out,及deep-scrub操作出现大量block IO。设置集群noout以及nodeep-scrub标签:

ceph osd set noout

ceph osd set nodeep-scrub

3,集群节点,执行ceph osd reweight-by-utilization <var 值*100>。把var值1.18以上的osd进行均衡调整。

ceph osd reweight-by-utilization 118

注释:

手动调整

1、找到空间利用率较高的OSD,然后逐个进行调整

ceph osd reweight {osd_numeric_id} {reweight}

上述命令中各个参数含义如下:

osd_numeric_id:OSD对应的数字ID

reweight:待设置的OSD的reweight。reweight取值越小,将使更多的数据从对应的OSD迁出。

批量调整

目前有两种模式进行批量调整:

1、按照OSD当前空间利用率(reweight-by-utilization);

2、按照PG在OSD之间的分布(reweight-by-pg);

4,等待数据平衡,时间长短取决于数据量多少以及数据均衡程度

5,执行完成ceph osd df | sort -rnk 7查看osd使用率,确保osd都在85以下,没有达到预期,重复执行2-3

6,取消noout和nodeep-scrub标签,执行ceph –s确认执行成功;

ceph osd unset noout

ceph osd unset nodeep-scrub文章来源地址https://www.toymoban.com/news/detail-802649.html

到了这里,关于ceph写满,nearfull osd解决思路的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 关于ceph osd auth keyring

    关于osd auth 认证 如果在删除osd时,id指定错误,错误执行了ceph auth del osd.x,此时osd工作目录还在,osd重启会因为认证无法启动。只要重新添加该osd auth认证即可 上述原理和命令对于各位运维来说应该非常熟悉,不算新鲜命令,不做展开。 上述命令从另一个角度,也可以理解

    2024年04月15日
    浏览(22)
  • 【个人记录】ceph修改osd池副本数

    执行 ceph -s 时提示: 显示有3个池没有配置副本。 在 Ceph 中,可以使用 ceph osd pool set 命令来配置 pool 的副本规则。要配置 pool 的副本规则为双副本,可以按照以下步骤进行操作: 首先,使用以下命令列出当前的 pool 列表,找到你想要配置的 pool 的名称: 然后,使用以下命令

    2024年01月16日
    浏览(28)
  • Ceph集群修复 osd 为 down 的问题

    由于突然断电了,导致 ceph 服务出现了问题,osd.1 无法起来 尝试重启 发现重启无望,可采用以下步骤重新格式化硬盘并将其加入 ceph 集群中 ( 注意:以下步骤会将硬盘中的所有数据抹除 ) 此步骤需要在 Down 掉的 OSD 所在节点上操作 安装 OSD 时,会将 osd.1 挂载至/var/lib/cep

    2023年04月17日
    浏览(25)
  • Ceph入门到精通-OSD waring 设置建议

    以下检查表明 OSD 节点存在问题。 1 在 /var/lib/ceph/osd 中找到的多个ceph_fsid值。 这可能意味着您正在托管许多集群的 OSD 此节点或某些 OSD 配置错误以加入 您期望的集群。 2 设置可能会导致数据丢失,因为如果 未达到最小值,Ceph 将不会确认对客户端的写入。 osd pool default 

    2024年02月11日
    浏览(39)
  • 【ceph】如何将osd的内容挂载出来---ceph-objectstore-tool 实现

      本站以分享各种运维经验和运维所需要的技能为主 《python零基础入门》:python零基础入门学习 《python运维脚本》: python运维脚本实践 《shell》:shell学习 《terraform》持续更新中:terraform_Aws学习零基础入门到最佳实战 《k8》暂未更新 《docker学习》暂未更新 《ceph学习》

    2024年02月02日
    浏览(26)
  • OpenStack+Ceph集群 清理pool池 解决 pgs: xxx% pgs unknown的问题

    昨天没有清空pool直接删除osd节点,导致今天ceph挂掉了… 执行 显示 可以看到: pgs: 100.000% pgs unknown 数据异常 执行 显示 存储池分配的空间都是0 说明osd节点挂掉了 查看一下osd节点情况 可以看到node1和node2都不存在osd了,变成了外网IP的computer和controller上 可能是因为crush map设置

    2023年04月10日
    浏览(38)
  • Crimson:高性能,高扩展的新一代 Ceph OSD

    随着物理硬件的不断发展,存储软件所使用的硬件的情况也一直在不断变化。 一方面,内存和 IO 技术一直在快速发展,硬件的性能在极速增加。在最初设计 Ceph 的时候,通常情况下,Ceph 都是被部署到机械硬盘上,能够提供数百 IOPS 的读写和数十 G 的磁盘容量。但是,目前最

    2024年02月12日
    浏览(34)
  • ceph osd因为ReplicatedBackend::recover_object crash

    这应该是ceph version 15.2.14 (cd3bb7e87a2f62c1b862ff3fd8b1eec13391a5be) octopus (stable)的一个bug。 osd会在recovery的时候挂掉。报错日志如下。因为是实际使用的环境,目前并不能对于ceph进行修复或者升级。所以只能用命令“ceph osd set norecover ”把ceph的recovery先关掉,然后再启动osd,才行。虽

    2024年02月14日
    浏览(28)
  • 【ceph】在虚拟环境中需要给osd所在的虚拟盘扩容操作

      本站以分享各种运维经验和运维所需要的技能为主 《python零基础入门》:python零基础入门学习 《python运维脚本》: python运维脚本实践 《shell》:shell学习 《terraform》持续更新中:terraform_Aws学习零基础入门到最佳实战 《k8》暂未更新 《docker学习》暂未更新 《ceph学习》

    2024年01月16日
    浏览(29)
  • 第⑫讲:Ceph集群OSD扩缩容中Reblanceing数据的重分布

    当集群中OSD进行扩缩容操作后,会触发一个Reblanceing数据重分布的机制,简单的理解就是将扩缩容前后OSD中的PG在每一个OSD中进行均匀分布,如下图所示: 在扩容前集群有两个OSD节点,这两个OSD中分布着十个PG,扩容后,集群中有三个OSD节点,此时就会触发Reblanceing数据重分布

    2024年04月15日
    浏览(31)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包