【个人记录】ceph修改osd池副本数

这篇具有很好参考价值的文章主要介绍了【个人记录】ceph修改osd池副本数。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

执行ceph -s时提示:

 health: HEALTH_WARN
            3 pool(s) have no replicas configured

显示有3个池没有配置副本。

在 Ceph 中,可以使用 ceph osd pool set 命令来配置 pool 的副本规则。要配置 pool 的副本规则为双副本,可以按照以下步骤进行操作:

  1. 首先,使用以下命令列出当前的 pool 列表,找到你想要配置的 pool 的名称:

    ceph osd lspools
    
  2. 然后,使用以下命令来设置 pool 的副本规则为双副本。假设你的 pool 名称为 my_pool,你可以使用以下命令:

    ceph osd pool set my_pool size 2
    

    这将把 my_pool 的副本规则设置为双副本。在这个命令中,size 参数用于指定副本的数量。

请确保在执行这些命令之前,你已经了解你的 Ceph 群集的当前状态,并且明白如何影响这些设置。配置副本规则可能会对存储效率和容错性产生影响。文章来源地址https://www.toymoban.com/news/detail-794969.html

到了这里,关于【个人记录】ceph修改osd池副本数的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 关于ceph osd auth keyring

    关于osd auth 认证 如果在删除osd时,id指定错误,错误执行了ceph auth del osd.x,此时osd工作目录还在,osd重启会因为认证无法启动。只要重新添加该osd auth认证即可 上述原理和命令对于各位运维来说应该非常熟悉,不算新鲜命令,不做展开。 上述命令从另一个角度,也可以理解

    2024年04月15日
    浏览(34)
  • ceph写满,nearfull osd解决思路

    现象:ceph写满,ceph-s 中nearfull osd 办法:调整osd weight权重,进行数据均衡 步骤:1,执行ceph osd df可以看到当前的pg在osd上分布情况以及使用率情况 2,防止数据均衡过程中,其他osd 数据out,及deep-scrub操作出现大量block IO。设置集群noout以及nodeep-scrub标签: ceph osd set noout ceph

    2024年01月18日
    浏览(34)
  • Ceph入门到精通-OSD waring 设置建议

    以下检查表明 OSD 节点存在问题。 1 在 /var/lib/ceph/osd 中找到的多个ceph_fsid值。 这可能意味着您正在托管许多集群的 OSD 此节点或某些 OSD 配置错误以加入 您期望的集群。 2 设置可能会导致数据丢失,因为如果 未达到最小值,Ceph 将不会确认对客户端的写入。 osd pool default 

    2024年02月11日
    浏览(47)
  • Ceph集群修复 osd 为 down 的问题

    由于突然断电了,导致 ceph 服务出现了问题,osd.1 无法起来 尝试重启 发现重启无望,可采用以下步骤重新格式化硬盘并将其加入 ceph 集群中 ( 注意:以下步骤会将硬盘中的所有数据抹除 ) 此步骤需要在 Down 掉的 OSD 所在节点上操作 安装 OSD 时,会将 osd.1 挂载至/var/lib/cep

    2023年04月17日
    浏览(34)
  • 【ceph】如何将osd的内容挂载出来---ceph-objectstore-tool 实现

      本站以分享各种运维经验和运维所需要的技能为主 《python零基础入门》:python零基础入门学习 《python运维脚本》: python运维脚本实践 《shell》:shell学习 《terraform》持续更新中:terraform_Aws学习零基础入门到最佳实战 《k8》暂未更新 《docker学习》暂未更新 《ceph学习》

    2024年02月02日
    浏览(39)
  • Crimson:高性能,高扩展的新一代 Ceph OSD

    随着物理硬件的不断发展,存储软件所使用的硬件的情况也一直在不断变化。 一方面,内存和 IO 技术一直在快速发展,硬件的性能在极速增加。在最初设计 Ceph 的时候,通常情况下,Ceph 都是被部署到机械硬盘上,能够提供数百 IOPS 的读写和数十 G 的磁盘容量。但是,目前最

    2024年02月12日
    浏览(49)
  • ceph osd因为ReplicatedBackend::recover_object crash

    这应该是ceph version 15.2.14 (cd3bb7e87a2f62c1b862ff3fd8b1eec13391a5be) octopus (stable)的一个bug。 osd会在recovery的时候挂掉。报错日志如下。因为是实际使用的环境,目前并不能对于ceph进行修复或者升级。所以只能用命令“ceph osd set norecover ”把ceph的recovery先关掉,然后再启动osd,才行。虽

    2024年02月14日
    浏览(39)
  • 【ceph】在虚拟环境中需要给osd所在的虚拟盘扩容操作

      本站以分享各种运维经验和运维所需要的技能为主 《python零基础入门》:python零基础入门学习 《python运维脚本》: python运维脚本实践 《shell》:shell学习 《terraform》持续更新中:terraform_Aws学习零基础入门到最佳实战 《k8》暂未更新 《docker学习》暂未更新 《ceph学习》

    2024年01月16日
    浏览(35)
  • 第⑫讲:Ceph集群OSD扩缩容中Reblanceing数据的重分布

    当集群中OSD进行扩缩容操作后,会触发一个Reblanceing数据重分布的机制,简单的理解就是将扩缩容前后OSD中的PG在每一个OSD中进行均匀分布,如下图所示: 在扩容前集群有两个OSD节点,这两个OSD中分布着十个PG,扩容后,集群中有三个OSD节点,此时就会触发Reblanceing数据重分布

    2024年04月15日
    浏览(44)
  • elasticsearch修改es集群的索引副本数量

    最近es集群进行调整,从2节点变成了单节点。所以需要将集群模式改为单点模式,并需要将es 集群的全部索引副本个数改为0,不然会有很多未分配的分片,导致集群状态为 yellow。 1. 先将现有的index的副本数量为0个 此步骤是为了解决现有的索引副本数。 2. 创建模板匹配所有

    2024年02月08日
    浏览(45)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包