ceph集群搭建

这篇具有很好参考价值的文章主要介绍了ceph集群搭建。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、前言

     本次搭建ceph集群,使用centos7版本的系统,最高支持ceph版本为15.2.13,如需更高的版本需要使用centos8版本以上的系统,使用cephadm进行搭建,Cephadm 是一个用于部署、管理和监控 Ceph 集群的工具,它是 Ceph 社区官方提供的一种部署方式。Cephadm 的目标是简化 Ceph 集群的部署和管理,并提供了一种简单而灵活的方式来管理 Ceph 集群

主机信息

主机 ip 服务
ceph01 10.1.60.126 mon、osd、mgr、mds
ceph02 10.1.60.127 mon、osd、mgr、mds
ceph03 10.1.60.128 mon、osd、mds
ceph04 10.1.60.129

osd

ceph04后面作为新增节点加入集群 

二、搭建

以下操作在每个节点都需执行

关于系统优化

参考:centos系统优化_root soft nproc unlimited-CSDN博客

配置主机名称

hostnamectl set-hostname ceph01

配置主机解析

vi /etc/hosts

10.1.60.126 ceph01
10.1.60.127 ceph02
10.1.60.128 ceph03
10.1.60.129 ceph04

安装docker

参考:部署docker-ce_安装部署docker-ce-CSDN博客

配置ceph yum源

vi  /etc/yum.repos.d/ceph.repo 

[Ceph]
name=Ceph
baseurl=https://mirrors.aliyun.com/ceph/rpm-15.2.9/el7/x86_64/
enabled=1
gpgcheck=0

[Ceph-noarch]
name=Ceph noarch packages
baseurl=https://mirrors.aliyun.com/ceph/rpm-15.2.9/el7/noarch/
enabled=1
gpgcheck=0

 以下操作只需要在ceph01节点执行即可

安装cephadm

yum install -y cephadm

创建ceph文件存放目录

mkdir /etc/ceph

安装mon服务

cephadm bootstrap  --mon-ip 10.1.60.126 --allow-fqdn-hostname --initial-dashboard-user admin --initial-dashboard-password 12345678 --dashboard-password-noupdate

正常最后会输出用户名和密码还有url,如果部署dashboard报错的话就手动部署一下

部署dashboard报错的情况下手动执行以下操作

进入ceph集群进行命令行操作
cephadm shell
开启dashboard功能
ceph mgr module enable dashboard
生成dashboard的自签证书
ceph dashboard create-self-signed-cert 
创建dashboard密码文件
vi ceph_password
12345678
指定dashboard的用户名和密码
ceph dashboard set-login-credentials admin -i ceph_password
查看dashboard的访问url
ceph mgr services

ceph集群搭建,ceph,ceph

通过以上url和用户名密码访问dashboard

ceph集群搭建,ceph,ceph

 查看拉起的镜像服务

docker ps

ceph集群搭建,ceph,ceph

部署的过程中还生成了配置文件和密钥文件

ls /etc/ceph 

ceph集群搭建,ceph,ceph

 由于是cephadm部署的ceph集群,没有安装客户端的情况下只能通过cephadm交互式的方式查看集群信息

cephadm shell
ceph -s

ceph集群搭建,ceph,ceph

 安装ceph客户端

需要先安装epel,不然会提示没有依赖

yum -y install epel-release
yum -y install ceph-common

安装完成后可以直接使用ceph命令查看集群信息

ceph -s
ceph orch ps

ceph集群搭建,ceph,ceph

 将ceph集群的公钥分配到其它节点中

ssh-copy-id -f -i /etc/ceph/ceph.pub root@ceph02
ssh-copy-id -f -i /etc/ceph/ceph.pub root@ceph03
ssh-copy-id -f -i /etc/ceph/ceph.pub root@ceph04

在其余节点加入前需要先安装python3,不然会出现报错

yum -y install python3

将其余节点加入到集群中

ceph orch host add ceph02
ceph orch host add ceph03

扩展mon节点数量

ceph orch apply mon ceph01,ceph02,ceph03

指定mgr节点

ceph orch apply mgr ceph01,ceph02

指定osd

查看集群磁盘清单

ceph orch device ls

ceph集群搭建,ceph,ceph

指定磁盘为osd

ceph orch apply osd --all-available-devices   #指定所有可用磁盘为osd
ceph orch daemon add osd hostname:磁盘路径    #指定单个磁盘为osd
#这里使用指定单个磁盘为osd的方式
for i in ceph01 ceph02 ceph03; do for b in sdb sdc sdd; do ceph orch daemon add osd $i:/dev/$b; done; done

 查看集群信息

ceph -s

ceph集群搭建,ceph,ceph

 至此ceph集群部署完成

新增ceph04节点,该节点作为单纯的osd节点,即存储节点

因为上面已经分配了集群公钥到ceph04节点就不需要再分配了

ceph orch host add ceph04

查看集群磁盘清单

ceph orch device ls

ceph集群搭建,ceph,ceph

将ceph04的磁盘指定为osd

ceph orch daemon add osd ceph04:/dev/sdb
ceph orch daemon add osd ceph04:/dev/sdc
ceph orch daemon add osd ceph04:/dev/sdd

通过dashborad查看

ceph集群搭建,ceph,ceph

ceph集群搭建,ceph,ceph

 故障测试(这里是创建了存储池并且使用后测试)

将ceph03节点直接关闭模拟故障

关闭后osd会进入in down状态,表明osd还在集群内但是不存活,obeject和pg也会显示有部分不可用状态

ceph集群搭建,ceph,ceph

ceph集群搭建,ceph,ceph

 当挂掉的osd为out down状态,表明osd不在集群内不存活,ceph集群会自动重新平衡object和pg,还有存储的值

ceph集群搭建,ceph,ceph

ceph集群搭建,ceph,ceph

 ceph集群搭建,ceph,ceph

挂掉的ceph03节点恢复后会重新加入集群中

ceph集群搭建,ceph,ceph

ceph集群搭建,ceph,ceph 文章来源地址https://www.toymoban.com/news/detail-851832.html

到了这里,关于ceph集群搭建的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Ceph:关于Ceph 集群如何访问的一些笔记

    准备考试,整理 Ceph 相关笔记 博文内容涉及,Ceph 集群四种访问方式介绍及 Demo,Ceph 客户端支持的操作介绍 理解不足小伙伴帮忙指正 对每个人而言,真正的职责只有一个:找到自我。然后在心中坚守其一生,全心全意,永不停息。所有其它的路都是不完整的,是人的逃避方式

    2024年02月09日
    浏览(29)
  • 【Ceph集群应用】Ceph块存储之RBD接口详解

    接上文基于ceph-deploy部署Ceph集群详解 (1)创建一个名为rbd-demo的专门用于RBD的存储池 (2)将存储池转换为RBD模式 (3)初始化存储池 (4)创建镜像 (5)镜像管理 查看存储池下存在哪些镜像 查看镜像的详细信息 修改镜像大小 直接删除镜像 推荐使用trash命令,这个命令删除

    2024年02月16日
    浏览(41)
  • Ceph:关于Ceph 集群中池管理的一些笔记

    准备考试,整理 Ceph 相关笔记 博文内容涉及, Ceph 中的 两种 pool 介绍,创建操作管理池 理解不足小伙伴帮忙指正 对每个人而言,真正的职责只有一个:找到自我。然后在心中坚守其一生,全心全意,永不停息。所有其它的路都是不完整的,是人的逃避方式,是对大众理想的

    2024年02月09日
    浏览(29)
  • 【Ceph集群应用】Ceph对象存储系统之RGW接口详解

    接上文基于ceph-deploy部署Ceph集群详解 (1)对象存储概念 对象存储(object storage)是非结构数据的存储方法,对象存储中每一条数据都作为单独的对象存储,拥有唯一的地址来识别数据对象,通常用于云计算环境中。 不同于其他数据存储方法, 基于对象的存储不使用目录树

    2024年02月17日
    浏览(33)
  • 管理ceph集群

    outputfile文件被映射到 osd.0 查看当前池rbd-bak应用的rule set,并修改其使用新的RuleSet。再次查看文件outputfile的映射过程。 建议在节点中一次添加一个 OSD,并等到集群恢复到 active+clean 状态。,之后再继续添加下一个OSD。 查看远程节点ceph-2的硬盘 擦净节点ceph-2的磁盘 prepare新的

    2024年02月14日
    浏览(27)
  • Ceph集群

    目录 一、存储概述 1.单机存储设备 1.1 DAS  1.2 NAS 1.3 SAN 2. 单机存储的问题 3. 商业存储解决方案 4.分布式存储(软件定义的存储 SDS) 4.1 分布式存储的类型 二、Ceph简介 1.Ceph 优势 2. Ceph 架构 2.1 RADOS 基础存储系统 2.2 LIBRADOS 基础库 2.3 高层应用接口 2.3.1 对象存储接口 R

    2024年02月16日
    浏览(19)
  • ceph集群(二)

    上次我们已经完成了 Ceph 集群的部署,但是我们如何向 Ceph 中存储数据呢?首先我们需要在 Ceph 中定义一个 Pool 资源池。Pool 是 Ceph 中存储 Object 对象抽象概念。我们可以将其理解为 Ceph 存储上划分的逻辑分区,Pool 由多个 PG 组成;而 PG 通过 CRUSH 算法映射到不同的 OSD 上;同

    2024年02月16日
    浏览(24)
  • Ceph集群的部署

    1.1 集群架构 主机名 业务IP 存储IP 服务器配置 系统类型 集群角色 ceph-mon1-deploy 172.17.10.61/16 192.168.10.61/24 2C/4G Ubuntu1804 mon+deploy(部署节点) ceph-mon2 172.17.10.62/16 192.168.10.62/24 2C/4G Ubuntu1804 mon(监控节点) ceph-mon3 172.17.10.63/16 192.168.10.63/24 2C/4G Ubuntu1804 mon ceph-mgr1 172.17.10.64/16 192.168.10.64

    2024年02月15日
    浏览(25)
  • Ceph集群安装部署

    1.1 环境简介 主机名 IP 磁盘一 磁盘二 磁盘三 CPU 内存 操作系统 虚拟化工具 ceph-01 192.168.200.33 100G 50G 50G 2C 4G Ubuntu 22.04 VMware15 ceph-02 192.168.200.34 100G 50G 50G 2C 4G Ubuntu 22.04 VMware15 ceph-03 192.168.200.35 100G 50G 50G 2C 4G Ubuntu 22.04 VMware15 1.2 配置hosts解析(所有节点) 1.3 配置时间同步 所有节点

    2024年02月13日
    浏览(31)
  • ceph集群的扩容缩容

    实验所用虚拟机均为Centos 7.6系统,8G内存,16核CPU: Ceph-admin: 用作ntp server和ceph本地源 Ceph-1: ceph-deploy、mon1、osd3 Ceph-2: mon1、osd3 Ceph-3: mon1、osd3 使用ceph-deploy工具 见文章中的“添加磁盘” 手动添加 参考文章:https://cloud.tencent.com/developer/article/1664651 在新osd主机上创建osd,并创

    2024年02月11日
    浏览(22)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包