【Ceph】基于ceph-deploy部署Ceph集群详解

这篇具有很好参考价值的文章主要介绍了【Ceph】基于ceph-deploy部署Ceph集群详解。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1. 存储基础

1.1 单机存储设备

DAS(直接附加存储,是直接接到计算机主板总线上的存储
IDE、SATA、SCSI、SAS、USB接口的磁盘
所谓接口就是一种存储设备驱动下的磁盘设备,提供块级别的存储

NAS(网络附加存储,是通过网络附加到当前主机文件系统之上的存储
NFS、CIFS、FTP
文件系统级别的存储,本身就是一个做好的文件系统,通过nfs接口在用户空间输出后,客户端基于内核模块与远程主机进行网络通信,把它转为好像本地文件系统一样来使用,这种存储服务没办法对它再一次格式化,创建文件系统块

SAN(存储区域网络)
SCSI协议(只是用来传输数据的存取操作,物理层使用SCSI线缆来传输)、FCSAN(物理层使用光纤来传输)、iSCSI(物理层使用以太网来传输)
也是一种网络存储,但不同之处在于SAN提供给客户端主机使用的接口是块级别的存储

1.1.1 单机存储的问题

存储处理能力不足
传统IDE的IO值是100次/秒,SATA固态磁盘500次/秒,固态硬盘达到2000-4000次/秒。即使磁盘的IO能力再大数十倍,也不够抗住网站访问高峰期数十万、数百万甚至上亿用户的同时访问,这同时还要受到主机网络IO能力的限制。

存储空间能力不足
单块磁盘的容量再大,也无法满足用户的正常访问,所需的数据容量限制

单点故障问题
单机存储数据存在单点故障问题

1.1.2 商业存储解决方案

EMC、NetAPP、IBM、DELL、华为、浪潮

1.2 分布式存储(软件定义的存储SDS)

Ceph、TFS、FastDFS、MooseFS(MFS)、HDFS、GlusterFS(GFS)
存储机制会把数据分散存储到多个节点上,具有高扩展性、高性能、高可用性等优点。

1.2.1 分布式存储的类型

块存储
例如硬盘,一般是一个存储被一个服务器挂载使用,适用于容器或虚拟机存储卷分配、日志存储、文件存储。就是一个裸设备,用于提供没有被组织过的存储空间,底层以分块的方式来存储数据

文件存储
例如NFS,解决块存储无法共享问题,可以一个存储被多个服务器同时挂载,适用于目录结构的存储、日志存储。是一种数据组织存放接口,一般是建立在块级别的存储结构之上,以文件形式来存储数据,而文件的元数据和实际数据是分开存储的

对象存储
例如OSS,一个存储可以被多服务同时访问,具备块存储的高速读写能力,也具备文件存储共享的特性,适用图片存储、视频存储。基于API接口提供的文件存储,每一个文件都是一个对象,且文件大小各不相同,文件的元数据和实际数据是存放在一起的

2. Ceph简介

Ceph使用C++语言开发,是一个开放、自我修复和自我管理的开源分布式存储系统具有高扩展性、高性能、高可靠性的优点
Ceph目前已得到众多云计算厂商的支持并被广泛应用。RedHat及OpenStack,Kubernetes都可与Ceph整合,以支持虚拟机镜像的后端存储。
粗略估计,我国70%—80%的云平台都将Ceph作为底层的存储平台,由此可见Ceph俨然成为了开源云平台的标配。目前国内使用Ceph搭建分布式存储系统较为成功的企业有华为、阿里、中兴、华三、浪潮、中国移动、网易、乐视、360、星辰天合存储、杉岩数据等。

2.1 Ceph优势

  • 高扩展性:去中心化,支持使用普通X86服务器,支持上千个存储节点的规模,支持TB到EB级的扩展。
  • 高可靠性:没有单点故障,多数据副本,自动管理,自动修复。
  • 高性能:摒弃了传统的集中式存储元数据寻址方案,采用CRUSH算法,数据分布均衡,并行度高
  • 功能强大:Ceph是个大一统的存储系统,集块存储接口(RBD)、文件存储接口(CephFS)、对象存储接口(RadosGW)于一身,因而适用于不同的应用场景。

2.2 Ceph架构

自下向上,可以将Ceph系统分为四个层次:

RADOS基础存储系统(Reliable,Autonomic,Distributed Object Store,即可靠的、自动化的、分布式的对象存储
RADOS是Ceph最底层的功能模块,是一个无限可扩容的对象存储服务,能将文件拆解成无数个对象(碎片)存放在硬盘中,大大提高了数据的稳定性。它主要由OSD和Monitor两个组件组成,OSD和Monitor都可以部署在多台服务器中,这就是ceph分布式和高扩展性的由来。

LIBRADOS基础库
Librados提供了与RADOS进行交互的方式,并向上层应用提供Ceph服务的API接口,因此上层的RBD、RGW和CephFS都是通过Librados访问的,目前提供PHP、Ruby、Java、Python、Go、C和C++支持,以便直接基于RADOS(而不是整个Ceph)进行客户端应用开发。

2.2.1 高层应用接口

包括了三个部分:

(1)对象存储接口RGW(RADOS Gateway)
网关接口,基于Librados开发的对象存储系统,提供S3和Swift兼容的RESTful API接口。

(2)块存储接口RBD(Reliable Block Device)
基于Librados提供块设备接口,主要用于Host/VM。

(3)文件存储接口CephFS(Ceph File System)
Ceph文件系统,提供了一个符合POSIX标准的文件系统,它使用Ceph存储集群,在文件系统上存储用户数据。基于Librados提供的分布式文件系统接口。

应用层:基于高层接口或者基础库Librados开发出来的各种APP,或者Host、VM等诸多客户端.
【Ceph】基于ceph-deploy部署Ceph集群详解,云计算,运维,Linux,ceph,云计算,运维,linux

2.3 Ceph核心组件

Ceph是一个对象式存储系统,它把每一个待管理的数据流(如文件等数据)切分为一到多个固定大小(默认4兆)的对象数据(Object),并以其为原子单元(原子是构成元素的最小单元)完成数据的读写。

OSD(Object Storage Daemon,守护进程ceph-osd)
负责物理存储的进程,一般配置成和磁盘一一对应,一块磁盘启动一个OSD进程。主要功能是存储数据、复制数据、平衡数据、恢复数据,以及与其它OSD间进行心跳检查,负责响应客户端请求,返回具体数据的进程等。通常至少需要3个OSD来实现冗余和高可用性。

PG(Placement Group归置组)
PG是一个虚拟的概念而已,物理上不真实存在。它在数据寻址时类似于数据库中的索引:Ceph先将每个对象数据,通过HASH算法固定映射到一个PG中,然后将PG通过CRUSH算法映射到OSD

【Ceph】基于ceph-deploy部署Ceph集群详解,云计算,运维,Linux,ceph,云计算,运维,linux

Pool
Pool是存储对象的逻辑分区,它起到namespace的作用。每个Pool包含一定数量(可配置)的PG。Pool可以做故障隔离域,根据不同的用户场景统一进行隔离

【Ceph】基于ceph-deploy部署Ceph集群详解,云计算,运维,Linux,ceph,云计算,运维,linux

2.3.1 Pool中数据保存方式支持的两种类型

  • 多副本(replicated):类似raid1,一个对象数据默认保存3个副本,放在不同的OSD
  • 纠删码(Erasure Code):类似raid5,对CPU消耗稍大,但是节约磁盘空间,对象数据保存只有1个副本。由于Ceph部分功能不支持纠删码池,此类型存储池使用不多

2.3.2 Pool、PG和OSD的关系

一个Pool里有很多个PG;一个PG里包含一堆对象,一个对象只能属于一个PG;PG有主从之分,一个PG分布在不同的OSD上(针对多副本类型)

Monitor(守护进程ceph-mon)
用来保存OSD的元数据。负责维护集群状态的映射视图(Cluster Map:OSD Map、Monitor Map、PG Map和CRUSH Map),维护展示集群状态的各种图表&#x
文章来源地址https://www.toymoban.com/news/detail-593998.html

到了这里,关于【Ceph】基于ceph-deploy部署Ceph集群详解的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Ceph集群的部署

    1.1 集群架构 主机名 业务IP 存储IP 服务器配置 系统类型 集群角色 ceph-mon1-deploy 172.17.10.61/16 192.168.10.61/24 2C/4G Ubuntu1804 mon+deploy(部署节点) ceph-mon2 172.17.10.62/16 192.168.10.62/24 2C/4G Ubuntu1804 mon(监控节点) ceph-mon3 172.17.10.63/16 192.168.10.63/24 2C/4G Ubuntu1804 mon ceph-mgr1 172.17.10.64/16 192.168.10.64

    2024年02月15日
    浏览(37)
  • Ceph集群安装部署

    1.1 环境简介 主机名 IP 磁盘一 磁盘二 磁盘三 CPU 内存 操作系统 虚拟化工具 ceph-01 192.168.200.33 100G 50G 50G 2C 4G Ubuntu 22.04 VMware15 ceph-02 192.168.200.34 100G 50G 50G 2C 4G Ubuntu 22.04 VMware15 ceph-03 192.168.200.35 100G 50G 50G 2C 4G Ubuntu 22.04 VMware15 1.2 配置hosts解析(所有节点) 1.3 配置时间同步 所有节点

    2024年02月13日
    浏览(42)
  • 【Ceph集群应用】Ceph块存储之RBD接口详解

    接上文基于ceph-deploy部署Ceph集群详解 (1)创建一个名为rbd-demo的专门用于RBD的存储池 (2)将存储池转换为RBD模式 (3)初始化存储池 (4)创建镜像 (5)镜像管理 查看存储池下存在哪些镜像 查看镜像的详细信息 修改镜像大小 直接删除镜像 推荐使用trash命令,这个命令删除

    2024年02月16日
    浏览(55)
  • DAY 78 ceph集群部署

    Ceph 环境规划 主机名 Public网络 Cluster网络 角色 admin 192.168.137.10 admin(管理节点负责集群整体部署) node01    192.168.137.15 192.168.137.15 mon、mgr、osd node02   192.168.137.20 192.168.137.20 mon、mgr、osd node03   192.168.137.30 192.168.137.30 mon、osd clinet 192.168.137.40 client 1、关闭 selinux 与防火墙 2、

    2024年02月09日
    浏览(32)
  • 使用cephadm部署ceph集群

    从红帽ceph5开始使用cephadm代替之前的ceph-ansible作为管理整个集群生命周期的工具,包括部署,管理,监控。 cephadm引导过程在单个节点(bootstrap节点)上创建一个小型存储集群,包括一个Ceph Monitor和一个Ceph Manager,以及任何所需的依赖项。 如下图所示: cephadm可以登录到容器

    2024年01月17日
    浏览(43)
  • 【Ceph集群应用】Ceph对象存储系统之RGW接口详解

    接上文基于ceph-deploy部署Ceph集群详解 (1)对象存储概念 对象存储(object storage)是非结构数据的存储方法,对象存储中每一条数据都作为单独的对象存储,拥有唯一的地址来识别数据对象,通常用于云计算环境中。 不同于其他数据存储方法, 基于对象的存储不使用目录树

    2024年02月17日
    浏览(40)
  • Ceph学习 -6.Nautilus版本集群部署

    学习目标:这一节,我们从基础知识、环境规划、小结三个方面来学习。 1.1.1 基础知识 注意事项 简介 版本的选择 1.1.2 环境规划 网络规划 提示 主机规划 主机名规划 主机名 Public/共有网络/前端网络 Cluster/集群网络/后端网络 磁盘 其他角色 admin 192.168.120.20 192.168.8.20 sdb、sdc

    2024年04月15日
    浏览(42)
  • Ubuntu20.04使用cephadm部署ceph集群

    Cephadm通过在单个主机上创建一个Ceph单机集群,然后向集群中添加主机以扩展集群,进而部署其他服务。 VMware安装Ubuntu20.04并使用Xshell连接虚拟机:https://blog.csdn.net/gengduc/article/details/134889416 Python3 Systemd Podman或Docker 时间同步chrony或NTP LVM2 主机名hostname 硬盘设备 ip地址 Ceph服务

    2024年02月05日
    浏览(45)
  • Ceph原理、部署、存储集群、块存储及对象存储centos7.5

    目录 ​编辑 一、Ceph概述  1、基础知识 1. 分布式存储定义 2. 常用的分布式文件系统 3. Ceph定义 4. Ceph组件  二、实验环境准备 1、实验拓扑图 2、配置yum源  3、配置SSH无密码连接 4、NTP时间同步 1.NTP服务器配置  2.NTP客户端配置 3.准备存储硬盘 三、部署环境 1、安装部署软件

    2023年04月20日
    浏览(81)
  • 基于Ubuntu22.04部署bcache模式ceph

    作者:吴业亮 博客:wuyeliang.blog.csdn.net 将Bcache集成到Ceph OSD后端可以带来一些优点和潜在的缺点。以下是它们的一些方面: 优点: 提高性能:BCache作为SSD缓存设备,可以提供更快的数据读取和写入速度。通过将热门数据缓存在SSD上,可以减少对慢速磁盘的访问,从而改善存

    2024年02月14日
    浏览(38)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包