1. 存储基础
1.1 单机存储设备
DAS(直接附加存储,是直接接到计算机主板总线上的存储)
IDE、SATA、SCSI、SAS、USB接口的磁盘
所谓接口就是一种存储设备驱动下的磁盘设备,提供块级别的存储
NAS(网络附加存储,是通过网络附加到当前主机文件系统之上的存储)
NFS、CIFS、FTP
文件系统级别的存储,本身就是一个做好的文件系统,通过nfs接口在用户空间输出后,客户端基于内核模块与远程主机进行网络通信,把它转为好像本地文件系统一样来使用,这种存储服务没办法对它再一次格式化,创建文件系统块
SAN(存储区域网络)
SCSI协议(只是用来传输数据的存取操作,物理层使用SCSI线缆来传输)、FCSAN(物理层使用光纤来传输)、iSCSI(物理层使用以太网来传输)
也是一种网络存储,但不同之处在于SAN提供给客户端主机使用的接口是块级别的存储
1.1.1 单机存储的问题
存储处理能力不足
传统IDE的IO值是100次/秒,SATA固态磁盘500次/秒,固态硬盘达到2000-4000次/秒。即使磁盘的IO能力再大数十倍,也不够抗住网站访问高峰期数十万、数百万甚至上亿用户的同时访问,这同时还要受到主机网络IO能力的限制。
存储空间能力不足
单块磁盘的容量再大,也无法满足用户的正常访问,所需的数据容量限制。
单点故障问题
单机存储数据存在单点故障问题
1.1.2 商业存储解决方案
EMC、NetAPP、IBM、DELL、华为、浪潮
1.2 分布式存储(软件定义的存储SDS)
Ceph、TFS、FastDFS、MooseFS(MFS)、HDFS、GlusterFS(GFS)
存储机制会把数据分散存储到多个节点上,具有高扩展性、高性能、高可用性等优点。
1.2.1 分布式存储的类型
块存储
例如硬盘,一般是一个存储被一个服务器挂载使用,适用于容器或虚拟机存储卷分配、日志存储、文件存储。就是一个裸设备,用于提供没有被组织过的存储空间,底层以分块的方式来存储数据
文件存储
例如NFS,解决块存储无法共享问题,可以一个存储被多个服务器同时挂载,适用于目录结构的存储、日志存储。是一种数据组织存放接口,一般是建立在块级别的存储结构之上,以文件形式来存储数据,而文件的元数据和实际数据是分开存储的。
对象存储
例如OSS,一个存储可以被多服务同时访问,具备块存储的高速读写能力,也具备文件存储共享的特性,适用图片存储、视频存储。基于API接口提供的文件存储,每一个文件都是一个对象,且文件大小各不相同,文件的元数据和实际数据是存放在一起的。
2. Ceph简介
Ceph使用C++语言开发,是一个开放、自我修复和自我管理的开源分布式存储系统。具有高扩展性、高性能、高可靠性的优点。
Ceph目前已得到众多云计算厂商的支持并被广泛应用。RedHat及OpenStack,Kubernetes都可与Ceph整合,以支持虚拟机镜像的后端存储。
粗略估计,我国70%—80%的云平台都将Ceph作为底层的存储平台,由此可见Ceph俨然成为了开源云平台的标配。目前国内使用Ceph搭建分布式存储系统较为成功的企业有华为、阿里、中兴、华三、浪潮、中国移动、网易、乐视、360、星辰天合存储、杉岩数据等。
2.1 Ceph优势
- 高扩展性:去中心化,支持使用普通X86服务器,支持上千个存储节点的规模,支持TB到EB级的扩展。
- 高可靠性:没有单点故障,多数据副本,自动管理,自动修复。
- 高性能:摒弃了传统的集中式存储元数据寻址方案,采用CRUSH算法,数据分布均衡,并行度高。
- 功能强大:Ceph是个大一统的存储系统,集块存储接口(RBD)、文件存储接口(CephFS)、对象存储接口(RadosGW)于一身,因而适用于不同的应用场景。
2.2 Ceph架构
自下向上,可以将Ceph系统分为四个层次:
RADOS基础存储系统(Reliable,Autonomic,Distributed Object Store,即可靠的、自动化的、分布式的对象存储)
RADOS是Ceph最底层的功能模块,是一个无限可扩容的对象存储服务,能将文件拆解成无数个对象(碎片)存放在硬盘中,大大提高了数据的稳定性。它主要由OSD和Monitor两个组件组成,OSD和Monitor都可以部署在多台服务器中,这就是ceph分布式和高扩展性的由来。
LIBRADOS基础库
Librados提供了与RADOS进行交互的方式,并向上层应用提供Ceph服务的API接口,因此上层的RBD、RGW和CephFS都是通过Librados访问的,目前提供PHP、Ruby、Java、Python、Go、C和C++支持,以便直接基于RADOS(而不是整个Ceph)进行客户端应用开发。
2.2.1 高层应用接口
包括了三个部分:
(1)对象存储接口RGW(RADOS Gateway)
网关接口,基于Librados开发的对象存储系统,提供S3和Swift兼容的RESTful API接口。
(2)块存储接口RBD(Reliable Block Device)
基于Librados提供块设备接口,主要用于Host/VM。
(3)文件存储接口CephFS(Ceph File System)
Ceph文件系统,提供了一个符合POSIX标准的文件系统,它使用Ceph存储集群,在文件系统上存储用户数据。基于Librados提供的分布式文件系统接口。
应用层:基于高层接口或者基础库Librados开发出来的各种APP,或者Host、VM等诸多客户端.
2.3 Ceph核心组件
Ceph是一个对象式存储系统,它把每一个待管理的数据流(如文件等数据)切分为一到多个固定大小(默认4兆)的对象数据(Object),并以其为原子单元(原子是构成元素的最小单元)完成数据的读写。
OSD(Object Storage Daemon,守护进程ceph-osd)
是负责物理存储的进程,一般配置成和磁盘一一对应,一块磁盘启动一个OSD进程。主要功能是存储数据、复制数据、平衡数据、恢复数据,以及与其它OSD间进行心跳检查,负责响应客户端请求,返回具体数据的进程等。通常至少需要3个OSD来实现冗余和高可用性。
PG(Placement Group归置组)
PG是一个虚拟的概念而已,物理上不真实存在。它在数据寻址时类似于数据库中的索引:Ceph先将每个对象数据,通过HASH算法固定映射到一个PG中,然后将PG通过CRUSH算法映射到OSD。
Pool
Pool是存储对象的逻辑分区,它起到namespace的作用。每个Pool包含一定数量(可配置)的PG。Pool可以做故障隔离域,根据不同的用户场景统一进行隔离。
2.3.1 Pool中数据保存方式支持的两种类型
- 多副本(replicated):类似raid1,一个对象数据默认保存3个副本,放在不同的OSD。
- 纠删码(Erasure Code):类似raid5,对CPU消耗稍大,但是节约磁盘空间,对象数据保存只有1个副本。由于Ceph部分功能不支持纠删码池,此类型存储池使用不多。
2.3.2 Pool、PG和OSD的关系
一个Pool里有很多个PG;一个PG里包含一堆对象,一个对象只能属于一个PG;PG有主从之分,一个PG分布在不同的OSD上(针对多副本类型)文章来源:https://www.toymoban.com/news/detail-593998.html
Monitor(守护进程ceph-mon)
用来保存OSD的元数据。负责维护集群状态的映射视图(Cluster Map:OSD Map、Monitor Map、PG Map和CRUSH Map),维护展示集群状态的各种图表&#x文章来源地址https://www.toymoban.com/news/detail-593998.html
到了这里,关于【Ceph】基于ceph-deploy部署Ceph集群详解的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!