Ceph pacific版本nfs共享集群建设

这篇具有很好参考价值的文章主要介绍了Ceph pacific版本nfs共享集群建设。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Ceph pacific版本建设ganesha nfs集群

以下教程针对使用cephadm部署ceph集群的用户
在pacific版本中ceph利用nfs共享的配置已经非常简单,使用后端编排机制可以直接建立ganesha nfs集群,无需额外下载nfs服务端。
首先得有一个文件系统用来共享出去,建立一个名字叫做cephfs的文件系统:

ceph fs volume create cephfs

其次建立nfs集群:

#--port参数指定端口,因为默认服务器中或许会有nfs,默认端口都是2049,端口有可能冲突,test是集群名称
ceph nfs cluster create test --placement=3 --port=9876
#建立好之后查看集群信息
ceph nfs cluster info test
#新建一个集群的配置文件
touch nfs.test.yaml
vim nfs.test.yaml

这里nfs.test.yaml是一个nfs共享的配置文件,这里提供一个基础的配置,如果有需求的话可以根据需要自己修改

EXPORT {
  Export_Id = 100;
  Transports = TCP;
  Path = /;
  Pseudo = /ceph/;
  Protocols = 4;
  Access_Type = RW;
  Attr_Expiration_Time = 0;
  Squash = None;
  FSAL {
    Name = CEPH;#这个是指定后端存储时CEPH,
    Filesystem = "cephfs";#共享的文件系统的名称
  }
}
#指定集群使用自定义的配置文件,这里不要用cephadm shell的形式,直接在宿主机上面使用
ceph nfs export apply test -i nfs.test.yaml
#指定好配置文件之后查看是否生效
ceph nfs cluster config get test
#通过ceph nfs命令将文件系统导出,这里默认指定的文件系统路径是根目录,也可以指定其他目录
ceph nfs export create cephfs test /test cephfs

到这里已经共享完成了,在客户端尝试挂载
客户端:文章来源地址https://www.toymoban.com/news/detail-533272.html

mkdir /mnt
mount -t nfs -o port=9876 192.168.49.129:/test /mnt
#这里面必须要指定端口,因为mount的话默认端口是通过nfs的2049来挂载的,但是服务端是根据自定义端口来提供分享服务的

到了这里,关于Ceph pacific版本nfs共享集群建设的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • ceph集群搭建详细教程(ceph-deploy)

    ceph-deploy比较适合生产环境,不是用cephadm搭建。相对麻烦一些,但是并不难,细节把握好就行,只是命令多一些而已。 服务器主机 public网段IP(对外服务) cluster网段IP(集群通信) 角色 deploy 192.168.2.120 用于部署集群、管理集群 ceph-node1 192.168.2.121 192.168.6.135 ceph-mon、ceph-mgr、

    2024年02月04日
    浏览(33)
  • Ceph:关于Ceph 集群中池管理的一些笔记

    准备考试,整理 Ceph 相关笔记 博文内容涉及, Ceph 中的 两种 pool 介绍,创建操作管理池 理解不足小伙伴帮忙指正 对每个人而言,真正的职责只有一个:找到自我。然后在心中坚守其一生,全心全意,永不停息。所有其它的路都是不完整的,是人的逃避方式,是对大众理想的

    2024年02月09日
    浏览(38)
  • 【Ceph集群应用】Ceph块存储之RBD接口详解

    接上文基于ceph-deploy部署Ceph集群详解 (1)创建一个名为rbd-demo的专门用于RBD的存储池 (2)将存储池转换为RBD模式 (3)初始化存储池 (4)创建镜像 (5)镜像管理 查看存储池下存在哪些镜像 查看镜像的详细信息 修改镜像大小 直接删除镜像 推荐使用trash命令,这个命令删除

    2024年02月16日
    浏览(50)
  • OpenStack+Ceph集群 计算节点执行nova list提示ERROR (CommandError): You must provide a user name/id

    排错的时候在计算节点执行了 nova list 查看实例情况 结果提示 看来是没有配置keystone鉴权信息的原因 执行 可以打印信息了,虽然还是ERROR的…

    2024年02月11日
    浏览(42)
  • 【Ceph集群应用】Ceph对象存储系统之RGW接口详解

    接上文基于ceph-deploy部署Ceph集群详解 (1)对象存储概念 对象存储(object storage)是非结构数据的存储方法,对象存储中每一条数据都作为单独的对象存储,拥有唯一的地址来识别数据对象,通常用于云计算环境中。 不同于其他数据存储方法, 基于对象的存储不使用目录树

    2024年02月17日
    浏览(40)
  • Ceph入门到精通-Ceph版本升级命令

    Cephadm 可以安全地将 Ceph 从一个错误修复版本升级到下一个错误修复版本。为 例如,你可以从v15.2.0(第一个八达通版本)升级到下一个 点发布,v15.2.1。 自动升级过程遵循 Ceph 最佳实践。例如: 升级顺序从管理器、监视器开始,然后是其他守护程序。 每个守护程序仅在 Ce

    2024年02月10日
    浏览(45)
  • Ceph:关于Ceph 集群中数据分布和容灾理论的一些笔记

    准备考试,整理 Ceph 相关笔记 博文内容涉及,Ceph 集群中数据如何分布以及不同的容灾池介绍 理解不足小伙伴帮忙指正 对每个人而言,真正的职责只有一个:找到自我。然后在心中坚守其一生,全心全意,永不停息。所有其它的路都是不完整的,是人的逃避方式,是对大众理

    2024年02月12日
    浏览(41)
  • ceph集群(二)

    上次我们已经完成了 Ceph 集群的部署,但是我们如何向 Ceph 中存储数据呢?首先我们需要在 Ceph 中定义一个 Pool 资源池。Pool 是 Ceph 中存储 Object 对象抽象概念。我们可以将其理解为 Ceph 存储上划分的逻辑分区,Pool 由多个 PG 组成;而 PG 通过 CRUSH 算法映射到不同的 OSD 上;同

    2024年02月16日
    浏览(28)
  • Ceph集群安装部署

    1.1 环境简介 主机名 IP 磁盘一 磁盘二 磁盘三 CPU 内存 操作系统 虚拟化工具 ceph-01 192.168.200.33 100G 50G 50G 2C 4G Ubuntu 22.04 VMware15 ceph-02 192.168.200.34 100G 50G 50G 2C 4G Ubuntu 22.04 VMware15 ceph-03 192.168.200.35 100G 50G 50G 2C 4G Ubuntu 22.04 VMware15 1.2 配置hosts解析(所有节点) 1.3 配置时间同步 所有节点

    2024年02月13日
    浏览(40)
  • Ceph集群的部署

    1.1 集群架构 主机名 业务IP 存储IP 服务器配置 系统类型 集群角色 ceph-mon1-deploy 172.17.10.61/16 192.168.10.61/24 2C/4G Ubuntu1804 mon+deploy(部署节点) ceph-mon2 172.17.10.62/16 192.168.10.62/24 2C/4G Ubuntu1804 mon(监控节点) ceph-mon3 172.17.10.63/16 192.168.10.63/24 2C/4G Ubuntu1804 mon ceph-mgr1 172.17.10.64/16 192.168.10.64

    2024年02月15日
    浏览(34)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包