前文我们了解了Ceph集群cephx认证和授权相关话题,回顾请参考https://www.cnblogs.com/qiuhom-1874/p/16748149.html;今天我们来聊一聊ceph集群的RBD接口使用相关话题; RBD是ceph集群向外提供存储服务的一种接口,该接口是基于ceph底层存储集群libradosapi构建的接口;即RBD是构建在librados之上向外提供存储服务的;对于客户端来说RBD主要是将rados集群之上的某个存储池里的空间通过librados抽象为一块或多块独立image,这些Image在客户端看来就是一块块硬盘;那对于RBD抽象出来的硬盘,客户端该怎
前文我们了解了Ceph集群cephx认证和授权相关话题,回顾请参考https://www.cnblogs.com/qiuhom-1874/p/16748149.html;今天我们来聊一聊ceph集群的RBD接口使用相关话题; RBD是ceph集群向外提供存储服务的一种接口,该接口是基于ceph底层存储集群libradosapi构建的接口;即RBD是构建在librados之上向外提供存储服务的;对于客户端来说RBD主要是将rados集群之上的某个存储池里的空间通过librados抽象为一块或多块独立image,这些Image在客户端看来就是一块块硬盘;那对于RBD抽象出来的硬盘,客户端该怎
前文我们了解了Ceph的基础架构和相关组件的介绍,回顾请参考https://www.cnblogs.com/qiuhom-1874/p/16720234.html;今天我们来部署一个ceph集群; 部署工具介绍 1、ceph-deploy:该部署工具是ceph官方的部署工具,它只依赖SSH访问服务器,不需要额外的agent;它可以完全运行在自己的工作站上(比如adminhost),不需要服务器,数据库类似的东西;该工具不是一个通用的部署工具,只针对ceph;相比ansible,puppet,功能相对单一;该工具可以推送配置文件,但它不处理客户端配置,以及客户端部署相关依赖等; 2、c
前文我们了解了Ceph的基础架构和相关组件的介绍,回顾请参考https://www.cnblogs.com/qiuhom-1874/p/16720234.html;今天我们来部署一个ceph集群; 部署工具介绍 1、ceph-deploy:该部署工具是ceph官方的部署工具,它只依赖SSH访问服务器,不需要额外的agent;它可以完全运行在自己的工作站上(比如adminhost),不需要服务器,数据库类似的东西;该工具不是一个通用的部署工具,只针对ceph;相比ansible,puppet,功能相对单一;该工具可以推送配置文件,但它不处理客户端配置,以及客户端部署相关依赖等; 2、c
Rook搭建Ceph一、软件版本及先决条件 软件版本: 软件版本名称软件版本号Pacific16.2.7RookV1.9 先决条件:K8s集群,1.16版本+K8s至少3个工作节点每个工作节点至少有一块未使用的硬盘Rook仅支持部署CephNautilus以上版本二、搭建Rook1.下载代码 wgethttps://github.com/rook/rook/archive/refs/tags/v1.9.0.tar.gz2.拉取所需镜像此处注意: 因为不熟需要的部分镜像国内无法下载,所以需要修改国内源或者国内源
Rook搭建Ceph一、软件版本及先决条件 软件版本: 软件版本名称软件版本号Pacific16.2.7RookV1.9 先决条件:K8s集群,1.16版本+K8s至少3个工作节点每个工作节点至少有一块未使用的硬盘Rook仅支持部署CephNautilus以上版本二、搭建Rook1.下载代码 wgethttps://github.com/rook/rook/archive/refs/tags/v1.9.0.tar.gz2.拉取所需镜像此处注意: 因为不熟需要的部分镜像国内无法下载,所以需要修改国内源或者国内源
本文主要介绍ceph16版本集群节点系统磁盘故障后的集群恢复,虽然系统盘很多都是做了raid1,但从实际做的项目看,总是有很多未知意外发生,节点挂掉后,上面的mon和osd,mgr都会down掉,如果所在节点的mgr服务是激活状态,则其他节点所在的备用节点将会升级为激活状态。移除问题主机节点挂掉后,在确定不能继续开机进入系统的情况下,需要在其他正常的节点将故障节点进行移除,此次宕机的节点为node4,以下命令可能会导致数据丢失,因为osd将通过调用每个osd来强制从集群中清除。cephorchhostrmnode4--offline--force节点初始化操作将node4节点即故障节点更换新的
本文主要介绍ceph16版本集群节点系统磁盘故障后的集群恢复,虽然系统盘很多都是做了raid1,但从实际做的项目看,总是有很多未知意外发生,节点挂掉后,上面的mon和osd,mgr都会down掉,如果所在节点的mgr服务是激活状态,则其他节点所在的备用节点将会升级为激活状态。移除问题主机节点挂掉后,在确定不能继续开机进入系统的情况下,需要在其他正常的节点将故障节点进行移除,此次宕机的节点为node4,以下命令可能会导致数据丢失,因为osd将通过调用每个osd来强制从集群中清除。cephorchhostrmnode4--offline--force节点初始化操作将node4节点即故障节点更换新的
本文介绍在国产化操作系统和服务器上进行ceph集群的安装。基础配置操作系统使用银河kylinv10,CPU为飞腾处理器S2500。[root@node1~]#cat/etc/kylin-releaseKylinLinuxAdvancedServerreleaseV10(Sword)[root@node1~]#lscpu架构:aarch64CPU运行模式:64-bit字节序:LittleEndianCPU:128在线CPU列表:0-127每个核的线程数:1每个座的核数:64座:2NUMA节点:16厂商ID:Phytium型号:3型号名称:Phytium,S2500/64C00步进:0x1CPU最
本文介绍在国产化操作系统和服务器上进行ceph集群的安装。基础配置操作系统使用银河kylinv10,CPU为飞腾处理器S2500。[root@node1~]#cat/etc/kylin-releaseKylinLinuxAdvancedServerreleaseV10(Sword)[root@node1~]#lscpu架构:aarch64CPU运行模式:64-bit字节序:LittleEndianCPU:128在线CPU列表:0-127每个核的线程数:1每个座的核数:64座:2NUMA节点:16厂商ID:Phytium型号:3型号名称:Phytium,S2500/64C00步进:0x1CPU最