前文我们了解了cephfs使用相关话题,回顾请参考https://www.cnblogs.com/qiuhom-1874/p/16758866.html;今天我们来聊一聊MDS组件扩展相关话题; 我们知道MDS是为了实现cephfs而运行的进程,主要负责管理文件系统元数据信息;这意味着客户端使用cephfs存取数据,都会先联系mds找元数据;然后mds再去元数据存储池读取数据,然后返回给客户端;即元素存储池只能由mds操作;换句话说,mds是访问cephfs的唯一入口;那么问题来了,如果ceph集群上只有一个mds进程,很多个客户端来访问cephfs,那么mds肯定会成为瓶颈,所以为了提
前文我们了解了Ceph的基础架构和相关组件的介绍,回顾请参考https://www.cnblogs.com/qiuhom-1874/p/16720234.html;今天我们来部署一个ceph集群; 部署工具介绍 1、ceph-deploy:该部署工具是ceph官方的部署工具,它只依赖SSH访问服务器,不需要额外的agent;它可以完全运行在自己的工作站上(比如adminhost),不需要服务器,数据库类似的东西;该工具不是一个通用的部署工具,只针对ceph;相比ansible,puppet,功能相对单一;该工具可以推送配置文件,但它不处理客户端配置,以及客户端部署相关依赖等; 2、c
前文我们了解了Ceph的基础架构和相关组件的介绍,回顾请参考https://www.cnblogs.com/qiuhom-1874/p/16720234.html;今天我们来部署一个ceph集群; 部署工具介绍 1、ceph-deploy:该部署工具是ceph官方的部署工具,它只依赖SSH访问服务器,不需要额外的agent;它可以完全运行在自己的工作站上(比如adminhost),不需要服务器,数据库类似的东西;该工具不是一个通用的部署工具,只针对ceph;相比ansible,puppet,功能相对单一;该工具可以推送配置文件,但它不处理客户端配置,以及客户端部署相关依赖等; 2、c
Rook搭建Ceph一、软件版本及先决条件 软件版本: 软件版本名称软件版本号Pacific16.2.7RookV1.9 先决条件:K8s集群,1.16版本+K8s至少3个工作节点每个工作节点至少有一块未使用的硬盘Rook仅支持部署CephNautilus以上版本二、搭建Rook1.下载代码 wgethttps://github.com/rook/rook/archive/refs/tags/v1.9.0.tar.gz2.拉取所需镜像此处注意: 因为不熟需要的部分镜像国内无法下载,所以需要修改国内源或者国内源
Rook搭建Ceph一、软件版本及先决条件 软件版本: 软件版本名称软件版本号Pacific16.2.7RookV1.9 先决条件:K8s集群,1.16版本+K8s至少3个工作节点每个工作节点至少有一块未使用的硬盘Rook仅支持部署CephNautilus以上版本二、搭建Rook1.下载代码 wgethttps://github.com/rook/rook/archive/refs/tags/v1.9.0.tar.gz2.拉取所需镜像此处注意: 因为不熟需要的部分镜像国内无法下载,所以需要修改国内源或者国内源
本文主要介绍ceph16版本集群节点系统磁盘故障后的集群恢复,虽然系统盘很多都是做了raid1,但从实际做的项目看,总是有很多未知意外发生,节点挂掉后,上面的mon和osd,mgr都会down掉,如果所在节点的mgr服务是激活状态,则其他节点所在的备用节点将会升级为激活状态。移除问题主机节点挂掉后,在确定不能继续开机进入系统的情况下,需要在其他正常的节点将故障节点进行移除,此次宕机的节点为node4,以下命令可能会导致数据丢失,因为osd将通过调用每个osd来强制从集群中清除。cephorchhostrmnode4--offline--force节点初始化操作将node4节点即故障节点更换新的
本文主要介绍ceph16版本集群节点系统磁盘故障后的集群恢复,虽然系统盘很多都是做了raid1,但从实际做的项目看,总是有很多未知意外发生,节点挂掉后,上面的mon和osd,mgr都会down掉,如果所在节点的mgr服务是激活状态,则其他节点所在的备用节点将会升级为激活状态。移除问题主机节点挂掉后,在确定不能继续开机进入系统的情况下,需要在其他正常的节点将故障节点进行移除,此次宕机的节点为node4,以下命令可能会导致数据丢失,因为osd将通过调用每个osd来强制从集群中清除。cephorchhostrmnode4--offline--force节点初始化操作将node4节点即故障节点更换新的
本文介绍在国产化操作系统和服务器上进行ceph集群的安装。基础配置操作系统使用银河kylinv10,CPU为飞腾处理器S2500。[root@node1~]#cat/etc/kylin-releaseKylinLinuxAdvancedServerreleaseV10(Sword)[root@node1~]#lscpu架构:aarch64CPU运行模式:64-bit字节序:LittleEndianCPU:128在线CPU列表:0-127每个核的线程数:1每个座的核数:64座:2NUMA节点:16厂商ID:Phytium型号:3型号名称:Phytium,S2500/64C00步进:0x1CPU最
本文介绍在国产化操作系统和服务器上进行ceph集群的安装。基础配置操作系统使用银河kylinv10,CPU为飞腾处理器S2500。[root@node1~]#cat/etc/kylin-releaseKylinLinuxAdvancedServerreleaseV10(Sword)[root@node1~]#lscpu架构:aarch64CPU运行模式:64-bit字节序:LittleEndianCPU:128在线CPU列表:0-127每个核的线程数:1每个座的核数:64座:2NUMA节点:16厂商ID:Phytium型号:3型号名称:Phytium,S2500/64C00步进:0x1CPU最
Ceph仪表板和登陆页面CephDashboard是一个基于Web的管理和监控应用程序,我们可以通过它检查和控制Ceph集群中的各个方面和资源。它作为CephManagerDaemon模块实现,并且是其中不可或缺的一部分。具体信息如链接(https://docs.ceph.com/en/quincy/mgr/dashboard/#overview)。CephDashboard的登录页面作为主页,包含集群整体状态、性能和容量等指标。它提供有关集群实时管理功能,允许通过页面管理Ceph的大部分功能。随着Ceph仪表板添加新的特性和功能,登录页面也做了些更新:Goals该项目的目标是增强登录页面的用