jjzjj

CEPH-RBD

全部标签

中兴新支点系统离线安装ceph 16.2.10

关于中兴新支点系统中兴新支点操作系统基于Linux稳定内核,分为嵌入式操作系统(NewStartCGEL)、服务器操作系统(NewStartCGSL)、桌面操作系统(NewStartNSDL),经过近10年专业研发团队的积累和发展,产品形成安全加固、自主可控、易用管理的突出优势。目前,中兴新支点操作系统已在国内外各大电信运营商、国有大中型企业及电子政务解决方案中投入使用,服务于交换网络、核心网络、骨干网络、智慧城市、视频监控等系统底层。以上转自某乎。背景在国家数字化转型和国产化替代的大背景下,尤其是政务类项目,现在基本用国产化的CPU和操作系统来承载其业务,实现自主创新和安全可靠。本文在中兴新

Ceph集群mon节点告警case---low diskspace

ceph运营篇mon节点出现如下告警:虽然文件系统显示根分区用了百分之六十八,但在ceph里面计算方式以及告警阈值设置不一样,故会根据不通设置告警。 查看/var/log/ceph/ceph.mon.node-3.log解决思路:一、删除根据目录下的没用的大文件;二、调整告警阈值、其中调整阈值方法如下:需要在三个节点执行如下命令:ceph--admin-daemon/var/run/ceph/ceph-mon.node-1.asokconfigsetmon_data_avail_warn20#节点node-1执行ceph--admin-daemon/var/run/ceph/ceph-mon.

K8s使用Ceph作为后端存储

Ceph概述部署Ceph集群Ceph存储使用Pod使用Ceph持久化数据Ceph监控Rook部署Ceph1❖Ceph概述Ceph介绍Ceph架构Ceph核心概念Ceph介绍Ceph是一个开源的分布式存储系统,具有高扩展性、高性能、高可靠性等特点,提供良好的性能、可靠性和可扩展性。支持对象存储、块存储和文件系统。是目前为云平台提供存储的理想方案。Ceph架构RBD(RADOSBlockDevice):块存储接口RGW(RADOSGateway)):对象存储网关,接口与S3和Swift兼容CephFS(CephFileSystem):文件级存储接口RADOS(ReliableAutonomicDi

Minio VS Ceph

1.概述2.对比[2.1.软件整体对比12](#21-软件整体对比1-2)2.1.1.语言与代码量及技术栈2.1.1.1.编译时间2.1.1.2.技术栈[2.1.2.License3](#212-license–4)2.1.2.1.LGPL2.1.2.2.AGPLv32.1.3.文档2.1.4.社区支持2.2.对象存储功能对比2.2.1.数据存储2.3.致命问题2.3.1.单盘极端情况下影响整个集群2.3.2.元数据过大导致静默校验卡IO2.3.3.数据平衡过程中性能损耗2.3.4.单集群规模受限2.3.5.集群联邦2.3.6.数据分布算法3.总结3.1.Minio3.1.1.优势3.1.2.

Minio VS Ceph

1.概述2.对比[2.1.软件整体对比12](#21-软件整体对比1-2)2.1.1.语言与代码量及技术栈2.1.1.1.编译时间2.1.1.2.技术栈[2.1.2.License3](#212-license–4)2.1.2.1.LGPL2.1.2.2.AGPLv32.1.3.文档2.1.4.社区支持2.2.对象存储功能对比2.2.1.数据存储2.3.致命问题2.3.1.单盘极端情况下影响整个集群2.3.2.元数据过大导致静默校验卡IO2.3.3.数据平衡过程中性能损耗2.3.4.单集群规模受限2.3.5.集群联邦2.3.6.数据分布算法3.总结3.1.Minio3.1.1.优势3.1.2.

ceph状态报:pgs not deep-scrubbed in time

问题描述ceph-s状态输出如下:分析过程scrubbed功能用于PG,是为了检测PG分布到各osds上的数据是否一致,deep-scrubbed的检测模式除了检测数据的元数据信息外,还会检测数据的内容是否一致,速度较慢且消耗磁盘读取,一般设置在晚上进行scrubbed,如果超过了设定时间,若有PG未进行deep-scrubbed,就会报警了解决办法**先查看哪些PG需要deep-scrubbed**cephhealthdetail再批量执行手动deep-scrubbed有规律就好办了:cephpgdeep-scrubPG_IDforiin`seq07`;docephpgdeep-scrub3

基于kubesphere的k8s环境部署三节点的rook-ceph集群

文章目录前言链接:[基于kubesphere的k8s环境部署单点版本的rook-ceph](https://blog.csdn.net/baidu_35848778/article/details/131050918)一、rook-ceph是什么?二、开始部署2.1环境准备2.2软件包准备,计算\存储节点执行2.3下载rook-ceph文件2.4部署operator2.5创建ceph集群2.6创建工具容器,检查集群状态2.7准备dashboard的nodeport端口映射服务2.8准备prometheus的metric端口映射服务三、创建存储类3.1创建cephrbd存储类3.2创建cephf

云原生之深入解析K8S中Ceph的部署与功能测试

一、前言Ceph在k8s中用做共享存储还是非常方便的,Ceph是比较老牌的分布式存储系统,非常成熟并且功能也强大,支持三种模式(快存储、文件系统存储、对象存储),那么如何在k8s使用ceph呢?k8s环境的部署,请参考:云原生之深入解析K8S1.24的高可用环境部署。关于Ceph的环境部署和实战操作,请参考:云原生之深入解析分布式存储系统Ceph的环境部署和实战操作。二、CephRook简介Rook是一个开源的云原生存储编排工具,提供平台、框架和对各种存储解决方案的支持,以和云原生环境进行本地集成。Rook将存储软件转变成自我管理、自我扩展和自我修复的存储服务,通过自动化部署、启动、配置、供应

k8s使用ceph存储

文章目录初始化操作k8s使用cephrbdvolumePV静态pv动态pvk8s使用cephfsvolume静态pv初始化操作ceph创建rbd存储池cephosdpoolcreatek8s-data3232replicatedcephosdpoolapplicationenablek8s-datarbdrbdpoolinit-pk8s-dataceph添加授权,需要创建两个用户,一个挂载rbd时使用,另一个挂载cephfs时使用cephauthget-or-createclient.k8s-usermon'allowr'mds'allow'osd'allow*pool=k8s-data'-o