Ceph: vdbench 测试ceph存储rbd块设备

06-22 1398阅读

目录

2.搭建ceph

3.vdbench环境


准备

笔记本架构:x86 i5 8 代

Ceph: vdbench 测试ceph存储rbd块设备

虚拟化软件:virtualBox 7.0

Ceph: vdbench 测试ceph存储rbd块设备

操作系统:CentOS Linux release 7.9.2009 (Core)

测试虚拟机操作系统:CentOS Linux release 7.9.2009 (Core)

节点

外部网络

内部网络

Server205

172.17.11.205

192.168.56.101

Server206

172.17.11.206

192.168.56.108

Server207

172.17.11.207

192.168.56.109

节点之间做主机名映射

Ceph: vdbench 测试ceph存储rbd块设备

 

为了省事,关闭防火墙

Ceph: vdbench 测试ceph存储rbd块设备

节点之间做ssh免密互信,注意每个节点都执行以下命令:

Ssh-keygen -t rsa

Ssh-copy-id server20*

Ceph: vdbench 测试ceph存储rbd块设备

每个节点检测java环境喝pip环境,如无请安装

Yum install java -y

Yum install -y python-pip

节点间同步时间,每个节点都执行:

Yum install ntpdate

为了省事,直接同步aliyun的时间,每个节点执行:

ntpdate  ntp.aliyun.com

Ceph: vdbench 测试ceph存储rbd块设备

思想准备:

每个节点上的数据盘符和数据盘数量尽量保持一致

三节点上的3副本上创建的块存储,在默认情况下只能有3分之一的容量可用

2.搭建ceph

Ceph版本:2.0.1

Ceph工作流程概要:

最小的存储单元是object,object分组为pg,pg是ceph分布式核心设计,因为其可以在离客户端最近的osd上进行注册。Osd是ceph的核心程序是最基础的请求响应的进程服务,osd将注册在集群cluster map中,客户端通过访问map获取离自己最接近的osd位置,然后与其建立直接通信,最终在数据网络中形成客户端到具体服务进程的P2P的请求相应模式。客户端和osd是多对多关系,osd分布在不同的宿主机上,通过crush算法进行数据的位置分配,并通过ec,通过多副本和EC校验完成数据的可靠性和一致性。

ceph是高性能,高兼容性的统一存储,提供对象、块、文件的存储。本次测试主要针对块设备。块设备在服务器中体现为rbd进程服务,在集群创建好之后,首先需要创建一个资源池,将节点上的数据盘进行接管,然后通过rbd进程进一步将其划分为不同的块文件,最终将rbd挂载在不同的文件目录下完成云硬盘的创建,保障虚拟机磁盘生效和运行。

本册ceph搭建、以及存储池的创建,rbd的创建请参考“aa一叶知秋aa”博主的连接,其中有我时间过程中的问题和知识点交流过程,可以参考:

Ceph分布式存储系统的介绍及详细安装部署过程:详细实战版(保姆级)_存储部署-CSDN博客

Ceph----RBD块存储的使用:详细实践过程实战版-CSDN博客

Ceph的监控工具Dashboard安装部署,详细实战过程_ceph dashboard启动-CSDN博客

  1. RBD分布状态,三个节点都应如下现象是正确的

Ceph: vdbench 测试ceph存储rbd块设备

3.vdbench环境

下载vdbench:

Ceph: vdbench 测试ceph存储rbd块设备

解压到每个节点并安装固定的目录下

Ceph: vdbench 测试ceph存储rbd块设备

这里提供vdbench的学习网址一篇:

【ceph】vdbench的使用教程——裸盘测试和文件系统测试vdbanch - bdy - 博客园 (cnblogs.com)

在这里分享一下我的test配置文件

Ceph: vdbench 测试ceph存储rbd块设备

  1. 附带配置文件 执行vdbench

Ceph: vdbench 测试ceph存储rbd块设备

以下是最终分析结果

Ceph: vdbench 测试ceph存储rbd块设备

VPS购买请点击我

文章版权声明:除非注明,否则均为主机测评原创文章,转载或复制请以超链接形式并注明出处。

目录[+]