linux nfs挂载 测速,CentOS下使用fio测试挂载了CEPH rbd磁盘的读写性能|4k随机/顺序读写...

背景简介

继续上文的ceph性能调整,有兴趣的可以看看:

使用rbd bench/bench-write自带测速工具和fio对ceph image进行性能测试|测速跑分

文章目录[隐藏] 前言 集群配置 开始测试 前言 最近在折腾CEPH集群,测试环境是4台ceph物理节点,每台8~12个SATA/SAS机械硬盘,共43个OSD。性能远低于预期,目前正在调整配置中…… 正好实测了一下性能,这里分享出来大家参考。对CEPH Pool的性能测试可以看前一篇: 集群配置 4 CEPH节点:SH-1001 SH-1003 SH-1004 SH-1005 2Manager:SH-1001 SH-1005 3Monitor:SH-1004 SH-2001 SH-2003 开始测试 内网测速 root@SH-1005:~# iperf3 -s ----------------------------------------------------------- Server listening on 5201 ----------------------------------------------------------- Accepted connection from 10.1.0.1, port 42784 [ 5] local 10.1.0.5 port 5201 connected to 10.1.0.1 port 42786 [ ID] Interval Transfer Bitrate [ 5] 0.00-1.00 […]

15526a2f8d15d5680dcf31cc345d7b7e.png

使用rados自带测速工具对ceph pool进行性能测试|测速跑分

文章目录[隐藏] 前言 集群配置 开始测试 前言 最近在折腾CEPH集群,测试环境是4台ceph物理节点,每台8~12个SATA/SAS机械硬盘,共43个OSD。性能远低于预期,目前正在调整配置中…… 正好实测了一下性能,这里分享出来大家参考。简要信息通过ceph -s即可获取: 集群配置 4 CEPH节点:SH-1001 SH-1003 SH-1004 SH-1005 2Manager:SH-1001 SH-1005 3Monitor:SH-1004 SH-2001 SH-2003 开始测试 内网测速 root@SH-1005:~# iperf3 -s ----------------------------------------------------------- Server listening on 5201 ----------------------------------------------------------- Accepted connection from 10.1.0.1, port 42784 [ 5] local 10.1.0.5 port 5201 connected to 10.1.0.1 port 42786 [ ID] Interval Transfer Bitrate [ 5] 0.00-1.00 […]

3ed123208c9d62cd9a441e3b55889462.png

测试环境的Ceph集群配置同前文,所以就不赘述了。将上述的Ceph pool中新建raw格式的ceph rbd,并挂载在虚拟机的/vz下,qemu cache设置为writeback

[root@hn03 ~]# df -h

Filesystem Size Used Avail Use% Mounted on

devtmpfs 126G 0 126G 0% /dev

tmpfs 126G 12K 126G 1% /dev/shm

tmpfs 126G 1008K 126G 1% /run

tmpfs 126G 0 126G 0% /sys/fs/cgroup

/dev/sda4 165G 5.7G 151G 4% /

tmpfs 126G 20K 126G 1% /tmp

/dev/sda2 976M 170M 739M 19% /boot

/dev/mapper/vhs_jelastic--host--3-vz 8.0T 17G 7.6T 1% /vz

/dev/ploop13141p1 9.8G 1.3G 8.0G 14% /vz/pfcache

10.1.3.2:/home/nfs/backup/hn03 33T 24T 7.3T 77% /vz/backups

/dev/ploop48143p1 241G 548M 230G 1% /vz/root/2629

tmpfs 26G 0 26G 0% /run/user/0

开始测试

4K随机写性能

[root@hn03 ~]# fio -filename=/vz/test_4kwrite -direct=1 -iodepth 1 -thread -rw=randwrite -ioengine=psync -bs=4k -size=100M -numjobs=10 -runtime=60 -group_reporting -name=tes

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值