存储测试在压缩功能测试时,有些凌乱,因为一般提供压缩功能的存储大多数会提供重删功能,单纯的测试压缩,定性还是定量,使用什么工具等都是一些比较难选择的问题,
比如说,测试压缩时定性测试首先避开重删,那么要求我们写入的数据在存储后端切块后不会有重复数据,如何搞?
下面聊聊一个本办法的思路,
1,后端数据切块多大 ?如 切块4k存储,我们就给他写4k数据,要注意避开一下几点:
①,创建文件系统(需要文件系统4k对齐)
②,写文件内容,但存储文件要有相同的部分,可以被压缩,并且必须有不同的部分,不能被重删
③,借鉴定量工具参数设置办法,手工补充验证确定性(如fio、vdbench等都有较好的压缩测试参数设计,)
满足以上几点,笨而可靠地办法,将存储通过ISCSI等手段映射到客户端,做文件系统
mkfs.xfs xfs默认4k对齐,省心,挂载至测试目录后写文件
使用脚本批量,具体数量根据场景判断,下面提供一个50000+4k文件的脚本,抛砖引玉!
#/bin/bash
#######################################################################
# the script for compression testing with 4k diffre