Ceph集群问题梳理
创建: 昨天5:35 下午
,最新修改:
问题1: 数据传到日志盘,会立刻删除还是延迟删除?
验证:优化参数
#从日志到数据盘最大同步间隔间隔秒数,默认: 5
filestore max sync interval = 15
过程分析:客户端某一object发送给ceph的pg,注意,是写到日志就返回结果,然后在15秒的间隔内,
三个osd节点数据都同步完成才会删除日志盘内数据,同时通知客户端可以删除自己内存中的数据,
如果此时数据丢失,支持客户端根据自己内存中的缓存重新提交数据的功能
问题2: 多个object到一个primary osd后,是并发处理,还是阻塞
验证:由于客户端的读写都是直接和primary osd打交道,而我们使用xfs文件系统的特点是,写入日志就返回,所以我们使用ssd做日志盘,来快速处理大量并发的写请求
问题3: 用ssd做日志盘,每个分区应该分多大
官方推荐(硬盘和网络带宽较小的一个*最大同步间隔秒数)*2
本次项目硬盘最大带宽12Gbps 最大同步间隔秒数为15
一台sshd分两个分区,每个分区做一个日志盘,每个日志盘大小(每个分区大小)=12Gbps*15*2=360Gb=45G
日志盘:
固态硬盘
少分区(分区对齐,采用脚本使用百分比的方式分区)
小分区(不要把分区占满整个硬盘,预留一部分空间,我们sshd是200G,可以使用150G左右),使用率不要超过90%,不要进行碎片整理。
问题4: file切分成单个object性能最优
从性能角度考虑应该设置成2的倍数,如果是小文件居多可以采用4
如果是镜像,或者是云主机的磁盘镜像文件,可以采用8
单位默认都是M
转载于:https://blog.51cto.com/egon09/1783318