Ceph集群问题梳理                                    

问题1:  数据传到日志盘,会立刻删除还是延迟删除?

验证:优化参数

   #从日志到数据盘最大同步间隔间隔秒数,默认: 5

   filestore max sync interval = 15

   过程分析:客户端某一object发送给ceph的pg,注意,是写到日志就返回结果,然后在15秒的间隔内,

   三个osd节点数据都同步完成才会删除日志盘内数据,同时通知客户端可以删除自己内存中的数据,

   如果此时数据丢失,支持客户端根据自己内存中的缓存重新提交数据的功能

                         p_w_picpath2016-5-25%2017%3A18%3A33.png?versio

问题2:  多个object到一个primary osd后,是并发处理,还是阻塞   

验证:由于客户端的读写都是直接和primary osd打交道,而我们使用xfs文件系统的特点是,写入日志就返回,所以我们使用ssd做日志盘,来快速处理大量并发的写请求

问题3:  用ssd做日志盘,每个分区应该分多大  

     官方推荐(硬盘和网络带宽较小的一个*最大同步间隔秒数)*2

      本次项目硬盘最大带宽12Gbps  最大同步间隔秒数为15

      一台sshd分两个分区,每个分区做一个日志盘,每个日志盘大小(每个分区大小)=12Gbps*15*2=360Gb=45G

 

     日志盘:

       固态硬盘

          少分区(分区对齐,采用脚本使用百分比的方式分区)

         小分区(不要把分区占满整个硬盘,预留一部分空间,我们sshd是200G,可以使用150G左右),使用率不要超过90%,不要进行碎片整理。

 

问题4:  file切分成单个object性能最优

从性能角度考虑应该设置成2的倍数,如果是小文件居多可以采用4

如果是镜像,或者是云主机的磁盘镜像文件,可以采用8

单位默认都是M