storage
魂醉
这个作者很懒,什么都没留下…
展开
-
ZFS添加删除高速缓存和日志设备
查看池状态 #zpool status pool: zp1 state: ONLINE scan: none requestedconfig: NAME STATE READ WRITE CKSUM zp1 ONLINE 0 0原创 2020-12-02 14:11:04 · 3763 阅读 · 0 评论 -
Rook1.0部署+排错
部署Rook Operatorcd cluster/examples/kubernetes/cephkubectl create -f common.yamlkubectl create -f operator.yamlkubectl -n rook-ceph get pod #验证rook-ceph-operator, rook-ceph-agent, and rook-di...原创 2019-05-13 18:13:17 · 777 阅读 · 0 评论 -
Rook下快速部署ceph分布式文件系统
由于CRD资源版本不匹配的问题,参考下面文章需要切换到0.9分支https://github.com/rook/rook/issues/2338$ git clone https://github.com/rook/rook.git #克隆仓库$ cd rook/cluster/examples/kubernetes/ceph $ git checkout remotes/ori...原创 2019-05-06 18:01:24 · 781 阅读 · 0 评论 -
rook(1.0)+ceph安装后dashboard报500错误
成功安装后,打开web管理发现dashboard无法显示,其他页面显示正常查看mgrkubectl -n rook-ceph get podsNAME READY STATUS RESTARTS AGErook-ceph-agent-5pgtj 1/1...原创 2019-05-14 14:16:44 · 1950 阅读 · 2 评论 -
rook(v0.9)+ceph 清理过程记录
清除集群时,注意清楚以下资源rook-ceph-system namespace: 由operator.yaml创建的operator和agent所在的namespacerook-ceph namespace: 由cluster.yaml创建的rook cluster所在的namespace/var/lib/rook: 在集群中配置monitor和osd配置的所在路径如果安官方范例...原创 2019-05-10 10:53:00 · 4054 阅读 · 0 评论 -
Kubernetes Ceph tier配置
快速安装一带而过cd cluster/examples/kubernetes/cephkubectl create -f common.yamlkubectl create -f operator.yamlkubectl -n rook-ceph get pod #所有pod状态为running后,执行创建集群打标签运行ceph-mon的节点打上:ceph-mon=...原创 2019-05-16 16:01:29 · 625 阅读 · 0 评论 -
K8S使用rook安装ceph报错application not enabled on 1 pool(s)
登陆到ceph图形管理界面,如图提示错误而且创建的块设备在这里无法显示解决办法很简单:进入到rook-ceph-tools这个 pod 中(需要过安装Rook Toolbox)进入后,查看健康状态:[root@k8s-product01-ceph01 /]# ceph healthHEALTH_WARN application not enabled on 1 pool(s)[ro...原创 2019-07-04 09:37:41 · 4540 阅读 · 0 评论 -
ceph cache teir配置模式以及参数说明
这里简单解释一下ceph的cache tier这里可以叫做ceph的缓存层,为了提高整个ceph集群的IO能力,可以在普通机械硬盘上加一层高速的SSD缓存,客户端读写数据的时候直接请求到SSD高速缓存上,所以直接感官就是读写响应更快了。几种配置模式writeback mode:当配置为writeback模式时,ceph客户端将数据写入到缓存层并且从缓存层得到已经写入的确认信息。在缓存层...原创 2019-07-18 10:02:40 · 4037 阅读 · 2 评论 -
ceph块设备 VS 本地块设备 使用pgbench TPC-B测试数据对比记录
shared_buffer=4G,本地sata盘1000W测试数据:生产1000W测试数据,tbs_local使用的是本地sata磁盘,无写缓存pgbench hank -i -s 100 pgbench -h 127.0.0.1 -p 1921 -U hank --tablespace=tbs_local需要28秒钟生成1000W数据9900000 of 10000000 tuple...原创 2019-07-29 15:37:13 · 402 阅读 · 1 评论 -
ceph-deploy部署jewel版本cpeh集群
这里说明一下,ceph集群可以用ceph-deploy快速部署,可以手动一步一步部署。为了省去麻烦,我建议ceph-deploy部署,手动部署步骤太多。所以这里也不会介绍手动部署,有兴趣的同学可以去官网查阅步骤。节点规划,目前3台服务器,由于我安装的jewel版本,已经更新到10.2.11,所以这里没装mgr192.168.183.11 mon admin osd ceph-deploy...原创 2019-07-29 17:06:20 · 762 阅读 · 1 评论 -
ceph-deploy部署client
如图,要使用ceph,需要在使用的服务器上安装ceph在集群的admin节点/etc/hosts添加192.168.173.41 client01客户端hosts192.168.183.11 ceph01192.168.183.12 ceph02192.168.183.13 ceph03192.168.173.41 client01yum配置如上一篇文...原创 2019-07-29 17:25:22 · 695 阅读 · 1 评论 -
Rook+ceph+wordpress部署
接Ceph Storage Quickstartceph部署完成后,又部署了toolbox查看到已经部署到了192-168-60-14节点kubectl -n rook-ceph get pod -l "app=rook-ceph-tools" -o wide NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINE...原创 2019-05-08 16:18:34 · 604 阅读 · 0 评论 -
宝存SSD驱动安装以及无法创建LVM解决方法
linux驱动下载http://www.shannon-sys.com/files/Shannon_Linux_Driver_Package_3.2.2.3.tar.gz解压:tar -xf Shannon_Linux_Driver_Package_3.2.2.3.tar.gzcd Shannon_Linux_Driver_Package_3.2.2.3解压:tar -xf ...原创 2019-04-26 17:20:21 · 1062 阅读 · 0 评论 -
HP MSA2312 ERROR
司在用的hp MAS2312存储其中一台每天都会报一个错误 EVENT:Vdisk verification failed. Command failed. (error code: 1) 2 error(s) were found. (vdisk: vd07, SN: 00c0ff10386b0000da9f554e00000000) EVENT ID:#A2373 EVENT CODE:原创 2013-06-20 13:57:27 · 1852 阅读 · 0 评论 -
MSA2312 enclosure 闪断后
故障描述:由于电源原因,导致整个扩展柜闪断,硬盘全部为leftover状态。存储划分配置:之前满配的一套MSA2312,划分为4个vd,后面两个vd无影响,前面2个VD都是一半在1号柜子,一半在2号柜子,都做的raid10,每个柜子有一块全局热备盘。# show vdName Size Free Own Pref RAID Disks Spr Chk Status JobsSeri原创 2013-06-20 13:58:06 · 1482 阅读 · 0 评论 -
zpool 相关性能参数设置
德哥写的比较详细了,搬过来mark一下http://blog.163.com/digoal@126/blog/static/1638770402014526992910/本文讨论一下zfs读写IOPS或吞吐量的优化技巧, (读写操作分同步和异步两种情况).影响性能的因素1. 底层设备的性能直接影响同步读写 iops, throughput. 异步读写和c转载 2015-08-27 09:17:01 · 6778 阅读 · 0 评论 -
zfs 安装以及使用
安装$ sudo yum localinstall --nogpgcheck http://archive.zfsonlinux.org/epel/zfs-release$(rpm -E %dist).noarch.rpm$ sudo yum install zfs安装比较简单下面介绍创建zpool,以及如何使用# fdisk -l原创 2015-08-27 09:15:49 · 1118 阅读 · 0 评论 -
OCZ PCI-e ssd安装使用
centos6.x的系统自带mvsas是可以驱动使用ocz的,但是480G的会被分割为4个120G的盘,性能效果也不好,所以接下来准备安装厂商的驱动使用http://www.oczenterprise.com/drivers.html从官网下载Z4的驱动即可,安装后重启还是使用的mvsas,需要设置一下黑名单cat /etc/modprobe.d/blacklist.conf --加原创 2015-09-01 14:51:00 · 1484 阅读 · 0 评论 -
flashcache安装使用
flashcache安装使用:github下载源码:https://github.com/facebook/flashcache#yum install dkms gcc make yum-utils kernel-devel#unzip flashcache-master.zip#cd flashcache-master/#make && make原创 2015-09-02 14:43:03 · 1100 阅读 · 0 评论 -
linux下mas2312存储配置
今天梳理资产发现公司还有2台低端HP存储,之前都没写配置记录,记录一下,拿来做测试机用主要涉及三块配置1.博科光纤交换机2.存储配置划分3.服务器配置博科交换机配置:查看交换机基本配置信息:swd77:root> switchshowswitchName: swd77switchType: 71.2switchState: ...原创 2016-12-05 09:33:49 · 738 阅读 · 0 评论 -
ZFS 池损坏恢复
查看池状态,已经不可用,相应的挂载目录已经无法使用zpool status -v pool: zp1 state: UNAVAILABLE scan: scrub repaired 0 in 7h7m with 0 errors on Mon Dec 28 17:15:23 2015config: NAME原创 2017-04-26 14:16:51 · 4274 阅读 · 0 评论 -
zfs日常管理以及替换损坏磁盘
dd if=/dev/zero of=/data01/zfs.disk1 bs=8192 count=102400dd if=/dev/zero of=/data01/zfs.disk2 bs=8192 count=102400dd if=/dev/zero of=/data01/zfs.disk3 bs=8192 count=102400dd if=/dev/zero of=/dat原创 2017-04-26 16:50:33 · 11580 阅读 · 0 评论 -
MSA2312 18块磁盘leftover
MSA2312再次抽筋做的raid1+0 这里比较幸运,一个笼子的磁盘不是全部在一个VD,所以还可以使用接下来清除元数据由于夸笼子的的原因,一个笼子设置完,vd都在重建,3号笼子的无法设置热备盘,需要等vd重建后再设置 vd重建中...原创 2018-10-19 15:41:40 · 1125 阅读 · 0 评论 -
来自Digoal的HP MSA2000 case
今天一个HP MSA2312FC的存储发送了离奇的事情,多个VD上的多个磁盘状态变成了LEFTOVER。 造成的结果是多个VD变成QTOF状态如下 : # show vdName Size Free Own Pref RAID Disks Spr Chk Status Jobs Serial Number转载 2013-06-20 13:56:47 · 1547 阅读 · 0 评论