分布式存储-ceph
文章平均质量分 77
ceph
wx_doitroot
传统存储,分布式存储,数据安全,开源自动化应用运维
展开
-
K8s - Pod配置容器
k8s ceph docker pod原创 2022-08-09 15:01:27 · 1643 阅读 · 1 评论 -
Ceph Iscsi GW
ceph iscsi gw原创 2022-06-22 17:56:43 · 452 阅读 · 0 评论 -
object storage s3cmd Appication
rgw object applicaiton原创 2022-06-19 23:05:04 · 606 阅读 · 1 评论 -
ceph osd集群网络配置修改
ceph原创 2022-05-24 14:51:59 · 578 阅读 · 0 评论 -
ceph octopus 删除pool
ceph octopus 日常操作~原创 2022-02-07 12:42:12 · 189 阅读 · 0 评论 -
DELL SCv3020存储日常运维
DELL SCv3020日常运维 LUN 卷扩容 在日常运维中,例中需要给Volume LUN扩容的操作如下,例如当前的volume 名称为 test ,当前是3GB 需要扩容到4GB 操作步骤如下: 选择扩展卷如下图: 将卷的3GB调整为4GB 如下: 扩容成功完成: 日 志查看 可以在日志窗口查看当前设备有无重大的硬件或软件的报错.原创 2020-07-29 18:45:46 · 3651 阅读 · 0 评论 -
ceph错误提示:application not enabled on 1 pool(s) 解决办法!
问题: ceph 出现 如下的错误提示: [root@node-10 /]# ceph -s cluster: id: e7a3be6e-2e30-49fd-99c0-dbb304ae1a82 health: HEALTH_WARN application not enabled on 1 pool(s) ------------------------------------...原创 2020-07-23 12:28:32 · 5383 阅读 · 1 评论 -
ceph提示: non-power-of-two pg_num解决办法
问题: [root@cluster]# ceph -s cluster: id: e7a3be6e-2e30-49fd-99c0-dbb304ae1a82 health: HEALTH_WARN 1 pool(s) have non-power-of-two pg_num 解决办法 增加OSD , ceph 空间资源不足,所致! ...原创 2020-07-22 15:09:18 · 2001 阅读 · 2 评论 -
ceph的weight和reweight的理解
通过ceph osd tree 可以查看到 weight 和reweight的值 weight的权重和磁盘的容量有关系: 一般定义1TB为1.0 ;500G为0.5 可以通过如下的命令修改: #ceph osd_id crush reweight 在这种状态下 如果直接stop掉 某个节点; 会影响到pg的数据重新分配 ;所以pg的分配取决于weigh值; reweigh...原创 2020-07-17 10:13:31 · 4585 阅读 · 0 评论 -
在K8S平台部署Spring cloud微服务项目
一: 传统部署和K8S部署的区别 传统部署-整体框架 K8S部署-整体框架 二: 安装Maria db并导入数据库 安装Maria db # yum install mariadb-server mariadb -y # systemctl start mariadb # systemctl enable mariadb # ps -ef|grep mariadb mysql.原创 2020-06-03 14:26:24 · 1461 阅读 · 1 评论 -
ceph 容灾实践
rbd mirror就是集群间数据块设备之间的备份。这个功能可以实现集群级别的备份,跨地理位置的数据备份,实现数据安全的容灾一: 架构 二:灾备实践 SETUP SITE1 SITE2 1:ceph.conf 配置 分别在两Site服务器上的/etc/ceph/ceph.conf加入字段rbd_default_features=125 RBD默...原创 2020-05-28 12:45:48 · 1070 阅读 · 2 评论 -
ImportError: No module named pkg_resources 解决办法
在执行ceph-deploy 出现如下的错误: # ceph-deploy new Traceback (most recent call last): File "/usr/bin/ceph-deploy", line 18, in <module> from ceph_deploy.cli import main File "/usr/lib/python2.7/site-packages/ceph_deploy/cli.py", line 1,...原创 2020-05-27 14:39:44 · 3213 阅读 · 0 评论 -
ceph radosgw-admin的操作
列出bucket # # s3cmd ls 2020-03-25 01:46 s3://2020-3-25 2020-05-20 06:18 s3://20200520 2020-03-24 09:56 s3://test1 2020-01-20 06:38 s3://test # # radosgw-admin bucket list [ "2020-3-25", "tes...原创 2020-05-26 16:03:12 · 7887 阅读 · 2 评论 -
ceph 数据均衡调整
当CEPH 数据不一致时,需要对ceph pg的数据进行平衡1:检查数据分布是否均衡 #查看osd使用情况 # # ceph osd df tree #查看osd_num,PGS, %USE # ceph osd df tree | awk '/osd\./{print $NF" "$(NF-1)" "$(NF-3) }' osd.0 up 0.92 osd.3 up 1.02 osd.1 up 0.90 osd.4.原创 2020-05-26 15:26:54 · 2054 阅读 · 0 评论 -
kubernetes 数据持久化 使用ceph存储-cephfs
PersistentVolume持久化卷(即PV)是Kubernetes对存储的抽象,PV可以是网络存储,不属于任何Node,但可以在每个Node上访问。PV有以下三种访问模式(Access Mode):ReadWriteOnce:只可被一个Node挂载,这个Node对PV拥有读写权限 ReadOnlyMany: 可以被多个Node挂载,这些Node对PV只有只读权限 ReadWriteMany: 可以被多个Node挂载,这些Node对PV拥有读写权限我们之前使用Ceph RBD作为Kuberne原创 2020-05-25 17:27:42 · 1060 阅读 · 0 评论 -
kubernetes 数据持久化 使用ceph存储-RBD
一: PV、PVC概述PersistentVolume(PV)是集群中已由管理员配置的一段网络存储。集群中的资源就像一个节点是一个集群资源。 PV是诸如卷之类的卷插件,但是具有独立于使用PV的任何单个pod的生命周期。 该API对象包含存储的实现细节,即NFS,iSCSI或云提供商特定的存储系统。 PersistentVolumeClaim(PVC)是用户存储的请求 。 可以请求特定的大小和访问模式。虽然PersistentVolumeClaims允许用户使用抽象存储资源,但是常见的是,用.原创 2020-05-22 10:11:17 · 685 阅读 · 0 评论 -
使用prometheus+grafana监控ceph
下载Prometheus安装包,下载地址 https://prometheus.io/download/ ]# wget https://github.com/prometheus/prometheus/releases/download/v2.18.1/prometheus-2.18.1.linux-amd64.tar.gz 解压压缩包 # tar -zvxf prometheus-2.18.1.li...原创 2020-05-21 13:35:32 · 436 阅读 · 0 评论 -
ceph dashboard rgw管理功能的开启
默认object Gateway 功勇是没有开启 2、创建rgw实例 # ceph-deploy rgw create node-10 Dashboard中启用RGW 创建rgw用户 # radosgw-admin user create --uid=rgw --display-name=rgw --system { "user_id": "rgw", "display_name": "rgw", "email": "",...原创 2020-05-20 14:44:21 · 2870 阅读 · 0 评论 -
ceph fs MDS多主部署
配置主主模式当cephfs的性能出现在MDS上时,就应该配置多个活动的MDS。通常是多个客户机应用程序并行的执行大量元数据操作,并且它们分别有自己单独的工作目录。这种情况下很适合使用多主MDS模式。 配置 MDS 多主 [root@node-10 cephfs]# ceph fs set cephfs max_mds 2 [root@node-10 cephfs]# [root@node-10 cephfs]# ceph mds stat cep原创 2020-05-20 11:23:22 · 960 阅读 · 0 评论 -
Ceph fs MDS 状态报错的解决办法
错误状态信息 [root@node-10 /]# ceph fs status Error EINVAL: Traceback (most recent call last): File "/usr/share/ceph/mgr/mgr_module.py", line 974, in _handle_command return self.handle_command(inbuf, cmd) File "/usr/share/...原创 2020-05-20 10:16:29 · 3376 阅读 · 0 评论 -
ceph osd down 的处理办法及新增加OSD
1: OSD 状态 有二个OSD down [root@node-11 ~]# [root@node-11 ~]# [root@node-11 ~]# ceph osd tree ID CLASS WEIGHT TYPE NAME STATUS REWEIGHT PRI-AFF -10 0 IDC rack01 ...原创 2020-05-19 17:31:21 · 4084 阅读 · 1 评论 -
概述Ceph FileStore与 BlueStore二种逻辑架构的对比
ceph后端支持多种存储引擎,以插件化的形式来进行管理使用,目前支持filestore,kvstore,memstore以及bluestore,默认使用的是filestore,但是目前bluestore也可以上生产。一:Filestore 1.1: Filestore存在的问题是 • 在写数据前需要先写journal,会有一倍的写放大; • 若是另外配备SSD盘给journal使用又增加额外的成本; filestore一开始只是对于SATA/SAS这一类机械盘进行..原创 2020-05-19 09:36:24 · 936 阅读 · 0 评论 -
ceph RBD 应用总结
CEPH RBD 使用场景: • 云平台(OpenStack做为云的存储后端提供镜像存储) • K8s容器 • map成块设备直接使用 • ISCIS,安装Ceph客户端 RBD常用命令: rbd create 创建块设备映像 rbd ls 列出 rbd 存储池中的块设备 rbd info 看块设备信息 rbd diff 可以统计 rbd 使用量 rbd map 映射块设备 rb...原创 2020-05-18 17:39:17 · 360 阅读 · 0 评论 -
ceph RGW 部署测试
一: RGW部署 [root@node-10 cluster]# ceph-deploy install --rgw node-10 ----------------------- [node-10][DEBUG ] Package matching 2:ceph-radosgw-13.2.8-0.el7.x86_64 already installed. Checking for update. [node-10][DEBUG ] Nothing to do...原创 2020-05-18 17:06:29 · 602 阅读 · 0 评论 -
ceph 对象功能部署
S3介绍 S3是亚马逊AWS提供的简单存储服务(可以理解为有公网域名的大容量高可用存储) S3配合CloudFront服务可作为CDN使用,它提供多节点全球发布 在使用过程中,一般是通过web页面上传内容到S3 Bucket(Bucket桶,S3里存内容的容器) 这个过程缓慢繁琐容易中断 推荐S3cmd这个软件用命令行实现 如下就是这个命令行工具的简明手册 S3cmd安装 安装s3cmd并设...原创 2020-05-14 10:53:56 · 975 阅读 · 0 评论 -
ceph fs部署
ceph fs部署[root@ceph1 cluster]# ceph osd pool create fs_data 128pool 'fs_data' created[root@ceph1 cluster]# ceph osd pool create fs_metadata 128pool 'fs_metadata' created[root@ceph1 cluster]#[root@ceph1 cluster]# ceph fs new cephfs fs_metadata..原创 2020-05-14 09:42:29 · 478 阅读 · 0 评论