![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
ceph
文章平均质量分 93
林凡修
哈哈哈哈
展开
-
k8s使用ceph存储
另外keyring文件也可以保存在secret中,在pod中通过secret来引用keyring文件。k8s集群中的pod使用rbd时可以直接通过pod的volume进行挂载,也可以以pv形式挂载使用。ceph添加授权,需要创建两个用户,一个挂载rbd时使用,另一个挂载cephfs时使用。创建pod到集群中,等待pod就绪后可以进入pod验证。将pod创建到集群中,等待pod就绪后进入pod验证。将pod创建到集群中,等待pod就绪后进入pod验证。将pod创建到集群中,等待pod就绪后进入pod验证。原创 2023-06-22 21:00:35 · 2018 阅读 · 2 评论 -
ceph集群监控
Ceph Dashboard是一个内置的ceph管理和监控的web应用程序,通过ceph dashboard可以监控和管理ceph集群中的资源。ceph dashboard是作为ceph-mgr中的一个模块实现的。ceph mgr内部包含了prometheus模块,可以通过每个节点的9283端口向prometheus提供监控数据。ceph dashboard启用ssl时可以通过ceph命令快速签发证书,也可以使用自签证书。访问mgr节点,验证metrics数据。在mgr节点验证端口监听。原创 2023-06-03 20:31:49 · 955 阅读 · 0 评论 -
Ceph crush运行图
Monitor map:监视器运行图osd map:osd运行图PG map:PG运行图Crush map:crush运行图Mds map:mds运行图crush map是ceph集群物理拓扑的抽象,CRUSH算法通过crush map中集群拓扑结构、副本策略以及故障域等信息,来选择存放数据的osd。以我当前集群为例,crush map描述的集群物理拓扑结构层级如下图,包括3个层级,分别是root、host和osd:导出当前集群的crush map。原创 2023-05-21 16:31:32 · 1043 阅读 · 1 评论 -
Ceph对象存储使用
对象存储是无层次结构的数据存储方法,一般用于云计算环境。数据作为单独的对象进行存储数据并不存放在目录层次结构中,而是存在于平面地址结构的同一级别空间中应用通过唯一的地址来访问单个数据对象每个对象可以包含有助于数据检索的元数据对象是对象存储系统中数据存储的基本单位,每个对象是数据和数据属性集的综合体。数据属性可以根据应用需求而设置,包括数据分布、服务质量等。每个对象自我维护其属性,减轻了存储系统的管理任务对象的大小可以不同,甚至可以包括整个数据结构,比如:文件、数据库表项等。原创 2023-05-07 17:18:38 · 1524 阅读 · 0 评论 -
CephFs使用
CephFS即ceph filesystem,可以实现文件系统共享功能(POSIX标准),客户端通过ceph协议挂载并使用CephFS存储数据。CephFs需要用到MDS(metadata-service)服务,其守护进程为ceph-mds,ceph-mds进程管理CephFS上存储的文件相关的元数据,并协调对ceph集群的访问。在linux系统使用ls等操作查看某个目录下的文件时,会由保存在磁盘上的分区表记录文件的名称、创建日期、大小、inode及存储位置等元数据信息。原创 2023-04-08 15:44:03 · 1421 阅读 · 0 评论 -
rbd块存储使用
rbd(Rados Block Device) ,是构建在rados集群之上的为客户端提供块设备的存储中间层,rbd可以为kvm、vmware等虚拟化技术和云平台(例如openstack、k8s)提供高性能和无限可扩展的存储后端。rbd块设备类似磁盘可以被挂载,rbd基于存储集群中多个osd进行条带化,支持存储空间简配和动态扩容等特性,并能够借助于rados存储集群实现快照、多副本和一致性。原创 2023-03-19 18:26:04 · 1762 阅读 · 0 评论 -
ceph集群维护常用操作
在某一个osd故障后,需要将故障的osd更换为可用的osd,并将PG所对应的主osd上的数据同步到新的osd上,例如刚开始pg对应osd1、osd2和osd3,当osd3故障后需要用osd4替换osd3,那么osd1、osd2、osd3就是上行集,替换后osd1、osd2、osd4就是活动集,osd替换完成后活动集最终要替换上行集,即活动集和上行集要保持一致。就绪状态,Active表示主osd和备osd均处于正常状态,此时PG可以处理来自客户端的读写请求,正常的PG默认就是Active+Clean状态。原创 2023-03-14 21:16:35 · 1714 阅读 · 8 评论 -
cephx认证和授权
认证过程中,mon节点会返回用于身份认证的数据结构,其中包括获取ceph服务时用到的session-key,session-key通过客户端密钥进行加密传输,而密钥是客户端提前配置好的,保存在客户端的keyring文件中。所有对于ceph的访问请求都要经过cephx认证,ceph默认已经开启了cephx认证,也可以在mon节点关闭cephx认证,但是关闭认证后任何访问都将被允许,因此无法保证数据的安全性。ceph客户端提交的数据最终都存储在pool中,因此ceph用户需要拥有存储池的访问权限才能读写数据。原创 2023-03-12 21:04:17 · 572 阅读 · 0 评论 -
Ceph介绍
常用的存储可以分为DAS、NAS和SAN三类DAS:直接连接存储,是指通过SCSI接口或FC接口直接连接到一台计算机上,常见的就是服务器的硬盘NAS:网络附加存储,是指将存储设备通过标准的网络拓扑结构(比如以太网),连接到计算机上使用。例如NFS和Samba文件共享系统SAN:存储区域网络,目前SAN存储有两种,一是基于光纤通道的FC SAN,二是基于以太网的IP SAN,也就是iscsi常见的存储类型有文件存储、块存储和对象存储。原创 2023-03-07 17:36:01 · 1086 阅读 · 0 评论 -
ceph-ansible部署Ceph Pacific版本集群
安装Ceph Pacific需要使用ceph-asible stable-6.0分支,同时ceph-asible stable-6.0对ansible的版本要求是2.10往上。总共9个节点,3个mon节点,6个osd节点,每个osd节点3块50G的osd磁盘。等待playbook执行完成后,查看集群状态,可以看到新的mon节点已经添加进去。修改hosts文件,将新的mon节点,加入到对应的组中。修改hosts文件,将新的mon节点,加入到对应的组中。再mon-01节点执行ceph -s查看集群状态。原创 2023-03-05 16:33:04 · 1292 阅读 · 0 评论