自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

江晓龙的博客

欢迎来到我的技术博客:https://jiangxl.blog.csdn.net

  • 博客(842)
  • 资源 (82)
  • 问答 (1)
  • 收藏
  • 关注

原创 《MySQL DBA封神打怪之路》专栏学习大纲

jiangxl~🔥个人简介🔥CSDN博客专家、51CTO专家博主、阿里云博客专家、华为云享专家、DevOps运维领域优质创作者、2021年度博客之星运维与安全领域TOP1,某厂高级运维工程师擅长Linux系统运维、开源监控软件维护、Kubernetes容器技术、CI/CD持续集成、自动化运维、大规模互联网WEB集群架构、开源软件部署维护等领域。🎉博客领域🎉云原生、云计算、数据库、DevOps运维开发。⭐️获得的奖项⭐️《Kubernetes集群方方面面进阶之路》《阿里云入门到精通实战》...........

2022-07-17 11:32:06 16497 451

原创 Kubernetes集群方方面面实战教程学习线路指南

Kubernetes集群方方面面实战教程学习线路指南学习路线指南欢迎大家来到jiangxl~的《Kubernetes集群方方面面进阶之路》专栏,本文给大家详细列出Kubernetes集群方方面面每一章节文章指南,大家可以根据自己的需求阅读想要学习的文章。本专栏涵盖Kubernetes集群方方面面的技术总结,包括高可用集群、Pod资源、Pod资源控制器、配置存储、数据存储、安全框架等各方面深入解析、Helm包管理机制、Istio网格服务,以及基于Kubernetes集群的CI/CD流程设计及实现,总文章

2021-10-31 11:05:35 78290 219

原创 二进制方式搭建Kubernetes高可用集群(超丰富的组件概念理论总结)

二进制方式部署Kubernetes高可用集群文章目录二进制方式部署Kubernetes高可用集群1.环境准备1.1.Kubernetes高可用集群部署方式1.2.Kubernetes集群弃用docker容器1.3.Kubernetes集群所需的证书1.4.环境准备1.5.安装cfssl证书生成工具2.操作系统初始化配置3.部署Etcd集群3.1.使用cfssl证书工具生成etcd证书3.2.部署etcd集群4.部署Docker服务4.1.安装docker4.2.为docker创建systemctl启动脚本

2021-09-23 10:04:38 73727 157

原创 基于Kubernetes集群的Jenkins CI/CD版本上线流程部署

基于kubernetes平台的CICD持续集成文章目录基于kubernetes平台的CICD持续集成1.基于k8s集群的Jenkins持续集成2.将Jenkins部署在k8s集群2.1.编写Jenkins namespace文件2.2.编写Jenkins rbac授权文件2.3.编写Jenkins statefulset资源文件2.4.编写Jenkins StorageClass资源文件2.5.编写Jenkins svc资源文件2.6.准备Jenkins镜像并推送至harbor2.7.创建所有资源并查看资

2021-08-23 09:54:12 65560 70

原创 部署ELK+Kafka+Filebeat日志收集分析系统

ELK+Kafka+Filebeat日志系统文章目录ELK+Kafka+Filebeat日志系统1.环境规划2.部署elasticsearch集群2.1.配置es-1节点2.2.配置es-2节点2.3.配置es-3节点2.4.使用es-head插件查看集群状态3.部署kibana4.部署zookeeper4.1.配置zookeeper-1节点4.2.配置zookeeper-2节点4.3.配置zookeeper-3节点4.4.启动所有节点5.部署kafka5.1.配置kafka-1节点5.2.配置kafka

2021-08-16 15:16:05 28078 29

原创 Prometheus+Grafana全方位监控Kubernetes集群资源利用率

Prometheus+Grafana全方位监控Kubernetes集群文章目录Prometheus+Grafana全方位监控Kubernetes集群1.k8s监控指标2.k8s基础环境准备2.1.环境准备2.2.部署nfs作为prometheus存储2.3.获取prometheus yaml文件2.4.创建命名空间prometheus3.在k8s中部署prometheus3.1.prometheus-yaml准备3.2.创建rbac资源3.3.创建configmap资源3.4.创建statefulset资

2021-01-06 17:03:20 18715 18

原创 Prometheus+Grafana监控系统配合Cadvisor监控Docker容器

prometheus使用cadvisor监控docker容器1.cadvisor概述一般公司会有很多docker主机,那么就需要对docker进行监控了,docker监控可以采用docker stats配合shell命令来取值做监控,但是无法传递给prometheus进行采集,zabbix监控docker又比较麻烦,因此就有了谷歌的cadvisorcadvisor不仅可以搜集一台机器上的所有运行的容器信息,还提供基础查询界面的http接口,方便prometheus进行数据抓取cadvisor可以对节

2020-12-24 14:43:43 17414 11

原创 利用zabbix api批量添加数百台监控主机

利用zabbix api批量添加监控主机在公司规模很庞大的时候,每次都手动添加监控主机将会很麻烦,我们可以利用zabbix的api去批量添加监控主机本次我们将实现用一台主机虚拟出100台主机,并通过api的方式自动添加监控主机有了本次方法,无需要了解python,也不需要写python脚本1.获取批量添加主机的api{ "jsonrpc": "2.0", "method": "host.create", "params": { "host": "192.16

2020-12-18 16:33:32 2742 9

原创 第34讲:KVM虚拟化与Ceph集群的RBD块存储对接

Ceph与KVM对接的官方文档:https://docs.ceph.com/en/quincy/rbd/rbd-integrations/搭建KVM虚拟化平台的前提:机器必须支持硬件虚拟机,Intel VT,ADM-v技术,物理机器确保宿主机开启VT等硬件虚拟化,虚拟机开启嵌套功能。部署KVM之前,首先查看处理器有没有开启虚拟化功能,如下图所示,能搜索出vmx就表示可以开始部署KVM了。VMware虚拟机开启虚拟化。1)安装虚拟化平台2)查看虚拟机列表执行以下命令不报错就说明KVM搭建完成了。2.在KV

2024-07-23 09:27:55 722 9

原创 第33讲:K8S集群StorageClass使用Ceph CSI供应商与Cephfs文件系统集成

K8S StorageClass对接Ceph集群的Cephfs文件系统有两种方法,一种是cephfs-provisioner另一种是cephfs-csi。Cephfs-csi是第三方的客户端程序,部署简单,只需要拉取下来镜像就可以部署成功,而cephfs-provisioner则有很多的故障,相对于对接RBD的存储时,rbd-provisioner非常简单,rbd-csi则有很多故障。

2024-07-09 09:23:55 1299 9

原创 第32讲:K8S集群与Cephfs文件系统集成

K8S集群连接Cephfs文件系统时,默认情况下是连接的Ceph集群中默认的Cephfs文件系统,也就是数据资源池为cephfs_data和元数据资源池cephfs_metadata的Cephfs文件系统,并且K8S官方的对接Cephfs的文档中,如果Ceph集群中有多个Cephfs文件系统时,中并没有说明使用什么参数可以指定使用某一个的Cephfs文件文件系统。好在功夫不负有心人,再查阅了大量的资料后,终于找到了可以让K8S各种存储卷指定使用某一个Cephfs文件系统的方法。

2024-07-01 09:21:58 1400 12

原创 第31讲:K8S StorageClass使用rbd-provisioner驱动与Ceph RBD块存储集成

rbd-provisioner和csi-provisioner都是StorageClass对接Ceph集群块存储的驱动客户端,CSI客户端部署相对复杂,并且镜像拉取很费力,RBD客户端部署非常简单,相当于开箱即用。无论使用哪种类型的驱动都可以,不过使用RBD客户端时,会遇到一个大坑,如下所示。

2024-06-27 09:32:51 1983 19

原创 第30讲:Ceph集群RBD块存储通过CSI客户端与K8S StorageClass集成

StorageClass与Ceph RBD集成的官方文档:https://kubernetes.io/zh/docs/concepts/storage/storage-classes/#rbdCeph对于StorageClass的官方文档:https://docs.ceph.com/en/pacific/rbd/rbd-kubernetes/

2024-06-24 09:28:12 1665 23

原创 第29讲:Ceph集群使用RBD块存储设备与K8S的PV集成

RBD(Reliable Block Device)组件是一种构建在RADOS集群之上为客户端提供块设备存储接口接口的中间层,提供的块存储服务可以形成一个裸磁盘,提供格式化、映射的功能,挂载到服务器中。这类的客户端包括虚拟化KVM和云计算OpenStack。RBD组件支持存储空间的动态扩容,也可以借助RADOS实现快照、副本和一致性。通过内核模块rbd.ko将块存储映射成本地的一块磁盘,例如/dev/vdbx等等,可以进行格式化和分区。通过librbd接口,KVM虚拟化就是使用这种接口。

2024-06-19 09:16:53 1639 19

原创 第28讲:Ceph集群使用RBD块存储与K8S Volumes集成

VolumeVolume持久化有三种类型分别是EmptyDir、HostPath、NFS。Volume是K8S集群中较为简单的数据持久化方案,无需创建其他资源,直接在Pod资源编排文件中声明Volume卷,即可挂载使用。PV、PVCPV和PVC是一种高级类型的持久化存储费方案,PV负责与底层存储系统进行对接,PVC从PV中分配一定的资源,最后由PVC挂载到Pod中。

2024-06-17 09:07:30 3063 18

原创 第27讲:Ceph存储集群高可用性与性能压测实战

当停掉ceph-node-2节点中的Monitor组件后,集群状态就开始显示WARN了,提示集群中有一个Monitor组件已经宕掉,现在可用的Monitor组件还剩下ceph-node-1和ceph-node-3等节点,并且挂掉的ceph-node-2节点已经不再仲裁节点列表中了,当前在仲裁列表中的节点只剩下了ceph-node-1和ceph-node-3。2)for循环写入数据的同时,停掉ceph-node-2节点的MDS组件,观察MDS主从切换一瞬间,对于数据写入的影响。

2024-06-13 10:37:11 1133 14

原创 第26讲:Ceph集群OSD扩缩容中Reblanceing数据重分布

在实际生产环境中,如果PG中的数据量非常大,在触发Reblanceing机制时,会对集群的性能有所影响,如果一次性增加很多个OSD节点,那么就意味着会有大量的PG被移动,此时就会对集群的性能产生巨大的影响,因此建议,每次在扩容OSD时,只扩容一个OSD。在扩容前集群有两个OSD节点,这两个OSD中分布着十个PG,扩容后,集群中有三个OSD节点,此时就会触发Reblanceing数据重分布机制,将原有的两个OSD中的一部分PG移动到第三个OSD中,使的每个OSD中的PG数量均衡。

2024-06-11 09:13:53 1639 20

原创 第25讲:Ceph集群OSD存储扩容方案及实践指南

ceph-node-1节点已经有3个OSD,一个硬盘就对应一个OSD节点。这条命令其实就是执行了一个dd命令,将硬盘的数据清空。

2024-06-05 09:27:14 662 12

原创 第24讲:Ceph集群RGW对象存储高可用集群部署与测试

停掉ceph-node-1节点的Haproxy服务后,Keepalived随之就检测到Haproxy的服务异常了,并且自动将优先级下降20,原本主节点keepalived的优先级为100,备用节点的keepalived优先级的为90,主节点下降20后,优先级变成了80,优先级比备用节点低,此时备用节点就认为自己是主节点,从而抢占了主节点的VIP地址,并将自己升级为了主节点,此时的主节点也知道优先级比它低,故而放弃主节点和VIP地址。1)停掉ceph-node-1节点的Haproxy服务。

2024-06-03 09:13:07 1531 26

原创 第23讲:Ceph集群RBD块存储的离线备份与还原

在前面,是直接将整个块设备进行备份和还原的,长期下来,数据量会很大,磁盘的增长速度也会很快,RBD块存储的导入导出功能还提供了增量机制,可以通过增量导入导出,只将变化的数据进行备份导出,还原时,需要先还原一个全量的备份,然后根据增量的周期,一个一个的还原到集群中。在前面是通过快照的形式备份RBD块存储设备的,但是快照只能在集群内部进行使用,当整个集群出现故障时,快照还原将无法使用,另外如果想将数据迁移到另一个Ceph集群,快照也是无法实现的,因此就有了RBD存储的离线备份。

2024-05-29 10:36:38 1194 22

原创 第22讲:RBD块存储COW克隆解除父子镜像的依赖关系

在前面使用copy-on-write机制基于快照做出来的链接克隆,与快照依赖性很强,如果快照损坏或者丢失,那么克隆的镜像将无法使用,使用这个镜像创建的虚拟机也会就此瘫痪,虽然可以对快照进行保护,但是也不可能做到百分百的保证,一旦快照丢失,产生的影响面将会非常广。在RBD块存储中提供flatten机制,可以解除克隆的镜像与快照的父子关系,相当于将克隆的镜像独立出来,解除父子关系后,相当于是完整克隆了,会占用更多的空间。

2024-05-27 09:02:26 444 8

原创 Ceph集群RBD块存储:快照与Copy-on-Write克隆的基本操作

链接克隆是基于父镜像(快照)中快速创建出来的一个链接镜像(写时复制镜像),链接镜像读取数据是从父镜像中进行的,写数据是在链接镜像中进行的,通过链接克隆可以快速的克隆出很多个镜像,并行这些镜像都可以直接使用。copy-on-write机制其实就是将一个快照快速克隆成了一个写时复制镜像,快照是只读的,写数据都是在克隆的镜像里进行的,使用这个克隆的镜像就可以快速创建出虚拟机。父镜像都是只读类型的,将块设备进行快照的创建和保护快照,就可以创建出任意数量的写时复制克隆,也就是链接镜像。尝试删除快照,发现无法删除。

2024-05-24 10:35:25 1019 9

原创 第20讲:Ceph集群中RBD块存储的回收站机制与快照备份还原详解

快照是在特定的时间点对数据进行一次备份,就相当于照相机与照片的概念,拍照也是在特定的时间点,拍摄下来这个时间的事务,而快照也是在某个时间点,对数据的状态进行保留,当数据丢失时,可以通过这个快照来还原某一时刻的数据。RBD块存储的回收站和我们理解的回收站是一样的理念,当块存储中的数据被删除后,提供一个临时的回收站,先将数据移动到这个回收站里,回收站也有一定的周期策略,当超过回收站数据保留的周期后,数据才会被彻底删除。查看回收站中的数据时需要指定数据所在资源池名称,相当于是在这个资源池下创建的回收站。

2024-05-21 10:09:38 921 13

原创 第19讲:Ceph集群CrushMap规则定制与调优:从基础到高级应用

现在集群中有8个OSD,其中四个OSD是ssd的磁盘,另外四个OSD是hdd的磁盘,接下来我们会定义两套CrushMap规则,根据数据的重要性分别应用不同的CrushMap规则。规则名称:ssd_data该CrushMap规则会关联各个Ceph节点上类型是ssd磁盘的OSD,OSD的磁盘类型可以在Class类中定义,该条CrushMap规则会与ssd_rule角色进行关联,将数据重要性较高的Pool资源池应用ssd_rule这个角色,就可以将数据只落在ssd类型的OSD中。

2024-05-10 10:36:38 1097 21

原创 第18讲:Ceph集群CrushMap的核心概念、默认规则与完整定义

CrushMap官方文档:https://docs.ceph.com/en/pacific/rados/operations/crush-map/Ceph集群数据写入流程,最终是通过Crush算法将数据落入到OSD中,使用Crush算法来存储和管理数据,相当于智能的数据分发机制。Ceph可以通过Crush算法准确的计算出数据应该存储在哪里,也可以计算出从哪里读取数据。Crush算法就是依据配置的Crush Map规则策略,将数据路由到对应的存储点。如下图所示,一份数据被拆成多个Object对象,这些Obje

2024-05-06 09:55:14 644 9

原创 第⑰讲:Ceph集群各组件的配置参数调整

Ceph集群中各个组件的默认配置参数并没有配置在配置文件中,因为Ceph部署方式很特别,ceph.conf文件是以ceph-deploy工具推送到各个服务器的,Ceph集群各个组件的配置文件以sock方式存放在/var/run/ceph这个路径中。永久修改配置参数,就是将要调整的配置参数写入到ceph.conf文件中,然后使用ceph-deploy工具推送到集群各个节点,最后重启所有节点的该组件即可。命令指定组件的sock文件,去查询、修改某个组件的配置参数。以mon组件为例演示查看和修改配置参数的方法。

2024-04-26 09:41:39 819 9

原创 第⑯讲:Ceph集群Pool资源池管理以及PG的数据分布的核心技术要点

如果一个Pool资源池中的PG数量很多,就意味着会通过CRUSH算法将Object数据分散写入到更多的OSD中,数据分散存储在OSD的数量越多,对于数据的安全性就越高,相反,如果Pool中的PG数量过少,那么通过CRUSH算法将数据分散存储到OSD的数量就越少,数据的丢失概率就会很高。在使用公式计算PG的数量时,建议使用OSD*200,可以方便后期的数据量的扩展,随着数据量的增长,PG的数量也需要增长,如果一开始设置的数量很多,再后期就不需要扩容了。例子:集群有200个OSD,Pool资源池的副本数为3。

2024-04-23 09:25:33 1860 21

原创 第⑮讲:Ceph集群管理与监控操作指南

命令可以查看集群中每个OSD的资源利用率,包括使用率和可用空间的大小,以及OSD的状态,通过此命令可以观察OSD的空间剩余,如果OSD的空间不足,也会导致集群出现问题,当OSD空间不足时,可以扩容OSD或者删除上层文件来解决。命令可以看到集群的资源利用率,会显示出Ceph集群的总空间容量、剩余容量、使用的容量,还会显示出集群中Pool资源池的利用率。通过集群状态信息可以看到集群的健康状态、各个组件的运行状态以及数据使用情况。类似于tail命令,持续变化刷新集群的状态信息。

2024-04-17 09:29:57 4188 19

原创 第⑭讲:Ceph集群管理:守护进程管理、日志管理和端口号配置

官方操作文档:https://docs.ceph.com/en/pacific/rados/operations/operating/带@符号的都是可以对一个主机或者某一个组件进行管理操作,以target结尾的都是全局性质的。快速记忆:带target的表示管理所有该组件的进行,带@的表示管理单一组件。这几种方式中,循序渐进,越来越细微划分,从整体到分组到单体到个体。Ceph所有组件的守护进程:ceph.target。Ceph组件守护进程管理是通过。

2024-04-15 09:50:56 7571 31

原创 第⑬讲:OSD硬盘故障处理实战:从诊断到恢复的全流程指南

如果硬盘出现了坏道的情况,就会影响整个集群的性能,从而拖垮整个Ceph集群,遇到这种情况执行上述命令不会显示down的状态,因为磁盘出现了坏道,磁盘还是可以用的,只不过性能有所下降。OSD从集群中踢出时,也会触发Reblanceing数据重分布机制,将OSD中的数据迁移到其他的OSD中,当OSD的数据全部同步完成后,再将OSD彻底移除。将故障的OSD硬盘修复好之后,将该盘的LVM卷删除,然后通过添加OSD的方式,将该OSD重新加入集群即可。原来集群中有8个OSD,选择已经变成7个OSD了,删除成功。

2024-04-11 09:27:15 1023 17

原创 第⑫讲:Ceph集群OSD扩缩容中Reblanceing数据的重分布

在实际生产环境中,如果PG中的数据量非常大,在触发Reblanceing机制时,会对集群的性能有所影响,如果一次性增加很多个OSD节点,那么就意味着会有大量的PG被移动,此时就会对集群的性能产生巨大的影响,因此建议,每次在扩容OSD时,只扩容一个OSD。在扩容前集群有两个OSD节点,这两个OSD中分布着十个PG,扩容后,集群中有三个OSD节点,此时就会触发Reblanceing数据重分布机制,将原有的两个OSD中的一部分PG移动到第三个OSD中,使的每个OSD中的PG数量均衡。

2024-04-09 09:40:04 1150 16

原创 第⑪讲:Ceph集群OSD扩容方案及实现横向和纵向扩容

ceph-node-1节点已经有3个OSD,一个硬盘就对应一个OSD节点。这条命令其实就是执行了一个dd命令,将硬盘的数据清空。

2024-04-07 09:36:36 1000 23

原创 第117讲:深入MySQL性能优化:从多个角度提升数据库性能

一般情况下,IO要和CPU参照对比分析,CPU高的情况下,IO也会很高,如果CPU的wait很高,IO很低,那么有可能就是磁盘出问题,如果CPU的sys很高,IO很低,那么可能就是数据库层面出问题,可能是锁,需要进一步的分析和判断。,如果服务器的并发请求量比较大,可以去调高这个值,当然是要在服务器能够承受的压力下,去调整这个参数的值,随着连接数越来越多,MySQL会为每个连接提供缓冲区,就会导致开销越来越多的内存,对于连接数这个值不能随便去调高。

2024-04-03 09:16:04 1716 29

原创 第116讲:使用Mycat-eye管理Mycat数据库服务

Mycat-web(Mycat-eye)是对mycat-server提供监控服务,功能不局限于对mycat-server使用。他通过JDBC连接对Mycat、Mysql监控,监控远程服务器(目前仅限于linux系统)的cpu、内存、网络、磁盘。

2024-04-01 09:43:38 1689 35

原创 第115讲:Mycat核心配置文件各项参数的作用以及概念

在Mycat中核心的配置文件有schema.xml和rule.xml以及server.xml三个,其中schema.xml是用来配置数据库、表、读写分离、分片节点、分片规则等信息,rule.xml主要是用来定义拆分表的规则,server.xml包含了mycat的系统配置信息。在user标签中主要是配置那些用户可以登陆到Mycat,该用户必须在数据库中存在,并且可以配置用户针对逻辑库、逻辑表的一些权限,如果同时对逻辑库或者逻辑表都设置了权限,那么逻辑表的权限大于逻辑库的权限。

2024-03-28 09:22:49 1556 15

原创 第114讲:Mycat实践指南:按照单位为月的日期实现水平分表

如下图所示,设置分表的属性为10天进行一次分表,分表周期是2022-01-01到2022-01-30这个时间范围,每隔10天进行一次分表,那么在这个范围内一共会进行3次分片,注意以时间范围进行分表,分表的次数要与分片的节点数相对应,否则将会分表失败。可以看到1月的数据写入到分片1中,2月的数据写入到了分片2中,3月的数据写入到了分片2中,4月的数据写入到了分片1中。设置了按月分片后,1月的数据写入到分片1,2月的数据写入到分片2,3月的数据写入分片3,4月的数据写入分片1。

2024-03-26 09:07:33 1332 22

原创 第113讲:Mycat实践指南:按照单位为天的日期实现水平分表

如下图所示,设置分表的属性为10天进行一次分表,分表周期是2022-01-01到2022-01-30这个时间范围,每隔10天进行一次分表,那么在这个范围内一共会进行3次分片,注意以时间范围进行分表,分表的次数要与分片的节点数相对应,否则将会分表失败。可以看到1号到15号的数据写入到了分片1中,15-30号的数据写入到了分片2中,31号的数据相当于下一个轮回,写入到分片1。按照日期进行分片,单位为天,根据设置的规则属性,例如10天一分表,每10天就会进行一次分表。

2024-03-22 09:38:54 1473 10

原创 第112讲:Mycat实践指南:字符串Hash算法分片下的水平分表详解

当字段值为word时,首先根据截取的子字符串长度(0:2)截取3位,截取后子字符串为wor,然后通过Hash运算得到一个二进制数,再通过固定Hash,将二进制数与1111111111进行位运算,得到一个十进制数5,拿着这个十进制数5在数组集合中查找,最后查找到5位于0-511之内,0-511属于分片1,此时这条数据就会路由到分片1中存储。在0-511之间数组的结构中,会记录上第一个分片节点的ID0,512-1023之间的数组的结构中,记录第二个分片节点的ID1。

2024-03-20 09:37:38 1074 13

原创 第111讲:Mycat实践指南:固定Hash算法分片下的水平分表详解

例如当字段值为515,经过固定Hash算法运算,将515转换成二进制数,与1023的二进制数进行位运算,最后的出来位运算的结果是十进制数515,515位于512-1023数组之间,此时就会拿导512-1023数组对应的分片ID号,然后将这条数据写入到对应的分片节点中。我们可以将分片策略设置0-255之间划分到分片1,256-512之间划分到分片2,512-1023划分到分片3,当依据字段被固定Hash转换成2进制数并且位运算完后,得到一个十进制数时,根据十进制数所在的分片,将数据写入到对应的分片节点中。

2024-03-18 09:40:51 1056 14

原创 第110讲:Mycat实践指南:指定Hash算法分片下的水平分表详解

应用指定Hash算法分片指的是,由应用自主决定路由到哪一个分片节点,根据分片的字段通过Hash算法计算出分片号,最终将数据写入到特定的分片节点中应用指定Hash算法分片的字段必须是数字类型的内容,否则没有分片的条件。字段值的内容例如是01xxxx,我们在配置分片规则时,就可以取前两个数字,然后根据Hash算法写入到对应的分片中。

2024-03-15 10:07:24 808 18

利用kibana的快照存储库备份es索引.md

利用kibana的快照存储库备份es索引.md

2021-10-29

25ELK终极架构.md

25ELK终极架构.md

2021-10-29

ELK+Kafka+Filebeat日志系统.md

ELK+Kafka+Filebeat日志系统.md

2021-10-29

esdump.md

esdump.md

2021-10-29

部署EFK7.6.0集群收集多个应用日志.md

部署EFK7.6.0集群收集多个应用日志.md

2021-10-29

esdump.docx

esdump.docx

2021-10-29

23logstash读取redis缓存日志.md

23logstash读取redis缓存日志.md

2021-10-29

21filebeat收集容器日志.md

21filebeat收集容器日志.md

2021-10-29

19filebeat使用modules收集nginx日志.md

19filebeat使用modules收集nginx日志.md

2021-10-29

20filebeat使用module收集mysql日志.md

20filebeat使用module收集mysql日志.md

2021-10-29

24优化logstash读取redis缓存日志配置.md

24优化logstash读取redis缓存日志配置.md

2021-10-29

22filebeat收集多个容器日志并按访问类型分类.md

22filebeat收集多个容器日志并按访问类型分类.md

2021-10-29

12filebeat指定es创建索引的名称并在kibana上展示日志数据.md

12filebeat指定es创建索引的名称并在kibana上展示日志数据.md

2021-10-29

11filebeat收集json格式的nginx日志.md

11filebeat收集json格式的nginx日志.md

2021-10-29

14filebeat收集多个域名日志并创建不同索引.md

14filebeat收集多个域名日志并创建不同索引.md

2021-10-29

15filebeat收集错误日志并与普通日志并存.md

15filebeat收集错误日志并与普通日志并存.md

2021-10-29

18kibana图形绘制统计数据.md

18kibana图形绘制统计数据.md

2021-10-29

17filebeat收集java程序多行报错.md

17filebeat收集java程序多行报错.md

2021-10-29

13filebeat自定义索引名称.md

13filebeat自定义索引名称.md

2021-10-29

08es运维工具以及中文分词器使用.md

08es运维工具以及中文分词器使用.md

2021-10-29

metice-server

metice-server

2023-09-20

长达三万字的驾照考试科目一史上最详细的学习笔记

驾照考试科目一史上最详细的学习笔记 长达三万字 共180页

2022-05-06

17grafana导入的监控模板没有任何数据.md

17grafana导入的监控模板没有任何数据

2021-10-29

16prometheus监控pod集的内存CPU使用.md

16prometheus监控pod集的内存CPU使用

2021-10-29

01prometheus理论概述.md

01prometheus理论概述

2021-10-29

10AlertManager监控报警神器.md

10AlertManager监控报警神器

2021-10-29

15关于监控k8s集群经验总结以及监控容器的tcp连接数.md

15关于监控k8s集群经验总结以及监控容器的tcp连接数

2021-10-29

14prometheus全方位监控k8s集群.md

14prometheus全方位监控k8s集群

2021-10-29

02prometheus部署与使用.md

02prometheus部署与使用

2021-10-29

12AlertManager实现企业微信报警.md

12AlertManager实现企业微信报警

2021-10-29

05基于文件的服务发现.md

05基于文件的服务发现

2021-10-29

09prometheus监控mysql服务器.md

09prometheus监控mysql服务器

2021-10-29

11告警规则编写案例.md

11告警规则编写案例

2021-10-29

03prometheus配置文件介绍.md

03prometheus配置文件介绍

2021-10-29

06prometheus使用node_exporter监控Linux主机.md

06prometheus使用node_exporter监控Linux主机

2021-10-29

13k8s集群监控方案.md

13k8s集群监控方案

2021-10-29

04relabel_configs配置介绍及使用.md

04relabel_configs配置介绍及使用

2021-10-29

08prometheus监控docker主机.md

08prometheus监控docker主机

2021-10-29

07prometheus+grafana监控图形展现.md

07prometheus+grafana监控图形展现

2021-10-29

09elasticsearch总结.md

09elasticsearch总结.md

2021-10-29

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除