- 博客(34)
- 收藏
- 关注
原创 Prometheus + alermanager + webhook-dingtalk 告警
webhook-dingtalk Prometheus alermanager
2024-07-12 17:31:43
388
原创 unable to add a new control plane instance to a cluster that doesn‘t have a stable controlPlaneEndpo
unable to add a new control plane instance to a cluster that doesn't have a stable controlPlaneEndpoint addressPlease ensure that:* The cluster has a stable controlPlaneEndpoint address.* The certificates that must be shared among control plane instanc
2024-06-28 16:56:40
148
原创 nginx: [warn] 20240 worker_connections exceed open file resource limit: 1024
nginx 警告
2024-06-28 15:31:22
160
原创 E: Could not get lock /var/lib/dpkg/lock-frontend - open (11: Resource temporarily unavailable)E: U
Ubuntu使用apt安装软件报错
2024-06-26 09:27:24
210
原创 ansible 加载远程用户的环境变量问题
当你使用ansible 一键部署 jdk、zookeeper、kafka 等需要加载环境变量的时候会遇到source 加载环境变量无法成功,ansible显示执行成功的,确实命令执行成功了,但是不生效。因为 non-login 模式登录是无法加载 /etc/profile.d/ 这个目录的文件的,最高加载到 /etc/bashrc 这个文件级别。这些环境变量使用ansible是可以调用的,但在机器本地还是需要手动加载一下 /etc/profiled.d/ 目录下对应的配置文件后才可以使用。
2024-04-14 13:58:26
477
2
原创 kafka topic 的增删改查
管理 topic 使用的是,kafka 内置的一个脚本 kafka-topics.sh ,这个脚本默认在 kafka 安装目录的 bin 目录下。
2024-04-13 17:02:22
316
2
原创 kafka为何会造成数据丢失
图中可以看到,191节点在写入到数据E 的时候发生故障,192、193节点还没来得及同步,此时 192 当选新的 leader,而生产者还在持续写入数据,因为数据E 已经写入到 91 节点,则生产者不会再将数据 E 写入到 192 节点,会直接从数据 G 开始持续写入,H、I,这时 数据 E 就已经丢失了。(3)当 leader 挂掉时,所有的follower副本中 LEO 大的优先成为 leader,剩余的副本跟随新的leader,如图中情况,也就是 kafka192 节点成为新的 leader。
2024-04-12 22:13:58
185
原创 kafka术语
生产数据的终端,只要是往 kafka 集群中写数据的都是生产者,简称 P消费 kafka 集群中的数据,只要是去拉取或读取kafka集群中数据的都为消费者,简称 C注意:无论是 Producer 还是 Consumer 都是 kafka 的客户端,他们状态是否正常都不影响 kafka 本身的工作。
2024-04-12 21:17:32
803
原创 zookeeper 堆内存调优
如上图,查看到当前节点堆内存为 128MB ,自己搭的测试环境则可以随便设置;如果是zookeeper集群的话,直接将这个文件同步到其他集群即可。
2024-04-10 22:43:40
465
1
原创 使用 zkWeb 管理zookeeper集群
如果使用 zkcli 管理zookeeper 太繁琐,可以使用 zkWeb 软件使用图形化界面来管理。
2024-04-10 22:23:03
255
1
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人