ELK和 kafka

本次实验k8s中要做日志收集。
具体的流程filebeat => kafka => logstash => es =>Kibana
kafka
1.做了ssl认证配置
2.做了 配置SASL/SCRAM认证
上述kafka做了认证,所以你的filebeat,logstash就必须要做相同的认证。
我用的是ELK8.0的版本
当然你一定要看你的logstash的版本中,你的input和ouput插件中的kafka插件是否支持你的kafka版本,不然你的密钥对接不上。`

✅ Elasticsearch security features have been automatically configured!
✅ Authentication is enabled and cluster connections are encrypted.

ℹ️  Password for the elastic user (reset with `bin/elasticsearch-reset-password -u elastic`):
  NJ=2_QrhiChcpEZ6*gL8

ℹ️  HTTP CA certificate SHA-256 fingerprint:
  b77c82f6a58d8754974c44d132cfe072ecde34d47c144f01a821ba0fecb1deb5

上面的有重置用户密码的密令

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值