kafka集成kerberos完整步骤-2

机器:

172.31.10.133 (Kerberos 客户端和服务端都放一起)

172.31.10.132(kafka)

172.31.10.132(zookeeper)

整体概述:

  1. kafka 集成 kerberos 后, kafka 的客户端和 kafka 的服务端在交互前都需要请求 kerberos 进行认证通过后,才能进行交互。那么 kafka 的客户端和 kafka 的服务端的票据即 keytab 只要是通过 kerberos 认证后,就可以交互了,说明这点意思,kafka 的客户端和服务端的 keytab 可以用一个或者不用一个。
  2. kafka 和 kerberos 的交互与访问都需要通过域名。所需机器上的配置 /etc/hosts 文件需要配置 kerberos 的域名,注意是只要有 krb5.conf 的文件都都需要设置,这个文件通过域名访问 kdc 中心。
  3. 说说几个比较重要的文件:
    1. kerberos 的 kdc.conf 文件 这个指定端口号,设置加密的类型
    2. krb5.conf 文件,这个文件是设置 kdc 的认证中心,即 kerberos 服务端的地址。当然可以存在多个 kerberos,这就需要修改 krb5.conf 文件了
    3. keytab 文件,这个就是加密文件了
    4. kadm5.acl 文件用来设置 realm 域名的,本文的域名 EXAMPLE.COM
  1. kafka 服务端的文件,jaas 文件,服务端文件,以及需要使用 Kerberos 认证链接。

172.31.10.133 机器的配置及操作:

krb5.conf 文件使用

includedir /etc/krb5.conf.d/

[logging]
 default = FILE:/var/log/krb5libs.log
 kdc = FILE:/var/log/krb5kdc.log
 admin_server = FILE:/var/log/kadmind.log

[libdefaults]
 dns_lookup_realm = false
 ticket_lifetime = 24h
 renew_lifetime = 7d
 forwardable = true
 rdns = false
 pkinit_anchors = FILE:/etc/pki/tls/certs/ca-bundle.crt
 default_realm = EXAMPLE.COM
 default_ccache_name = KEYRING:persistent:%{uid}

[realms]
 EXAMPLE.COM = {
     kdc = kerberos.example.com:88
     admin_server = kerberos.example.com:749
 }

[domain_realm]
 .example.com = EXAMPLE.COM
 example.com = EXAMPLE.COM

[root@localhost krb5kdc]# cat /etc/hosts
127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
172.31.10.133 kerberos.example.com

### KafkaKerberos集成安全认证环境搭建 为了实现KafkaKerberos之间的安全认证,通常需要以下几个方面的配置: #### 1. Kerberos服务端配置 Kerberos服务器的安装和配置是整个过程的基础。确保KDC(Key Distribution Center)已经正确部署并运行正常。创建用于Kafka集群的身份验证主体(principal),例如`kafka/hostname@REALM`。 对于每台Kafka broker机器都需要有对应的Kerberos principal,并生成相应的keytab文件[^1]。 #### 2. Kafka Broker配置 编辑Kafka的配置文件(通常是`server.properties`),添加如下关键属性来启用SASL/Kerberos支持: ```properties sasl.enabled.mechanisms=GSSAPI security.inter.broker.protocol=SASL_PLAINTEXT listener.name.sasl_plaintext.scram-sha-512.sasl.jaas.config=org.apache.kafka.common.security.gssapi.GssApiLoginModule required \ useKeyTab=true \ keyTab="/path/to/kafka.keytab" \ storePass="password" \ serverPrincipal="kafka/hostname@REALM"; ``` 上述配置启用了GSSAPI机制作为Broker间通信的安全协议,并指定了具体的keytab路径以及对应的服务principal名称。 #### 3. Java客户端配置 (Producer & Consumer) 当Java应用通过Kafka Producer或Consumer连接到受保护的Kafka集群时,也需要进行类似的JAAS配置。下面是一个典型的生产者配置例子: ```java Properties props = new Properties(); props.put("bootstrap.servers", "localhost:9092"); props.put("acks", "all"); props.put("retries", 0); props.put("batch.size", 16384); props.put("linger.ms", 1); props.put("buffer.memory", 33554432); // SASL/GSSAPI settings props.put("security.protocol", "SASL_PLAINTEXT"); props.put("sasl.mechanism", "GSSAPI"); System.setProperty("java.security.auth.login.config", "/path/to/jaas.conf"); producer = new KafkaProducer<>(props, new StringSerializer(), new StringSerializer()); ``` 其中`jaas.conf`应包含类似这样的条目: ```conf KafkaClient { com.sun.security.auth.module.Krb5LoginModule required useTicketCache=false useKeyTab=true keyTab="/path/to/user.keytab" principal="user@REALM"; }; ``` 此部分描述了如何让Java应用程序能够利用本地存储的票据缓存或者指定的keytab来进行身份验证[^2]。 #### 4. Spring Boot中的额外考虑事项 如果是在Spring Boot环境下操作,则可以借助其自动装配功能简化某些步骤。不过仍然需要手动调整application.yml(application.properties),加入必要的安全性选项。例如: ```yaml spring: kafka: bootstrap-servers: localhost:9092 consumer: group-id: test-group auto-offset-reset: earliest properties: security: protocol: SASL_PLAINTEXT sasl: mechanism: GSSAPI ``` 同时记得设置系统的JAVA_OPTS变量指向合适的JAAS配置文件位置。 --- ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值