对kafka进行了kerberos认证之后,要topic和用户进行acl授权的操作

kafka的acl的授权命令大总结

对kafka进行了kerberos认证之后,要topic和用户进行acl授权的操作,因为最近使用kafka的acl的命令进行授权操作比较频繁,特意总结下来。不说废话了,直接上干货。

1、查看kafka集群所有的acl授权信息

./kafka-acls.sh --authorizer-properties zookeeper.connect=com.hadoop.node01:2181 --list
示例结果如下:
		Current ACLs for resource `Topic:LITERAL:acl_test`: 
		 	User:* has Allow permission for operations: Write from hosts: *
			User:kafka/com.hadoop.node01 has Allow permission for operations: Write from hosts: *
			User:kafka/com.hadoop.node01 has Allow permission for operations: Write from hosts: com.hadoop.node01

2、添加kafka的读acl权限

./kafka-acls.sh --authorizer-properties zookeeper.connect=com.hadoop.node01:2181 --add --allow-principal User:aclTest --consumer  --group=* --operation Read --topic acl_test

3、移除kafka的组

./kafka-acls.sh --authorizer-properties zookeeper.connect=com.hadoop.node01:2181 --remove --allow-principal User:aclTest --group * --operation Read --operation Describe --force --resource-pattern-type MATCH --topic acl_test

4、添加kafka的producer写acl权限

./kafka-acls.sh --authorizer-properties zookeeper.connect=com.hadoop.node01:2181 --add --allow-principal User:aclTest --producer --topic acl_test

5、移除kafka的producer写acl权限

./kafka-acls.sh --authorizer-properties zookeeper.connect=com.hadoop.node01:2181/kafka --remove --allow-principal User:aclTest --producer --topic acl_test1

6、添加kafka的写acl权限

./kafka-acls.sh --authorizer-properties zookeeper.connect=com.hadoop.node01:2181 --add --allow-principal User:aclTest --operation Write --topic acl_test

7、移除kafka的写acl权限

./kafka-acls.sh --authorizer-properties zookeeper.connect=com.hadoop.node01:2181 --remove --allow-principal User:aclTest --operation Write --topic acl_test --force

8、添加kafka的group读acl权限

./kafka-acls.sh --authorizer-properties zookeeper.connect=com.hadoop.node01:2181 --add --allow-principal User:aclTest --operation Read --group=Group_aclTest --topic acl_test

9、移除kafka的group读acl权限

./kafka-acls.sh --authorizer-properties zookeeper.connect=com.hadoop.node01:2181 --remove --allow-principal User:aclTest --operation Read  --group=Group_aclTest --topic acl_test

10、添加kafka的consumer的group读acl权限

./kafka-acls.sh --authorizer-properties zookeeper.connect=com.hadoop.node01:2181 --add --allow-principal User:aclTest --operation Read --consumer --group=Group_aclTest --topic acl_test

11、移除kafka的consumer的group读acl权限

./kafka-acls.sh --authorizer-properties zookeeper.connect=com.hadoop.node01:2181 --remove --allow-principal User:aclTest --operation Read  --group=Group_aclTest --topic acl_test

12、添加kafka的读acl权限

./kafka-acls.sh --authorizer-properties zookeeper.connect=com.hadoop.node01:2181 --add --allow-principal User:aclTest --operation Read  --topic acl_test

13、移除kafka的读acl权限

./kafka-acls.sh --authorizer-properties zookeeper.connect=com.hadoop.node01:2181 --remove --allow-principal User:aclTest --operation Read  --topic acl_test
  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要在Kettle中使用Kafka Consumer组件进行Kerberos认证,你可以按照以下步骤进行设置: 1. 首先,确保你已经在Kafka服务器上配置了Kerberos认证,并且已经生成了Kafka服务的principal和keytab文件。 2. 在Kettle中,打开Kafka Consumer组件的属性窗口。 3. 在属性窗口中,找到"Kafka Consumer"选项卡,并展开它。 4. 在"Kafka Consumer"选项卡中,找到"Kafka Properties"字段,并点击右侧的"编辑"按钮。 5. 在弹出的编辑窗口中,添加以下属性配置: - security.protocol=SASL_PLAINTEXT - sasl.kerberos.service.name=<Kafka服务的principal> 这些属性将告诉Kafka Consumer组件使用Kerberos认证进行连接。 6. 确保你已经将Kafka服务的principal和keytab文件放置在Kettle运行的机器上,并且Kettle能够访问到这些文件。 7. 保存并关闭属性窗口。 通过以上步骤,你就可以在Kettle中使用Kafka Consumer组件进行Kerberos认证了。请注意,确保Kettle运行的机器上已经正确配置了Kerberos环境,并且Kettle能够访问到Kafka服务的principal和keytab文件。 #### 引用[.reference_title] - *1* [Kerberos安全认证-连载12-Kafka Kerberos安全配置及访问](https://blog.csdn.net/qq_32020645/article/details/131344973)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* *3* [深度解析Kafka kerberos认证](https://blog.csdn.net/justchnmm/article/details/123832385)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值