kerberos安装使用[kafka]

安装服务器:yum install krb5-server krb5-libs krb5-auth-dialog

 

修改 /var/kerberos/krb5kdc/kdc.conf, 改 realm 为自己的域

[kdcdefaults]

kdc_ports = 88

kdc_tcp_ports = 88

 

[realms]

YLH.COM = {

#master_key_type = aes256-cts

acl_file = /var/kerberos/krb5kdc/kadm5.acl

dict_file = /usr/share/dict/words

admin_keytab = /var/kerberos/krb5kdc/kadm5.keytab

max_renewable_life = 7d

supported_enctypes = aes256-cts:normal aes128-cts:normal des3-hmac-sha1:normal arcfour-hmac:normal camellia256-cts:normal camellia128-cts:normal des-hmac-sha1:normal des-cbc-md5:normal des-cbc-crc:normal

}

 

修改/etc/krb5.conf

# Configuration snippets may be placed in this directory as well

includedir /etc/krb5.conf.d/

 

[logging]

default = FILE:/var/log/krb5libs.log

kdc = FILE:/var/log/krb5kdc.log

admin_server = FILE:/var/log/kadmind.log

 

[libdefaults]

dns_lookup_realm = false

dns_lookup_kdc = false

ticket_lifetime = 24h

renew_lifetime = 7d

forwardable = true

rdns = false

default_realm = YLH.COM

default_ccache_name = KEYRING:persistent:%{uid}

 

[realms]

YLH.COM = {

kdc = 192.168.1.173

admin_server = 192.168.1.173

}

 

[domain_realm]

.ylh.com = YLH.COM

ylh.com = YLH.COM

 

创建kerberos数据库:/usr/sbin/kdb5_util create -s -r YLH.COM , 保存登陆密码

 

添加数据库admin: /usr/sbin/kadmin.local -q "addprinc admin/admin"

 

为admin授权,将文件/var/kerberos/krb5kdc/kadm5.acl的内容编辑为: */admin@YLH.COM

 

centos环境需要覆盖Java jce文件$JAVA_HOME/jre/lib/security

 

 

启动服务器:

service krb5kdc start

service kadmin start

设置开机开启:

chkconfig krb5kdc on

chkconfig kadmin on

 

 

 

安装客户端:yum install krb5-workstation krb5-libs krb5-auth-dialog

配置这些主机上的/etc/krb5.conf,这个文件的内容与KDC中的文件保持一致即可。

 

登陆:

在服务器登陆:admin.local 。直接登陆

在客户端登陆: kinit admin/admin 然后输入kadmin命令 。 密码登陆

 

创建princ: addprinc test/192.168.1.170@YLH.COM

注意:此处设置的principal信息是针对每台机器设置的,name自己设置,后面的host就是访问kdc的机器host切记

 

生成keytab: xst -k keyname.keytab test/192.168.1.170

 

通过keytab认证: kinit -kt keyname.keytab test/192.168.1.170

 

查看当前的认证用户: klist

 

删除认证缓存:kdestroy

 

安装kerberos: https://my.oschina.net/u/185335/blog/2963061

kafka sever配置kerberos: https://my.oschina.net/u/185335/blog/2963062

kafka client使用kerberos: https://my.oschina.net/u/185335/blog/2963063

 

转载于:https://my.oschina.net/u/185335/blog/2963061

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Kettle(现在被称为Pentaho Data Integration)是一个企业级数据集成工具,它可以用于连接和处理各种数据源。根据引用\[2\]和引用\[3\],Kettle支持跨平台运行,并且可以对接传统数据库、文件、大数据平台、接口、流数据等数据源。它以Java开发,具有无编码、拖拽式开发ETL数据管道的特性。此外,Kettle还支持将机器学习算法应用于ETL数据管道。 关于您的问题,使用Kettle对接开启了Kerberos认证的Kafka是可行的。Kerberos是一种网络认证协议,用于在客户端和服务器之间进行安全的身份验证。Kettle提供了与Kafka集成的功能,可以通过配置Kettle的连接器和步骤来实现与Kerberos认证的Kafka的连接。 具体的配置步骤可能会因Kettle版本和Kafka配置而有所不同,但一般来说,您需要在Kettle中配置Kafka连接器,并提供Kafka的连接信息、Kerberos的认证信息以及相关的安全配置。这样,Kettle就可以通过Kerberos认证与Kafka进行通信。 请注意,确保您已经正确配置了KafkaKerberos认证,并且具有适当的权限来连接和操作Kafka。此外,根据您的具体需求,您可能还需要在Kettle中配置其他步骤来处理Kafka中的数据。 总结起来,使用Kettle对接开启了Kerberos认证的Kafka是可行的。您可以通过配置Kettle的连接器和步骤来实现与Kerberos认证的Kafka的连接,并进行数据集成和处理。 #### 引用[.reference_title] - *1* [进阶大数据架构师学习路线](https://blog.csdn.net/xiaoweite1/article/details/124736999)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* *3* [Kettle基于字段去除重复记录操作过程](https://blog.csdn.net/qq_17040587/article/details/129750903)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值