63.CM安装KMS服务+实现HDFS透明加密

本文档介绍了在CentOS 6.5和CDH 5.13环境下,如何安装配置KMS并实现HDFS的透明加密。演示了从安装openssl-devel到创建加密区域,以及用户权限管理和文件加密的过程。强调了KMS的安全性,指出HDFS超级用户不能作为密钥管理员以防止安全隐患。同时展示了用户上传文件到加密和非加密区域的差异,并通过查看BlockID和内容验证加密效果。
摘要由CSDN通过智能技术生成

63.1 演示环境介绍

  • CentOS版本为:6.5
  • CDH版本为:5.13

63.2 操作演示

  • libcrypto.so的安装
    • 确认openssl出现true,例如openssl: true/usr/lib64/libcrypto.so。
      • 如果是false,表示 libcrypto.so没有正确安装或配置,需要检查和改正。
      • Fayson的机器因为已经安装过了,所以提示“already installedand latest version”
[root@ip-186-31-6-148shell]# sh ssh_do_all.sh node.list "yum -y install openssl-devel"
Loaded plugins: fastestmirror, presto
Loading mirror speeds from cached hostfile
 * base: mirror.qoxy.com
 * extras: mirror.qoxy.com
 * updates: mirror.qoxy.com
Setting up Install Process
Package openssl-devel-1.0.1e-57.el6.x86_64 already installed and latest version
Nothing to do
Connection to ip-186-31-6-148.fayson.com closed.
[root@ip-186-31-6-148 shell]# sh ssh_do_all.sh node.list "hadoop checknative"
17/12/09 09:59:54 INFO bzip2.Bzip2Factory: Successfully loaded & initialized native-bzip2 library system-native
17/12/09 09:59:54 INFO zlib.ZlibFactory: Successfully loaded & initialized native-zlib library
Native library checking:
hadoop:  true/opt/cloudera/parcels/CDH-5.13.0-1.cdh5.13.0.p0.29/lib/hadoop/lib/native/libhadoop.so.1.0.0
zlib:    true /lib64/libz.so.1
snappy:  true/opt/cloudera/parcels/CDH-5.13.0-1.cdh5.13.0.p0.29/lib/hadoop/lib/native/libsnappy.so.1
lz4:     true revision:10301
bzip2:   true /lib64/libbz2.so.1
openssl: true /usr/lib64/libcrypto.so
Connection to ip-186-31-6-148.fayson.com closed.
  • 通过CM主界面安装KMS,选择Java KeyStore KMS
  • 输入秘钥管理员用户和用户组,注意hdfs超级用户已经被禁止设置为秘钥管理员,HDFS管理员和秘钥管理员是分开的。
  • 生成ACL,设置TLS,等待服务启动完毕
  • 安装完成后,按照提示重启整个集群
    HDFS加密测试
  • 新建用户user1,创建一个秘钥key1
    • 在创建秘钥时,发现无论是root用户还是hdfs用户都无法创建成功,必须使用我们在安装配置KMS的时候设置的秘钥管理员fayson。
[root@ip-186-31-6-148 shell]# hadoop key create key1

key1 has not been created. org.apache.hadoop.security.authorize.AuthorizationException: User:root not allowed to do 'CREATE_KEY' on 'key1'
[root@ip-186-31-6-148 shell]# 
[root@ip-186-31-6-148 shell]# sudo -u hdfs hadoop key create key1
key1 has not been created. org.apache.hadoop.security.authorize.AuthorizationException: User:hdfs not allowed to do 'CREATE_KEY' on 'key1'
[root@ip-186-31-6-148 shell]# sudo -u fayson hadoop key create key1
key1 has been successfully created with options Options{cipher='AES/CTR/NoPadding', bitLength=128, description='null', attributes=null}.
KMSClientProvider[http://ip-186-31-10-118.fayson.com:16000/kms/v1/] has been updated.
  • 创建一个HDFS目录并设置为加密区域。
    • 需要使用hdfs超级用户
[root@ip-186-31-6-148 shell]# hadoop fs -mkdir /user/user1
[root@ip-186-31-6-148 shell]# sudo -u hdfs hadoop fs -chown user1:user1 /user/user1
[root@ip-186-31-6-148 shell]# sudo -u hdfs hdfs crypto -createZone -keyName key1 -path /user/user1
Added encryption zone /user/user1
[root@ip-186-31-6-148 shell]# sudo -u hdfs hdfs crypto -listZones
/user/user1  key1
  • 再创建一个目录,用于后面比较加密目录
[root@ip-186-31-6-148 shell]# hadoop fs -mkdir /user1/
[root@ip-186-31-6-148 shell]# sudo -u hdfs hadoop fs -chown user1:user1 /user1
  • 切换到user1用户分别上传文件到加密区域以及非加密区域
    • 准备一个文件
  • 上传文件到加密区域和非加密区域
    • 需要给上面创建的秘钥key1赋予用户和用户组user1的访问权限,否则用户user1无法put文件到/user/user1目录。
[user1@ip-186-31-6-148 ~]$ hadoop fs -put a.txt /user1
[user1@ip-186-31-6-148 ~]$ hadoop fs -put a.txt /user/user1
[user1@ip-186-31-6-148 ~]$ hadoop fs -cat /user1/a.txt
fsdfsfsdfsdddddddddd
123456789
Fayson is fat!
[user1@ip-186-31-6-148 ~]$ hadoop fs -cat /user/user1/a.txt
fsdfsfsdfsdddddddddd
123456789
Fayson is fat!
  • 通过HDFS的50070页面查看上传的文件的block分布在那台DataNode上,并记录下Block ID。
  • 登录到ip-186-31-10-118.fayson.com机器,查看block文件
    • 在加密区域/user/user1的文件“a.txt”的block ID为1073776797,在非加密区域/user1的文件“a.txt“的block ID为1073776707
[root@ip-186-31-10-118 ~]# find / -name "*1073776797*"
/dfs/dn/current/BP-900745788-186.31.6.148-1508157818810/current/finalized/subdir0/subdir136/blk_1073776797
/dfs/dn/current/BP-900745788-186.31.6.148-1508157818810/current/finalized/subdir0/subdir136/blk_1073776797_36850.meta
[root@ip-186-31-10-118 ~]# cat /dfs/dn/current/BP-900745788-186.31.6.148-1508157818810/current/finalized/subdir0/subdir136/blk_1073776797
????fJPQ٥??f ?Lx?+?f?6фt6=ko?1l?+"N?[
root@ip-186-31-10-118 ~]# 
[root@ip-186-31-10-118 ~]# find / -name "*1073776707*"
/dfs/dn/current/BP-900745788-186.31.6.148-1508157818810/current/finalized/subdir0/subdir136/blk_1073776707
/dfs/dn/current/BP-900745788-186.31.6.148-1508157818810/current/finalized/subdir0/subdir136/blk_1073776707_36760.meta
[root@ip-186-31-10-118 ~]# cat /dfs/dn/current/BP-900745788-186.31.6.148-1508157818810/current/finalized/subdir0/subdir136/blk_1073776707
fsdfsfsdfsdddddddddd
123456789
Fayson is fat!
  • 通过HDFS的透明加密可以实现HDFS底层文件的加密,对于非加密区域/user1下的文件a.tx可以直接通过block ID查找到该block文件,并直接查看到明文。
    • 但是在加密区域/user/user1下的文件a.txt虽然也可以直接查找到该block文件,但是查看确是密文。
  • 在安装Java KMS的时候,Cloudera Manager会提示不能将HDFS超级用户hdfs设置为秘钥管理员,这是为了防止HDFS的超级用户既可以访问任何文件,又可以访问所有秘钥,从而可以直接解密所有HDFS文件而造成安全问题。
  • 在通过user1用户上传文件到自己所属的加密区域时,必须设置该加密区域的秘钥文件key1可以被user1访问,该设置通过Cloudera Manager管理的Java KeyStore KMS的配置中设置,将user1用户和组加入到ACL列表,否则会报以下错误。
[user1@ip-186-31-6-148 ~]$ hadoop fs -put a.txt /user/user1
put: User [user1] is not authorized to perform [DECRYPT_EEK] on key with ACL name [key1]!!
17/12/09 11:49:33 ERROR hdfs.DFSClient: Failed to close inode 352863
org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.server.namenode.LeaseExpiredException): No lease on /user/user1/a.txt._COPYING_ (inode 352863): File does not exist. Holder DFSClient_NONMAPREDUCE_1915499091_1 does not have any open files.
   at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.checkLease(FSNamesystem.java:3752)
   at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.completeFileInternal(FSNamesystem.java:3839)
   at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.completeFile(FSNamesystem.java:3809)
   at org.apache.hadoop.hdfs.server.namenode.NameNodeRpcServer.complete(NameNodeRpcServer.java:748)
   at org.apache.hadoop.hdfs.server.namenode.AuthorizationProviderProxyClientProtocol.complete(AuthorizationProviderProxyClientProtocol.java:248)

大数据视频推荐:
CSDN
大数据语音推荐:
企业级大数据技术应用
大数据机器学习案例之推荐系统
自然语言处理
大数据基础
人工智能:深度学习入门到精通

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值