Windows 访问 HDFS

缘起

一天,有人问我,能用windows建一个客户端,来访问hadoop的hdfs文件系统吗? 直觉告诉我,应该可以,不就是一个hadoop客户端吗?hadoop都是java代码,理论上应该能用 。 不过,还是要试验一下,才能确认。

环境

我手头刚好有个cdh环境,而且还做了kerberos身份验证,同时我所用的windows机器和CDH所用的AD不在同一个域,难度有点大。不过基本原理还是很清楚的,无非就是客户端先通过kinit拿到本地令牌,然后再访问hadoop呗。

步骤

  1. 下载hadoop软件包,apache官网,2.6的二进制版。

  2. hadoop软件包 解压缩后,假设放在d:\hadoop

  3. 下载winutil.exe,https://github.com/steveloughran/winutils/tree/master/hadoop-2.6.0/bin , 放在d:\hadoop\bin下

  4. 从CDH集群下载hadoop配置信息,主要是集群内/etc/hadoop/conf目录,假设文件夹名为conf。将conf文件夹放在d:\hadoop\etc下,并重命名为hadoop。如果之前有同名目录存在,这将之前的hadoop目录改名即可。

  5. 从CDH集群下载kerberos配置信息,主要是集群内/etc/krb5.conf文件。将该文件放在d:\hadoop\krb5下。

  6. 设置环境变量

      set JAVA_HOME=d:\jdk1.8
      set HADOOP_HOME=d:\hadoop
      set KRB5CCNAME=d:\hadoop\krb5cache
      set PATH=%PATH%;%JAVA_HOME%\bin;%HADOOP_HOME%\bin
      set JAVA_TOOL_OPTIONS=-Dsun.security.krb5.debug=true -D"java.security.krb5.conf=d:\hadoop\krb5\krb5.conf"  #引号必须加。
    
  7. 执行%JAVA_HOME%\bin\kinit.exe 。由于我所用的windows机器已经加入到tom域,而CDH对应的AD域控域名为jerry。直接执行kinit是不行的,会默认去tome域认证。好在也有方法:

       kinit.exe -J-Dsun.security.krb5.debug=true -J-D"java.security.krb5.conf=d:\hadoop\krb5\krb5.conf" mac
    
    

这样一来,kinit就会使用我们指定的conf文件来验证身份,也会找到指定的jerry域了。

  1. 在执行kinit过程中,还提示了一个错误,就是AD服务器和windows客户端之间,加密算法类型不匹配。这个也没有关系,方法如下:

    #修改d:\hadoop\krb5\krb5.conf文件
    在[libdefaults]下新增:
    default_tkt_enctypes = arcfour-hmac-md5
    #强制指定使用双方都支持的加密算法
    
  2. 执行hdfs dfs -ls /,成功!

转载于:https://my.oschina.net/pearma/blog/1549860

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值