hadoop远程客户端安装配置

hadoop远程客户端安装配置

客户端系统:ubuntu12.04

客户端用户名:mjiang

服务器用户名:hadoop

  1. 下载hadoop安装包,保证和服务器版本一致(或直接copy服务器的hadoop安装包) 
    到 http://mirror.bjtu.edu.cn/apache/hadoop/common/ 下载tar.gz安装包,解压。
    tar zxvf hadoopx.x.x.tar.gz
  2. 配置
    • 系统配置
      修改 ~/.bashrc 文件
      添加 export PATH=/path/to/hadoop/home/:$PATH
    • hadoop配置文件修改
      在客户端只需配置集群namenode 和 jobtracker 的相关信息,以及java安装目录。即修改conf目录下文件:
      hadoop-env.sh:
      export JAVA_HOME=/home/mjiang/hadoop_work/jrockit-jdk1.6.0_29
      core-site.xml:
      <property>
      <name>fs.default.name</name>
      <value>hdfs://master:8020</value>
      </property>
      mapred-site.xml:
      <property>
      <name>mapred.job.tracker</name>
      <value>master:8021</value>
      </property>
  3. 现在hadoop客户端已经配置好,可以运行基本的命令如:
    hadoop fs -lsr /
    但是由于服务器端还没有设置权限,所以向hdfs系统上传文件等命令还不能运行。

hadoop多用户权限配置

远程客户端用户在hadoop集群上运行程序时,可能会出现类似错误:

 错误现象:org.apache.hadoop.security.AccessControlException: Permission denied: user=mjiang, access=EXECUTE, inode="job_201111031322_0003":hadoop:supergroup:rwx-.

 原因:本地用户想要远程操作hadoop系统,没有权限引起的。

这就是权限配置不对造成的,解决方案:

  1. 如果是测试环境,可以取消hadoop hdfs的用户权限检查。打开conf/hdfs-site.xml,找到dfs.permissions属性修改为false(默认为true)OK了。
  2. 公司级应用时权限配置:
    这里只进行简单的权限配置,远程用户能正常提交运行作业即可,更加专业、高级的权限配置暂时还用不到,也没有做过多研究。
    在解决权限配置问题时,我们对hadoop多用户权限配置的问题,转移成单纯的hdfs文件的用户权限配置问题:

    1. 在服务器主机上添加客户端用户以及hadoop默认组名:
      sudo  /usr/sbin/groupadd  supergroup
      sudo  /usr/sbin/useradd  -e 20130630   -g supergroup -n  -r mjiang 
    2. 修改hadoop集群中hdfs文件的组权限使属于supergroup组的所有用户都有读写权限
      hadoop fs -chmod 773 /
  3. 参考文章:
    http://jbm3072.iteye.com/blog/1048489
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值