安装hadoop 时遇到的一些问题整理

最近装hadoop, 遇到一些问题,整理了一下,方便以后查看。

1. 启动start-dfs.sh时总是跳出ssh的yes or no 问题

解决方案为在hadoop-env.sh中加入以下代码:

export HADOOP_SSH_OPTS="-o StrictHostKeyChecking=no"

2. 运行start-dfs.sh时遇到permission denied 问题,终端输出如下内容:

Starting namenodes on [localhost]
localhost: mkdir: cannot create directory `/h1': Permission denied
localhost: chown: cannot access `/h1/h1': No such file or directory

查了下,我这里运行是图方便用的tarballs,没有配置HADOOP_HOME和PATH,解决方案有2种,一种是配置环境变量,另一种是在hadoop-env.sh中配置LOG的文件夹:

export HADOOP_LOG_DIR=/home/h1/logs/


当然,最好还是配置hadoop的环境变量

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值