hadoop学习中基础性问题

1,nameNode启动不了
原因发现: 猜测namenode 用到了/tmp文件目录,这个目录在系统临时目录下。hadoop操作用户可能没有操作权限,所以启动不了;
解决办法:给 namenode设定tmp目录.
实现:在core-site.xml中设定
<property> 
    <name>hadoop.tmp.dir</name> 
    <value>/usr/local/hadoop/hadoop-1.0.4/tmp</value> 
</property>
2,SecondaryNamenode启动不了
原因发现:查看日志,大概是端口被占用了
解决方法,给SecondaryNamenode重新设定端口
实现:在hdfs-site.xml中设定
<property> 
    <name>dfs.secondary.http.address</name> 
    <value>localhost:50091</value> 
</property> 
3,datanode启动后自动关闭
原因发现:查看日志,同时,网络查找办法。这个问题基本上是因为在namenode端多次运行hadoop namenode –format 。Namenode每次格式化了后,但datanode记录的还是上次的数据。所以,每次格式化后,清理dfs.data.dir目录下对应内容
实现:rm -r  dfs.data.dir/*
最后执行下

rm -r    hadoop.tmp.dir/*

4,执行wordcount任务失败
问题:在搭配好环境好,运行自带的wordcount程序,然后运行结果总是失败。在查询log后,发现设计主机名字。然后,网络搜索,发现问题:主机名字不能带下划线。
解决办法:修改主机名
实现:主机名存放在/etc/hostname文件中,修改主机名时,编辑hostname文件,在文件中输入新的主机名并保存该文件即可,重启系统后。
附录:
查看主机名:
hostname或uname –n

注意:/etc/hostname与/etc/hosts的区别。/etc/hostname中存放的是主机名,/etc/hosts存放的是域名与ip的对应关系,域名与主机名没有任何关系,你可以为任何一个IP指定任意一个名字。??

5,搭建集群后,datanode启动不了

问题:搭建好集群后,datanode启动不了,查看工作节点人防火墙也是关闭状态。在网上查阅资料后,其中有一条提到datanode目录权限一定是755,随后验证解决了问题。

解决办法:chmod755 datanode目录

进一步:这样的解决方案是可以,但是怀疑自己在配置集群环境时缺少了哪一步。



  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值