Hadoop 配置-启动 过程中遇到的问题

Hadoop开发需要最基本的Hadoop环境,在之后我会将过程中遇到的一系列问题分享一下,借鉴之。(持续更新中)

我这里搭的环境是 namenode 1台(192.168.0.2),datanode 3台(192.168.0.3,192.168.0.4,192.168.0.5)。

 

需要注意的问题:

0. 由于Linux的安全性比Windows管理的要严格的多,所以在配置Hadoop的时候所做的所有工作都在hadoop用户下进行,这个非常重要,会减少以后遇到的问题,很多问题都是没有Linux用户权限造成的,如果没有的话,要在root用户下使用 chown -R hadoop:hadoop dir 将dir文件夹改成hadoo用户(hadoop用户也即我搭建的系统hadoop用户)。这个非常重要!除了一些Linux系统配置文件编辑的时候和停止、启动一些系统服务(如防火墙)的时候需要root用户,其他的时候的操作要使用hadoop用户。重要!

1. SSH无密码登录一定要提前配置好,个人设置的是namenode和datanode之间都可以通过ssh无密码登录,而不仅仅是namenode登录datanode。

使用 ssh hadoop@192.168.0.3 (根据自己的配置来进行修改登录名和ip地址)来进行测试,看是否能进行无密码登录,这个ssh无密码登录一定要通过

2. 防火墙关闭。 service iptables stop

3. 格式化工作只需要namenode来做,datanode不能做这个工作(否则datanode是不可能启动起来的),格式化工作命令为: bin/hadoop namenode -format。

4. 可以通过一些命令来查看是否正确启动,而不是“认为”它启动成功了。

jps             #Java的查看当前启动的线程。如果正常启动,datanode端通常会显示三个,分别是:jps、datanode和tasktracker

hadoop dfsadmin -report  #在namenode端执行该命令查看已经启动的datanode和tasktracker

http://master:50070http://master:500701 查看dfs和map-reduce的去年概况

5. 做实验不可能让电脑一直开着,晚上要关闭这个系统,个人尝试在关闭后是可以再次正常启动的,不过关闭顺序是:先stop-mapred.sh, 然后stop-dfs.sh, 然后再去关闭机器就OK了。

6. 遇到启动不起来其他slaves上的datanode和tasktracker问题时,需要:

删除主tmp文件夹下的所有内容(因为这个里面的/dfs/data/current/VERSION中的namespaceID在namenode进行重新格式化的时候会不统一,这样就不能通过namenode来启动这些datanode)

关闭防火墙 service iptables stop

然后启动就OK了

7. 最基本的配置只要完成对conf文件夹下的4个文件5处地方进行修改即可正常启动,如果启动遇到问题,你就是其他的问题,不是配置的问题。

hadoop-env.sh    修改JAVA_HOME;

core-site.xml     修改fs.default.name和hadoop.tmp.dir;(我的修改为:hdfs://192.168.0.2:9000和/usr/hadoop/tmp。 注:我的hadoop是安装在/usr/hadoop下)

hdfs-site.xml     修改dfs.replication;(我的修改为:1)

mapred-site.xml    修改maprd.job.tracker;(我的修改为:192.168.0.2:9001)

8. 在cluster建立的过程中,conf/文件夹下的master和slaves要进行修改,根据自己的配置来进行修改。

我的修改为:

master:

192.168.0.2

slaves: 

192.168.0.3

192.168.0.4

192.168.0.5

9. Hadoop虽然提供了一些人为的File System Shell命令,比如 bin/hadoop fs -mkdir input,最后的这个存放位置,不像Windows下那么复杂的文件夹结构。

个人觉得很多上传的文件在Hadoop中没什么文件夹概念。所以input文件夹Hadoop会自动将它放在根目录上,不要写成/usr/hadoop/input,这样会出现找不到input文件夹的问题。

 

 

遇到的问题:

1. 遇到无法启动datanode(即(1)在datanode上打jps的时候没有datanode和tasktracker进程(2)在namenode进行stop的时候是no namenode to stop提示)的时候,见 上6 .

2. 遇到无权限进行读写的的时候,见 上0 .

3. 遇到retrying N time(s)的问题,遇到这种情况可能有很多种原因,网上有一些其他的说明,不过没有启动jobtracker但是要使用map-reduce模块的话也会遇到这样的问题,即要启动 start-mapred.sh,由于以前只启动hdfs然后要进行wordcount的测试程序,没有启动jobtracker就进行了测试,囧~ 所以有必要看看自己是否没有启动jobtracker就使用了它。

4. 遇到 hdfs://master:dfsport/install_dir/input 不存在问题。可能的原因是:上9 .

 

转载于:https://www.cnblogs.com/hanyuanbo/archive/2012/07/18/2597154.html

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在搭建Hadoop服务器集群过程,可能会遇到一些常见问题。以下是一些可能出现的问题及相应的解决办法: 1. 网络连接问题:确保集群的服务器能够相互通信,检查网络配置、防火墙设置等。可以通过ping命令检查服务器之间的连通性。 2. SSH连接问题:如果无法通过SSH进行免密登录,可以检查SSH配置、密钥文件等。确保每台服务器的SSH服务正常运行,并且公钥已正确配置。 3. Java环境问题:如果Hadoop无法找到Java环境,可以检查Java的安装路径和环境变量设置。确保每台服务器上都正确安装了适合的Java Development Kit (JDK)。 4. Hadoop配置问题:在编辑Hadoop配置文件时,可能会出现错误的配置或格式不正确导致集群无法正常启动。建议仔细检查配置文件的语法和参数设置,可以参考官方文档或其他资源进行正确配置。 5. HDFS格式化问题:在格式化HDFS时,可能会遇到权限或文件系统错误导致格式化失败。确保有足够的权限执行格式化操作,并且没有其他进程占用HDFS的相关目录。 6. 资源分配问题:如果集群的节点无法正常分配资源或任务无法运行,可以检查资源管理器(如YARN)的配置和日志,确保资源分配策略和配置正确。 7. 集群安全问题:如果需要启用Hadoop的安全功能(如Kerberos认证),可能会遇到配置和认证问题。在启用安全功能前,建议详细阅读相关文档,并按照指导进行正确配置。 8. 高可用性配置问题:如果需要实现Hadoop集群的高可用性,配置过程可能会较为复杂。建议仔细阅读相关文档,并按照指导进行正确配置,包括故障转移、备份节点等。 9. 日志和错误排查:在搭建过程,如果遇到问题,可以查看Hadoop的日志文件和错误信息,以便更好地定位问题。可以通过日志来分析异常、错误和警告信息,并尝试解决或定位问题。 以上是一些常见的问题及解决办法,具体的问题和解决方案可能会因环境和配置的不同而有所差异。在遇到问题时,可以参考官方文档、社区论坛或其他相关资源,进行更详细的排查和解决。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值