Hadoop搭建中遇到的问题及解决方法

背景

最近在研究hadoop spark过程中 遇到的一些问题

搭建hadoop参考地址:https://blog.csdn.net/weixin_36394852/article/details/75948241#commentsedit
搭建spark参考地址:https://blog.csdn.net/weixin_36394852/article/details/76030317

问题

主:alpha@master
从:ubuntu@slave1
版本:
java 1.8.0_171
scala 2.11.8
hadoop 2.9.2
spark 2.2.3

1. 在启动hadoop时遇到 需要输入alpha@master的密码

解决: 将自身的id_rsa.pub 加入自己的authorized_keys中

2. 主从机器用户名不同 在启动hadoop时遇到 需要输入alpha@slave1的密码

根据参考的流程 将各自的id_rsa.pub 加入authorized_keys中
因为主从用户名不一致导致了 默认使用主机用户名登录从机

解决: 在/xxx/xx/hadoop.xx.xx/etc/hadoop/的 slaves 中 修改slave => ubuntu@slave1

3. spark 搭建完成后 启动时 只有master启动了 slave启动失败

这里单独启动slave 失败如下

ubuntu@slave1: starting org.apache.spark.deploy.worker.Worker, logging to /usr/local/spark/logs/spark-ubuntu-org.apache.spark.deploy.worker.Worker-1-maint1.out

ubuntu@slave1: failed to launch: nice -n 0 /usr/local/spark/bin/spark-class org.apache.spark.deploy.worker.Worker --webui-port 8081 spark://ubuntu:7077
ubuntu@slave1:          at java.lang.ClassLoader.loadClass(ClassLoader.java:358)
ubuntu@slave1:          at sun.launcher.LauncherHelper.checkAndLoadMain(LauncherHelper.java:482)
ubuntu@slave1: full log in /usr/local/spark/logs/spark-ubuntu-org.apache.spark.deploy.worker.Worker-1-maint1.out

网上找了很多 都是什么环境没配什么的 并没有什么用
后来发现master用的java1.8 而slave的是java1.7
有在网上看到好像spark2.2之后不支持java1.7
更新了一下java版本就ok了

4. spark启动未报错 但是jps查看时 master正常 slave依旧没有worker

也是在网上找了很久 终于找到:https://my.oschina.net/u/2329800/blog/1826179
在slave的spark配置中加上

export SPARK_LOCAL_IP=本地ip

这里如果写127.0.0.1也能启动 不过会在sparkUI界面出现127.0.0.1:25302的展示 不好看 所以写本地ip也可以

5. 启动Spark在UI界面上看不到worker节点的信息

参考:https://blog.csdn.net/xsg448457111/article/details/82986024
spark-env.sh

export SPARK_MASTER_IP=master

给为

export SPARK_MASTER_HOST=192.168.1.100
  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
搭建Hadoop服务器集群过程,可能会遇到一些常见问题。以下是一些可能出现的问题及相应的解决办法: 1. 网络连接问题:确保集群的服务器能够相互通信,检查网络配置、防火墙设置等。可以通过ping命令检查服务器之间的连通性。 2. SSH连接问题:如果无法通过SSH进行免密登录,可以检查SSH配置、密钥文件等。确保每台服务器的SSH服务正常运行,并且公钥已正确配置。 3. Java环境问题:如果Hadoop无法找到Java环境,可以检查Java的安装路径和环境变量设置。确保每台服务器上都正确安装了适合的Java Development Kit (JDK)。 4. Hadoop配置问题:在编辑Hadoop的配置文件时,可能会出现错误的配置或格式不正确导致集群无法正常启动。建议仔细检查配置文件的语法和参数设置,可以参考官方文档或其他资源进行正确配置。 5. HDFS格式化问题:在格式化HDFS时,可能会遇到权限或文件系统错误导致格式化失败。确保有足够的权限执行格式化操作,并且没有其他进程占用HDFS的相关目录。 6. 资源分配问题:如果集群的节点无法正常分配资源或任务无法运行,可以检查资源管理器(如YARN)的配置和日志,确保资源分配策略和配置正确。 7. 集群安全问题:如果需要启用Hadoop的安全功能(如Kerberos认证),可能会遇到配置和认证问题。在启用安全功能前,建议详细阅读相关文档,并按照指导进行正确配置。 8. 高可用性配置问题:如果需要实现Hadoop集群的高可用性,配置过程可能会较为复杂。建议仔细阅读相关文档,并按照指导进行正确配置,包括故障转移、备份节点等。 9. 日志和错误排查:在搭建过程,如果遇到问题,可以查看Hadoop的日志文件和错误信息,以便更好地定位问题。可以通过日志来分析异常、错误和警告信息,并尝试解决或定位问题。 以上是一些常见的问题解决办法,具体的问题解决方案可能会因环境和配置的不同而有所差异。在遇到问题时,可以参考官方文档、社区论坛或其他相关资源,进行更详细的排查和解决
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值