Ubuntu 23.04三台机器搭建hadoop及spark集群一些问题做以记录

#环境安装
在搭Hadoop集群构建的过程中主要根据下述一篇文章进行
http://t.csdn.cn/xcVS2
因为自己一开始打算学spark,先安装了spark后安装的hadoop,spark的安装过程根据B站教程进行的
https://www.bilibili.com/video/BV1gr4y1w7zw/?p=17&spm_id_from=pageDriver&vd_source=b49d1542196a33fa5cf5261f4e017d5d
Hadoop的环境配置以及下载根据B站教程进行
https://www.bilibili.com/video/BV1eZ4y1k7LZ/?spm_id_from=333.337.search-card.all.click&vd_source=b49d1542196a33fa5cf5261f4e017d5d
#遇到的重点问题及解决方案
其中很多的问题基本上都是自己没有处理好,注意到而导致的很多重复性工作,如果跟着步骤一个个来就会避免很多错误,问题也比较集中在集群搭建的过程中。
##虚拟机无法上网
可以参考上篇文章,在检查其余配置没有问题的情况下,利用几个命令重置了网络配置。
##hadoop安装后启动后jps显示不全
可能是初始化的问题,把hadoop中的tmp文件和logs文件全部删除,然后重新初始化再启动即可
##无法访问8080端口
这里根据正常的安装过程但是8080端口打不开,我这里的问题是更改了自己的主机名,我的master主机设置的为hadoop1,因此在访问的时候使用的是hadoop1:8080,而不是master:8080或者localhost:8080.
##failed to launch: nice -n 0 /home/bruce-lu/spark/bin/spark-class org.apache.
这个问题的出现也不太清楚,网上和自己的有所出入,网上发布的都附带其他报错内容,我的是单独这个报错,下面是自己的一些更改。
###在SPARK移动到workers节点(之前的slaves)的过程中忘记更改spark-env.sh中的自身IP,导致全部和master一致,做了更改
###删除了master的spark所有logs里面的文件和hadoop的tmp以及logs文件并且初始化
###在第一次启动workers节点失败后进行重启,第二次即启动成功。
##ERROR StandaloneSchedulerBackend: Application has been killed. Reason: All masters are unresponsive! Giving up.
针对这个问题也是很蠢的问题,当你能够打开8080端口时,他会给你一个访问的7077端口的网址,我是在用自带模式启动的时候网址输错了。
##Exception: Python in worker has different version 3.11 than that in driver 3.7
这个问题配置SPARK_PYTHON和SPARK_DRIVER_PYTHON即可,但是是在spark-env文件中进行配置,我自己在更改的时候一直在bashrc文件中进行更改,导致一直报错,心态都要炸了。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值