第五天:配置JDK 、Hadoop、Spark时经常出现的问题总结

最重要的事情写在前面,做大数据的时候,环境配置很重要,所以一定要注意自己安装的各种软件版本。本项目采用的是:
1、Hadoop ------2.7.6(一定要和spark相对应)
2、spark----------2.4.3(一定要和Hadoop相对应)
3、jdk-------------jdk1.8.0_221(一定要和scala相对应)
4、Scala---------2.11.12(2.11一定要和kafka对应)
5、zeppelin-----0.8.0
6、kafka---------2.11-2.3.0(2.11一定要和scala对应)
7、spark-steaming-kafka–2.11-2.4.3(2.11是scala的版本号,2.4.3是spark的版本号)
8、spark-steaming-----2.11-2.4.3(2.11是scala的版本号,2.4.3是spark的版本号)

一、配置JDK

1、配置JAVA_HOME的时候,一定要找准自己自己对应的版本,安装scala的时候要求jdk1.8系列,所以配置Java环境的时候,最好安装jdk1.8系列。
2、修改JAVA_HOME的时候,应该配置三个地方的JAVA_HOME环境变量。

  • ~/.bashrc里面指定JAVA_HOME
  • vim /etc/profile 里
  • hadoop-env-sh里
  • 执行java -version和$JAVA_HOME/bin/java-version的时候输出的结果一样并且执行echo $JAVA_HOME的时候里面的版本和你设定的一致才算成功。
  • 如果配置对了,但是执行的时候错误。建议试试用命令重启java.

二、配置Hadoop

1、启动Hadoop的时候,使用jps命令发现NameNode、DataNode、SecondaryNameNode有些进程不启动的话,往往是java的配置出了问题。

2、Hadoop的版本一定要和spark像对应。

三、配置spark

1、spark的版本一定要和hadoop相对应。

2、使用Kafka的时候,容易出错。建议根据以下网址配置。添加链接描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

哈喽朝龙

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值