Spark项目之环境搭建(单机)一 hadoop 2.8.5安装

 

我用的hadoop2.8.5 + apache-hive-2.3.3 +sqoop-1.4.7 + jdk1.8 + mysql 5.7 + scala-2.12.7 + spark-2.3.2-bin-hadoop2.7

第一步上传所需的包:我把所有的包都放在了home下面,如下:

先安装jdk 和mysql :

    jdk安装:https://blog.csdn.net/lx1309244704/article/details/79765517

mysql安装:https://blog.csdn.net/lx1309244704/article/details/79786463

然后修改IP映射

vi /etc/hosts

 

我这里的hadoop版本为2.8.5,我们可以找到官方给我提供的搭建文档,因为官方没有2.8.5版本的文档,那就找2.8.X的版本的文档即可。

地址:http://hadoop.apache.org/docs/r2.8.4/

首先搭建hadoop环境:

按照上面的配置,如下 我将解压的hadoop

tar -zxf hadoop-2.8.5.tar.gz

重新命名为hadoop

mv hadoop-2.8.5 hadoop

 配置环境变量

vi /etc/profile
#hadoop
export HADOOP_HOME=/home/hadoop/
export PATH=${HADOOP_HOME}/bin:$PATH

然后保存,执行一下命令,是配置生效

source /etc/profile

进入你安装的hadoop 下的 etc/hadoop/目录下

cd /home/hadoop/etc/hadoop/

core-site.xml的配置

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://hadoop:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>file:/home/hadoop/tmp</value>
    </property>
</configuration>

 hdfs-site.xml的配置

<configuration>
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>hadoop:50090</value>
    </property>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>file:/home/hadoop/tmp/dfs/name</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file:/home/hadoop/tmp/dfs/data</value>
    </property>
</configuration>

yarn的配置

<!-- Site specific YARN configuration properties -->
    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>hadoop</value>
    </property>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
</configuration>

然后初始化

hadoop namenode -format

 

然后就可以验证hadoop是否安装成功:进入你安装的hadoop目录下的sbin目录:/home/hadoop/sbin

cd /home/hadoop/sbin/

然后启动start-all.sh

./start-all.sh

如下:

 然后查询是否启动成功:

jps

  

停止命令:

./stop-all.sh

项目地址:https://github.com/LX1309244704/sparkDemo

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值