搭建Hadoop之jdk安装及配置(三)

1.上传文件

在这里插入图片描述

百度网盘提取地址
提取码:9xy5

在这里插入图片描述
右键传输,这里我传过就不传输了哈

2.解压hadoop与jdk文件

[root@master /]# cd /opt/                                        //进入/opt/目录
[root@master opt]# ls                                             //查看/opt/目录下的文件
bigdata hadoop-3.0.0.tar.gz  jdk-8u161-linux-x64.tar.gz
[root@master opt]#tar -zxvf hadoop-3.0.0.tar.gz                 //解压hadoop压缩包

把解压后的文件夹放到bigdata目录中

[root@master opt]#Ls                        //查看当前目录(opt)下的文件
[root@master opt]#mv hadoop-3.0.0 bigdata // 把hadoop-3.0.0 目录拷贝到bigdata目录里
[root@master opt]#cd bigdata               // 进入bigdata目录
[root@master bigdata]#ls                        // 查看bigdata目录里是否有hadoop-3.0.0目录

效果如下:

[root@master /]# cd /opt/
[root@master opt]# ls
bigdata  hadoop-3.0.0  hadoop-3.0.0.tar.gz  jdk-8u161-linux-x64.tar.gz
[root@master opt]# mv hadoop-3.0.0 bigdata/
[root@master opt]# cd /opt/bigdata
[root@master bigdata]# ls
hadoop-3.0.0  jdk1.8.0_161

解压jdk

[root@master opt]# cd /
[root@master /]# cd /opt/
[root@master opt]# ls
bigdata jdk-8u161-linux-x64.tar.gz
//解压jdk压缩包
[root@master opt]# tar -zxvf jdk-8u161-linux-x64.tar.gz
[root@master opt]# ls
bigdata jdk1.8.0_161 jdk-8u161-linux-x64.tar.gz
//把Jdk目录移动至bigdata目录
[root@master opt]# mv jdk1.8.0_161/ bigdata
[root@master opt]# cd bigdata/
//查看是否移动成功
[root@master bigdata]# ls
jdk1.8.0_161
### 3.配置hadoop环境变量
注:环境变量是让系统变量,在环境变量配置的命令目录后,该目录的命令将可以在任何位置都可以使用。

```powershell
[root@master bigdata]# vi /etc/profile

编辑环境变量profile文件,添加如下内容,然后保存

export JAVA_HOME="/opt/bigdata/jdk1.8.0_161"
export PATH=$JAVA_HOME/bin:$PATH
export HADOOP_HOME=/opt/bigdata/hadoop-3.0.0
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

位置如下,加在done下面
在这里插入图片描述
保存后激活profile文件,并查看hadoop是否能够正常使用。

[root@master bigdata]# source /etc/profile
[root@master bigdata]# java -version

在这里插入图片描述[root@master bigdata]# hadoop version

在这里插入图片描述

配置hadoop守护程序环境

😃 配置文件比较多耐心细心一点啊(╯‵□′)

建立namenode节点的存放位置

[root@master hadoop]# cd /opt/bigdata/hadoop-3.0.0
[root@master hadoop-3.0.0]# mkdir hdfs
[root@master hadoop-3.0.0]# cd hdfs/
[root@master hdfs]# mkdir name

配置hadoop-env.sh编辑hadoop-env.sh文件

cd /opt/bigdata/hadoop-3.0.0/etc/hadoop/
[root@master hadoop]# vi hadoop-env.sh

在打开hadoop-env.sh中查找JAVA_HOME 配置的位置

:/export JAVA_HOME

如下位置配置
定位到export JAVA_HOME输入JAVA_HOME的绝对路径。

export JAVA_HOME=/opt/bigdata/jdk1.8.0_161

在这里插入图片描述

6.配置hadoop守护进程

三个虚拟机同样操作
(1)配置core-site.xml
当前目录:/opt/bigdata/Hadoop-3.0.0/etc/Hadoop/

[root@master hadoop]# vi core-site.xml

进入core-site.xml文件中结构如下所示,找到configuration的位置
添加配置信息“

<property>
            <name>fs.default.name</name>
            <value>hdfs://master:9000</value>
    </property>
    <property>
            <name>hadoop.temp.dir</name>
            <value>/opt/bigdata/hadoop-3.0.0/tmp</value>
    </property>

在这里插入图片描述

(2)配置 hdfs-site.xml

[root@master hadoop]# vi hdfs-site.xml

找到configuration的位置
添加配置信息“

<configuration>
    <property>
            <name>dfs.replication</name>
            <value>2</value>
    </property>
    <property>
             <name>dfs.namenode.name.dir</name>
             <value>/opt/bigdata/hadoop-3.0.0/hdfs/name</value>
    </property>
    <property>
             <name>dfs.datanode.data.dir</name>
             <value>/opt/bigdata/hadoop-3.0.0/hdfs/name</value>
    </property>
    <property>
             <name>dfs.datanode.secondary.http-address</name>
             <value>node1:9001</value>
    </property>
    <property>
             <name>dfs.http.address</name>
             <value>0.0.0.0:50070</value>
    </property>
</configuration>

在这里插入图片描述
(3)配置mapred-site.xml
[root@master hadoop]# vi mapred-site.xml
找到configuration的位置
添加配置信息“

<configuration>
  <property>
    <name>mapred.task.tracker.http.address</name>
    <value>0.0.0.0:50060</value>
  </property>
  <property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
  </property>
  <property>
    <name>mapreduce.application.classpath</name>
    <value>
        /opt/bigdata/hadoop-3.0.0/etc/hadoop,
        /opt/bigdata/hadoop-3.0.0/etc/hadoop/common/*,
        /opt/bigdata/hadoop-3.0.0/etc/hadoop/common/lib/*,
        /opt/bigdata/hadoop-3.0.0/etc/hadoop/hdfs/*,
        /opt/bigdata/hadoop-3.0.0/etc/hadoop/hdfs/lib/*,
        /opt/bigdata/hadoop-3.0.0/etc/hadoop/mapreduce/*,
        /opt/bigdata/hadoop-3.0.0/etc/hadoop/yarn/*,
        /opt/bigdata/hadoop-3.0.0/etc/hadoop/yarn/lib/*
    </value>
  </property>
</configuration>

在这里插入图片描述(4)配置yarn-sit.xml
[root@node3 hadoop]# vi yarn-site.xml
配置内容如下:

<configuration>
<!-- Site specific YARN configuration properties -->
        <property>
                <name>yarn.nodemanager.aux-services</name>
                <value>mapreduce_shuffle</value>
        </property>
        <property>
                <name>yarn.resourcemanager.webapp.address</name>
                <value>master:8099</value>
        </property>
</configuration>

在这里插入图片描述

7.配置worker

[root@master hadoop]# vi workers

在文件works中添加节点名
node1
node2
此处因为前面配置了hosts,所以此处可以直接写主机名,如果没有配置,必须输入相应主机的ip地址。配置的workers,hadoop会把配置在这里的主机当作datanode。

8.hadoop复制到其他host

把hadoop复制到所有datanode节点,此处是node1和node2。
命令如下:
当前目录 :/opt/bigdata

[root@master bigdata]# scp -r hadoop-3.0.0/ node1:/opt/bigdata
[root@master bigdata]# scp -r hadoop-3.0.0/ node2:/opt/bigdata

然后配置node1和node2的环境变量,方法如master一样。
下一篇:

搭建hadoop之启动hadoop平台(四)

  • 5
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

周偏偏偏

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值