HADOOP 集群搭建

搭建Hadoop完全分布式集群

(一·)创建虚拟机:

我的镜像是下载老师给的文件(centos7)

正在上传…重新上传取消

正在上传…重新上传取消

这里我建议选中文!(英语好的当我没说!)

正在上传…重新上传取消

牛逼的可以选最原生态的系统!(单击!)

正在上传…重新上传取消

我比较笨选可视化图形界面!

正在上传…重新上传取消

正在上传…重新上传取消

正在上传…重新上传取消

填一个自己记得住的密码!(你是神仙当我没说)——(点2次完成)

正在上传…重新上传取消

正在上传…重新上传取消

刚刚装完了就点重启——!

正在上传…重新上传取消

正在上传…重新上传取消

这里等的时间都够去睡个觉了!——(重启)

正在上传…重新上传取消

正在上传…重新上传取消

虚拟机创建成功啦!

(学习Hadoop,首先需要搭建Hadoop集群。Hadoop集群可以分为单机版环境,伪分布式环境和完全分布式环境,这里任务要求我们搭建完全分布式集群,要求搭建集群有一个主节点,3个子节点!)

(二)修改虚拟机配置文件:

(1)打开终端——>进入root

正在上传…重新上传取消

(2)修改虚拟机主机名为master   vim /etc/hostname   (你喜欢就master)

正在上传…重新上传取消

esc shift+: wq 保存退出

(3)关闭防火墙

1.查看防火墙状态

systemctl  status firewalld

2.关闭防火墙

systemctl  stop firewalld

3.关闭开机自启动

systemctl disable firewalld

4.查看防火墙状态

systemctl  status firewalld(此时已经关闭)

显示出这个图代表防火墙已经关闭!

正在上传…重新上传取消

(4)设置静态IP

ip route show   ---查看网关

正在上传…重新上传取消

进入网关代码!

vi /etc/sysconfig/network-scripts/ifcfg-ens33

正在上传…重新上传取消

(或者)查看自己电脑IP的另外一种方法

子网IP= IPADDR

子网掩码=NEYMASK

网关= GATEWAY

域名=DNS1       

正在上传…重新上传取消

(5)修改网关

可以查阅书本26页内容进行修改!

没台电脑的ip都是不同的  下面是我的电脑ip

正在上传…重新上传取消

TYPE=Ethernet

PROXY_METHOD=none

BROWSER_ONLY=no

BOOTPROTO=static    ---修改为static

DEFROUTE=yes

IPV4_FAILURE_FATAL=no

IPV6INIT=yes

IPV6_AUTOCONF=yes

IPV6_DEFROUTE=yes

IPV6_FAILURE_FATAL=no

IPV6_ADDR_GEN_MODE=stable-privacy

NAME=ens33

UUID=59642d5f-d12e-4eb4-bf1b-b9c67557c677

DEVICE=ens33

ONBOOT=yes   ---修改为yes

添加如下内容:

IPADDR=192.168.10.100   ---ip

GATEWAY=192.168.100.2  ----网关

DNS1=192.168.100.2    --- 域名

修改好后一定要记得重启网络!

代码:service network restart

(6)查看是否连接外网

代码:ping www.baidu.com

正在上传…重新上传取消

查看 显示  设置 网络设备

代码:ifconfig 或 ifconfig a

正在上传…重新上传取消

显示出这些带表设置静态ip成功

7)连接终端模拟软件

在老师或者在网络上下载好xshell  (Xshell 是一个强大的安全终端模拟软件,它支持SSH1, SSH2, 以及Microsoft Windows 平台的TELNET 协议。

打开xshell

正在上传…重新上传取消

新建会话: (左上角)

正在上传…重新上传取消

输入自己创建虚拟机的ip

正在上传…重新上传取消

点击用户身份验证  (密码:123456)

正在上传…重新上传取消

点击确定: (如图显示表示成功连接虚拟机master)

正在上传…重新上传取消

(8)安装和配置JDK

在根目录 路径/usr/local/ 下新建soft目录  代码:cd //usr/local/ (创建目录代码:mkdir soft)

正在上传…重新上传取消

查看目录是否创建成功 代码:ll 或 ls

正在上传…重新上传取消

利用Xftp 传输已近下载在自己电脑的JDK到虚拟机(master)soft目录文件里面去

正在上传…重新上传取消

(Xftp需要下载)

蓝色地方代表在master里面寻找目录

操作:(从2拖到3)

回到虚拟机(master)soft目录查看jdk是否在当前目录下

正在上传…重新上传取消

解压jdk

代码:tar -zxvf jdk-8u171-linux-x64.tar.gz  (  ß后再次查看目录)

正在上传…重新上传取消

配置jdk环境变量 代码:vi /etc/profile

正在上传…重新上传取消

进入文件滑到最下面 编辑 (按“i”)

正在上传…重新上传取消

(添加内容如下)

#JAVA_HOME

export JAVA_HOME=/usr/local/soft/jdk1.8.0_171

export PATH=$PATH:$JAVA_HOME/bin

退回终端使文件生效  代码:source /etc/profile

正在上传…重新上传取消

查看jdk  代码:java –version

正在上传…重新上传取消

出现图中参数代表jdk配置成功jdk版本要与自己安装的一致

Centos7可能会自带jdk我们要先删除,不过不是所有的都会带!

删除系统自带jdk参考:

正在上传…重新上传取消

(三)克隆子节点虚拟机

1)克隆虚拟机

选中主节点虚拟机(master),我的是caitou    操作:右键--->管理--->克隆

正在上传…重新上传取消

正在上传…重新上传取消

正在上传…重新上传取消

正在上传…重新上传取消

圈中地方自己选择好路径,名字从1到3,方便我们记忆。

正在上传…重新上传取消

ß出现此对话框表示我们已经克隆好了一台,裸虚拟机,称为:子节点虚拟机

(2)修改子节点虚拟机配置

打开子节点虚拟机(CH1) 密码:123456

正在上传…重新上传取消

设置主机名为CH3   代码:vim /etc/hostname   (我已经配到了CH3,你们是CH1)

正在上传…重新上传取消

(*因为是克隆机所以需要改主机名,要不然会重名)

正在上传…重新上传取消

正在上传…重新上传取消

3)需改子节点静态IP

修改IP       代码:vi /etc/sysconfig/network-scripts/ifcfg-ens33

正在上传…重新上传取消

只要修改IP其他不用动    IP=192.168.10.103

*我的因为是第3台机了所以是103

重启子节点网络     代码: service network restart  *每一次修改好ip都要重启网络

正在上传…重新上传取消

查看IP是否修改成功    代码 :ifconfig  或ifcongig a  

正在上传…重新上传取消

可以看到已经是我上面配的 192.168.10.103 了

尝试ping通外网      代码 : ping www.baidu.com

正在上传…重新上传取消

可以看见可以ping通百度了

重启子节点虚拟机(CH3 代码:reboot

正在上传…重新上传取消

可以看见已经从 CH2 变成了CH3了 哈哈哈! (CH是我自己改喜欢的的 可以改成你们改你们自己喜欢的)

(4)其它子节点虚拟机配置

分别要克隆3台子节点虚拟机 步骤同上 一定要和配CH3一样,一定要从主节点(master)虚拟机里面克隆,

我的3台虚拟机IP:

master: IPADDR=192.168.10.100

CH1:     IPADDR=192.168.10.101

CH2:     IPADDR=192.168.10.102

CH3:     IPADDR=192.168.10.103

要保证每一台IP都能修改成功,并且可以ping通外网。

(5)主节点IP 映射

配好其他子节点后打开主节点虚拟机(master) 配置映射  代码:vim /etc/hosts

正在上传…重新上传取消

正在上传…重新上传取消

(6)发送SSH安全协议

从主节点发送ssh安全协议到3处子节点        代码:ssh-keygen -t rsa(l连续三次回车)

*注意看里面要输入一个y

正在上传…重新上传取消

到ssh目录下     代码:cd ~/.ssh

正在上传…重新上传取消

查看目录下文件有没有问题       代码:ll

正在上传…重新上传取消

把ssh安全协议密钥 分发给CH1与CH2 和CH3:

发送给CH1的代码:scp authorized_keys CH1:/root/.ssh   后面同理(NB的也可以ssh-copy-id xxx)

发送给CH2的代码:scp authorized_keys CH2:/root/.ssh

发送给CH3的代码:scp authorized_keys CH3:/root/.ssh

发送成功的截图:

*注意:

要打yes 注意大小写

Password:123456  <-密码      *要输入

正在上传…重新上传取消

要在master上面执行上面3条 同理,一条条来

测试是否可以从主节点机跳转到子节点机

测试    代码:ssh CH3

正在上传…重新上传取消

如图所示表示跳转成功!

退回主节点机继续测试其他2台子节点机器   退回代码:  exit

正在上传…重新上传取消

要测试3个

<-克隆完成

(四)Hadoop安装配置

(1)上传hadoop安装包

进入到我们装jdk的目录      代码:cd /usr/local/soft/    查看里面文件代码:ll

正在上传…重新上传取消

看见只有JDK的安装包和软件      (涂鸦地方你当没看见)

回到桌面打开Xshell 连接上主节点虚拟机(master),再打开Xftp 上传hadoop

正在上传…重新上传取消

*注意一定要在soft目录下

回到主节点虚拟机(master)  再次执行文件查看命令 : ll

正在上传…重新上传取消

看见已经有 hadoop-2.7.7.tar.gz

解压hadoop-2.7.7.tar.gz      代码:tar -zxvf hadoop-2.7.7.tar.gz

正在上传…重新上传取消

正在上传…重新上传取消

*如图所示代表上传解压完成    *在此界面表示hadoop以及安装成功在虚拟机上

(2)配置hadoop环境变量  

***以下添加内容无需修改直接复制

配置环境变量        代码:vi /etc/profile

正在上传…重新上传取消

按i 添加内容  添加内容如下:  

#HADOOP     不用修改

export HADOOP_HOME=/usr/local/soft/hadoop-2.7.7

export PATH=$PATH:${HADOOP_HOME}/bin

export PATH=$PATH:${HADOOP_HOME}/sbin

正在上传…重新上传取消

保存退出查看Hadoop是否配置成功

输入代码:source /etc/profile(使环境变量生效)

正在上传…重新上传取消

查看hadoop配置           代码:hadoop version

正在上传…重新上传取消

如图所示表示配置成功

(3)修改hadoop配置文件

进入hadoop目录                   代码:cd /usr/local/soft/hadoop-2.7.7/etc/hadoop/

正在上传…重新上传取消

使用ll 可以看见很多的文件

修改 slaves文件

代码:vi slaves

正在上传…重新上传取消

修改内容为子节点名字     如下图所示:

正在上传…重新上传取消

以下文件关乎到Hadoop成功失败

* 修改hadoop-env.sh文件

 代码: vi hadoop-env.sh

添加内容:

export JAVA_HOME=/usr/local/soft/jdk1.8.0_171

正在上传…重新上传取消

退出

*修改 core-site.xml      将下面的配置参数加入进去修改成对应自己的

代码:vi core-site.xml

正在上传…重新上传取消

添加内容:

<configuration>

        <property>

                <name>fs.defaultFS</name>

                <value>hdfs://master:9000</value>

        </property>

        <property>

                <name>hadoop.tmp.dir</name>

                <value>/usr/local/soft/hadoop-2.7.7/tmp</value>

        </property>

    <property>

                 <name>fs.trash.interval</name>

                 <value>1440</value>

        </property>

</configuration>

保存退出!

*修改 hdfs-site.xml

代码: vi hdfs-site.Xml

正在上传…重新上传取消

添加内容:

<configuration>

    <property>

        <name>dfs.replication</name>

        <value>1</value>

    </property>

    <property>

        <name>dfs.permissions</name>

        <value>false</value>

    </property>

</configuration>

*配置yarn-site.xml

代码:vi yarn-site.xml

正在上传…重新上传取消

添加内容:

<name>yarn.resourcemanager.hostname</name>
<value>master</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>

*修改 mapred-site.xml

将mapred-site.xml.template 复制一份为 mapred-site.xml

代码:cp mapred-site.xml.template mapred-site.xml

正在上传…重新上传取消

修改mapred-site.xml文件

代码:vi mapred-site.xml

正在上传…重新上传取消

添加内容:

<configuration>

   <property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

<property>  

<name>mapreduce.jobhistory.address</name>  

<value>master:10020</value>  

</property>  

<property>  

<name>mapreduce.jobhistory.webapp.address</name>  

<value>master:19888</value>  

</property>

</configuration>

到这里文件以及修改完成!

4)发送hadoop文件到子节点

将hadoop的安装目录分别拷贝到其他子节点

代码:

scp -r /usr/local/soft/hadoop-2.7.7  CH1:/usr/local/soft/

一条一条来

scp -r /usr/local/soft/hadoop-2.7.7  CH2:/usr/local/soft/

一条一条来

scp -r /usr/local/soft/hadoop-2.7.7  CH3:/usr/local/soft/

(5) 启动Hadoop

首先看下hadoop-2.7.7目录下有没有tmp文件夹

代码:cd  /usr/local/soft/hadoop-2.7.7目录下

如果没有 执行一次格式化命令:   执行命令:./bin/hdfs namenode -format

正在上传…重新上传取消

进入Hadoop目录:

cd /usr/local/soft/hadoop-2.7.7目录下

  启动执行: sbin/start-dfs.sh

正在上传…重新上传取消

sbin/start-dfs.sh  启动成功

  启动执行: sbin/start-yarn.sh

  

正在上传…重新上传取消

sbin/start-yarn.sh 启动成功

启动执行: sbin/mr-jobhistory-daemon.sh start historyserver

正在上传…重新上传取消

sbin/mr-jobhistory-daemon.sh start historyserver 启动成功

启动完成后通过jps命令查看验证进程:  代码:jps

主节点进程为下面几个(下面是进程名称,不是命令):

正在上传…重新上传取消

子节点进程 (在CH1和CH2和CH3上分别输入命令:jps)

CH1节点

正在上传…重新上传取消

CH2 节点

正在上传…重新上传取消

CH3一样

必须要有以上进程才算成功,要不然Hadoop跑不了

(五)HADOOP搭建完成截图

(1)HDFS Web界面

正在上传…重新上传取消

(2)YARN WEB界面

正在上传…重新上传取消

(3)MapReduce Web 界面

正在上传…重新上传取消

(完结)

关闭日志文件:

代码:sbin/mr-jobhistory-daemon.sh stop historyserver

搭建Hadoop完全分布式集群

(一·)创建虚拟机:

我的镜像是下载老师给的文件(centos7)

正在上传…重新上传取消

正在上传…重新上传取消

这里我建议选中文!(英语好的当我没说!)

正在上传…重新上传取消

牛逼的可以选最原生态的系统!(单击!)

正在上传…重新上传取消

我比较笨选可视化图形界面!

正在上传…重新上传取消

正在上传…重新上传取消

正在上传…重新上传取消

填一个自己记得住的密码!(你是神仙当我没说)——(点2次完成)

正在上传…重新上传取消

正在上传…重新上传取消

刚刚装完了就点重启——!

正在上传…重新上传取消

正在上传…重新上传取消

这里等的时间都够去睡个觉了!——(重启)

正在上传…重新上传取消

正在上传…重新上传取消

虚拟机创建成功啦!

(学习Hadoop,首先需要搭建Hadoop集群。Hadoop集群可以分为单机版环境,伪分布式环境和完全分布式环境,这里任务要求我们搭建完全分布式集群,要求搭建集群有一个主节点,3个子节点!)

(二)修改虚拟机配置文件:

(1)打开终端——>进入root

正在上传…重新上传取消

(2)修改虚拟机主机名为master   vim /etc/hostname   (你喜欢就master)

正在上传…重新上传取消

esc shift+: wq 保存退出

(3)关闭防火墙

1.查看防火墙状态

systemctl  status firewalld

2.关闭防火墙

systemctl  stop firewalld

3.关闭开机自启动

systemctl disable firewalld

4.查看防火墙状态

systemctl  status firewalld(此时已经关闭)

显示出这个图代表防火墙已经关闭!

正在上传…重新上传取消

(4)设置静态IP

ip route show   ---查看网关

正在上传…重新上传取消

进入网关代码!

vi /etc/sysconfig/network-scripts/ifcfg-ens33

正在上传…重新上传取消

(或者)查看自己电脑IP的另外一种方法

子网IP= IPADDR

子网掩码=NEYMASK

网关= GATEWAY

域名=DNS1       

正在上传…重新上传取消

(5)修改网关

可以查阅书本26页内容进行修改!

没台电脑的ip都是不同的  下面是我的电脑ip

正在上传…重新上传取消

TYPE=Ethernet

PROXY_METHOD=none

BROWSER_ONLY=no

BOOTPROTO=static    ---修改为static

DEFROUTE=yes

IPV4_FAILURE_FATAL=no

IPV6INIT=yes

IPV6_AUTOCONF=yes

IPV6_DEFROUTE=yes

IPV6_FAILURE_FATAL=no

IPV6_ADDR_GEN_MODE=stable-privacy

NAME=ens33

UUID=59642d5f-d12e-4eb4-bf1b-b9c67557c677

DEVICE=ens33

ONBOOT=yes   ---修改为yes

添加如下内容:

IPADDR=192.168.10.100   ---ip

GATEWAY=192.168.100.2  ----网关

DNS1=192.168.100.2    --- 域名

修改好后一定要记得重启网络!

代码:service network restart

(6)查看是否连接外网

代码:ping www.baidu.com

正在上传…重新上传取消

查看 显示  设置 网络设备

代码:ifconfig 或 ifconfig a

正在上传…重新上传取消

显示出这些带表设置静态ip成功

7)连接终端模拟软件

在老师或者在网络上下载好xshell  (Xshell 是一个强大的安全终端模拟软件,它支持SSH1, SSH2, 以及Microsoft Windows 平台的TELNET 协议。

打开xshell

正在上传…重新上传取消

新建会话: (左上角)

正在上传…重新上传取消

输入自己创建虚拟机的ip

正在上传…重新上传取消

点击用户身份验证  (密码:123456)

正在上传…重新上传取消

点击确定: (如图显示表示成功连接虚拟机master)

正在上传…重新上传取消

(8)安装和配置JDK

在根目录 路径/usr/local/ 下新建soft目录  代码:cd //usr/local/ (创建目录代码:mkdir soft)

正在上传…重新上传取消

查看目录是否创建成功 代码:ll 或 ls

正在上传…重新上传取消

利用Xftp 传输已近下载在自己电脑的JDK到虚拟机(master)soft目录文件里面去

正在上传…重新上传取消

(Xftp需要下载)

蓝色地方代表在master里面寻找目录

操作:(从2拖到3)

回到虚拟机(master)soft目录查看jdk是否在当前目录下

正在上传…重新上传取消

解压jdk

代码:tar -zxvf jdk-8u171-linux-x64.tar.gz  (  ß后再次查看目录)

正在上传…重新上传取消

配置jdk环境变量 代码:vi /etc/profile

正在上传…重新上传取消

进入文件滑到最下面 编辑 (按“i”)

正在上传…重新上传取消

(添加内容如下)

#JAVA_HOME

export JAVA_HOME=/usr/local/soft/jdk1.8.0_171

export PATH=$PATH:$JAVA_HOME/bin

退回终端使文件生效  代码:source /etc/profile

正在上传…重新上传取消

查看jdk  代码:java –version

正在上传…重新上传取消

出现图中参数代表jdk配置成功jdk版本要与自己安装的一致

Centos7可能会自带jdk我们要先删除,不过不是所有的都会带!

删除系统自带jdk参考:

正在上传…重新上传取消

(三)克隆子节点虚拟机

1)克隆虚拟机

选中主节点虚拟机(master),我的是caitou    操作:右键--->管理--->克隆

正在上传…重新上传取消

正在上传…重新上传取消

正在上传…重新上传取消

正在上传…重新上传取消

圈中地方自己选择好路径,名字从1到3,方便我们记忆。

正在上传…重新上传取消

ß出现此对话框表示我们已经克隆好了一台,裸虚拟机,称为:子节点虚拟机

(2)修改子节点虚拟机配置

打开子节点虚拟机(CH1) 密码:123456

正在上传…重新上传取消

设置主机名为CH3   代码:vim /etc/hostname   (我已经配到了CH3,你们是CH1)

正在上传…重新上传取消

(*因为是克隆机所以需要改主机名,要不然会重名)

正在上传…重新上传取消

正在上传…重新上传取消

3)需改子节点静态IP

修改IP       代码:vi /etc/sysconfig/network-scripts/ifcfg-ens33

正在上传…重新上传取消

只要修改IP其他不用动    IP=192.168.10.103

*我的因为是第3台机了所以是103

重启子节点网络     代码: service network restart  *每一次修改好ip都要重启网络

正在上传…重新上传取消

查看IP是否修改成功    代码 :ifconfig  或ifcongig a  

正在上传…重新上传取消

可以看到已经是我上面配的 192.168.10.103 了

尝试ping通外网      代码 : ping www.baidu.com

正在上传…重新上传取消

可以看见可以ping通百度了

重启子节点虚拟机(CH3 代码:reboot

正在上传…重新上传取消

可以看见已经从 CH2 变成了CH3了 哈哈哈! (CH是我自己改喜欢的的 可以改成你们改你们自己喜欢的)

(4)其它子节点虚拟机配置

分别要克隆3台子节点虚拟机 步骤同上 一定要和配CH3一样,一定要从主节点(master)虚拟机里面克隆,

我的3台虚拟机IP:

master: IPADDR=192.168.10.100

CH1:     IPADDR=192.168.10.101

CH2:     IPADDR=192.168.10.102

CH3:     IPADDR=192.168.10.103

要保证每一台IP都能修改成功,并且可以ping通外网。

(5)主节点IP 映射

配好其他子节点后打开主节点虚拟机(master) 配置映射  代码:vim /etc/hosts

正在上传…重新上传取消

正在上传…重新上传取消

(6)发送SSH安全协议

从主节点发送ssh安全协议到3处子节点        代码:ssh-keygen -t rsa(l连续三次回车)

*注意看里面要输入一个y

正在上传…重新上传取消

到ssh目录下     代码:cd ~/.ssh

正在上传…重新上传取消

查看目录下文件有没有问题       代码:ll

正在上传…重新上传取消

把ssh安全协议密钥 分发给CH1与CH2 和CH3:

发送给CH1的代码:scp authorized_keys CH1:/root/.ssh   后面同理(NB的也可以ssh-copy-id xxx)

发送给CH2的代码:scp authorized_keys CH2:/root/.ssh

发送给CH3的代码:scp authorized_keys CH3:/root/.ssh

发送成功的截图:

*注意:

要打yes 注意大小写

Password:123456  <-密码      *要输入

正在上传…重新上传取消

要在master上面执行上面3条 同理,一条条来

测试是否可以从主节点机跳转到子节点机

测试    代码:ssh CH3

正在上传…重新上传取消

如图所示表示跳转成功!

退回主节点机继续测试其他2台子节点机器   退回代码:  exit

正在上传…重新上传取消

要测试3个

<-克隆完成

(四)Hadoop安装配置

(1)上传hadoop安装包

进入到我们装jdk的目录      代码:cd /usr/local/soft/    查看里面文件代码:ll

正在上传…重新上传取消

看见只有JDK的安装包和软件      (涂鸦地方你当没看见)

回到桌面打开Xshell 连接上主节点虚拟机(master),再打开Xftp 上传hadoop

正在上传…重新上传取消

*注意一定要在soft目录下

回到主节点虚拟机(master)  再次执行文件查看命令 : ll

正在上传…重新上传取消

看见已经有 hadoop-2.7.7.tar.gz

解压hadoop-2.7.7.tar.gz      代码:tar -zxvf hadoop-2.7.7.tar.gz

正在上传…重新上传取消

正在上传…重新上传取消

*如图所示代表上传解压完成    *在此界面表示hadoop以及安装成功在虚拟机上

(2)配置hadoop环境变量  

***以下添加内容无需修改直接复制

配置环境变量        代码:vi /etc/profile

正在上传…重新上传取消

按i 添加内容  添加内容如下:  

#HADOOP     不用修改

export HADOOP_HOME=/usr/local/soft/hadoop-2.7.7

export PATH=$PATH:${HADOOP_HOME}/bin

export PATH=$PATH:${HADOOP_HOME}/sbin

正在上传…重新上传取消

保存退出查看Hadoop是否配置成功

输入代码:source /etc/profile(使环境变量生效)

正在上传…重新上传取消

查看hadoop配置           代码:hadoop version

正在上传…重新上传取消

如图所示表示配置成功

(3)修改hadoop配置文件

进入hadoop目录                   代码:cd /usr/local/soft/hadoop-2.7.7/etc/hadoop/

正在上传…重新上传取消

使用ll 可以看见很多的文件

修改 slaves文件

代码:vi slaves

正在上传…重新上传取消

修改内容为子节点名字     如下图所示:

正在上传…重新上传取消

以下文件关乎到Hadoop成功失败

* 修改hadoop-env.sh文件

 代码: vi hadoop-env.sh

添加内容:

export JAVA_HOME=/usr/local/soft/jdk1.8.0_171

正在上传…重新上传取消

退出

*修改 core-site.xml      将下面的配置参数加入进去修改成对应自己的

代码:vi core-site.xml

正在上传…重新上传取消

添加内容:

<configuration>

        <property>

                <name>fs.defaultFS</name>

                <value>hdfs://master:9000</value>

        </property>

        <property>

                <name>hadoop.tmp.dir</name>

                <value>/usr/local/soft/hadoop-2.7.7/tmp</value>

        </property>

    <property>

                 <name>fs.trash.interval</name>

                 <value>1440</value>

        </property>

</configuration>

保存退出!

*修改 hdfs-site.xml

代码: vi hdfs-site.Xml

正在上传…重新上传取消

添加内容:

<configuration>

    <property>

        <name>dfs.replication</name>

        <value>1</value>

    </property>

    <property>

        <name>dfs.permissions</name>

        <value>false</value>

    </property>

</configuration>

*配置yarn-site.xml

代码:vi yarn-site.xml

正在上传…重新上传取消

添加内容:

<name>yarn.resourcemanager.hostname</name>
<value>master</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>

*修改 mapred-site.xml

将mapred-site.xml.template 复制一份为 mapred-site.xml

代码:cp mapred-site.xml.template mapred-site.xml

正在上传…重新上传取消

修改mapred-site.xml文件

代码:vi mapred-site.xml

正在上传…重新上传取消

添加内容:

<configuration>

   <property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

<property>  

<name>mapreduce.jobhistory.address</name>  

<value>master:10020</value>  

</property>  

<property>  

<name>mapreduce.jobhistory.webapp.address</name>  

<value>master:19888</value>  

</property>

</configuration>

到这里文件以及修改完成!

4)发送hadoop文件到子节点

将hadoop的安装目录分别拷贝到其他子节点

代码:

scp -r /usr/local/soft/hadoop-2.7.7  CH1:/usr/local/soft/

一条一条来

scp -r /usr/local/soft/hadoop-2.7.7  CH2:/usr/local/soft/

一条一条来

scp -r /usr/local/soft/hadoop-2.7.7  CH3:/usr/local/soft/

(5) 启动Hadoop

首先看下hadoop-2.7.7目录下有没有tmp文件夹

代码:cd  /usr/local/soft/hadoop-2.7.7目录下

如果没有 执行一次格式化命令:   执行命令:./bin/hdfs namenode -format

正在上传…重新上传取消

进入Hadoop目录:

cd /usr/local/soft/hadoop-2.7.7目录下

  启动执行: sbin/start-dfs.sh

正在上传…重新上传取消

sbin/start-dfs.sh  启动成功

  启动执行: sbin/start-yarn.sh

  

正在上传…重新上传取消

sbin/start-yarn.sh 启动成功

启动执行: sbin/mr-jobhistory-daemon.sh start historyserver

正在上传…重新上传取消

sbin/mr-jobhistory-daemon.sh start historyserver 启动成功

启动完成后通过jps命令查看验证进程:  代码:jps

主节点进程为下面几个(下面是进程名称,不是命令):

正在上传…重新上传取消

子节点进程 (在CH1和CH2和CH3上分别输入命令:jps)

CH1节点

正在上传…重新上传取消

CH2 节点

正在上传…重新上传取消

CH3一样

必须要有以上进程才算成功,要不然Hadoop跑不了

(五)HADOOP搭建完成截图

(1)HDFS Web界面

正在上传…重新上传取消

(2)YARN WEB界面

正在上传…重新上传取消

(3)MapReduce Web 界面

正在上传…重新上传取消

(完结)

关闭日志文件:

代码:sbin/mr-jobhistory-daemon.sh stop historyserver

正在上传…重新上传取消

关闭 yarn

  代码:sbin/stop-yarn.sh

正在上传…重新上传取消

关闭 dfs

   代码: sbin/stop-dfs.sh

正在上传…重新上传取消

正在上传…重新上传取消

关闭 yarn

  代码:sbin/stop-yarn.sh

正在上传…重新上传取消

关闭 dfs

   代码: sbin/stop-dfs.sh

正在上传…重新上传取消

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值