搭建Hadoop完全分布式集群
(一·)创建虚拟机:
我的镜像是下载老师给的文件(centos7)
正在上传…重新上传取消
正在上传…重新上传取消
这里我建议选中文!(英语好的当我没说!)
正在上传…重新上传取消
牛逼的可以选最原生态的系统!(单击!)
正在上传…重新上传取消
我比较笨选可视化图形界面!
正在上传…重新上传取消
正在上传…重新上传取消
正在上传…重新上传取消
填一个自己记得住的密码!(你是神仙当我没说)——(点2次完成)
正在上传…重新上传取消
正在上传…重新上传取消
刚刚装完了就点重启——!
正在上传…重新上传取消
正在上传…重新上传取消
这里等的时间都够去睡个觉了!——(重启)
正在上传…重新上传取消
正在上传…重新上传取消
虚拟机创建成功啦!
(学习Hadoop,首先需要搭建Hadoop集群。Hadoop集群可以分为单机版环境,伪分布式环境和完全分布式环境,这里任务要求我们搭建完全分布式集群,要求搭建集群有一个主节点,3个子节点!)
(二)修改虚拟机配置文件:
(1)打开终端——>进入root
正在上传…重新上传取消
(2)修改虚拟机主机名为master vim /etc/hostname (你喜欢就master)
正在上传…重新上传取消
esc shift+: wq 保存退出
(3)关闭防火墙
1.查看防火墙状态
systemctl status firewalld
2.关闭防火墙
systemctl stop firewalld
3.关闭开机自启动
systemctl disable firewalld
4.查看防火墙状态
systemctl status firewalld(此时已经关闭)
显示出这个图代表防火墙已经关闭!
正在上传…重新上传取消
(4)设置静态IP
ip route show ---查看网关
正在上传…重新上传取消
进入网关代码!
vi /etc/sysconfig/network-scripts/ifcfg-ens33
正在上传…重新上传取消
(或者)查看自己电脑IP的另外一种方法
子网IP= IPADDR
子网掩码=NEYMASK
网关= GATEWAY
域名=DNS1
正在上传…重新上传取消
(5)修改网关
可以查阅书本26页内容进行修改!
没台电脑的ip都是不同的 下面是我的电脑ip
正在上传…重新上传取消
TYPE=Ethernet
PROXY_METHOD=none
BROWSER_ONLY=no
BOOTPROTO=static ---修改为static
DEFROUTE=yes
IPV4_FAILURE_FATAL=no
IPV6INIT=yes
IPV6_AUTOCONF=yes
IPV6_DEFROUTE=yes
IPV6_FAILURE_FATAL=no
IPV6_ADDR_GEN_MODE=stable-privacy
NAME=ens33
UUID=59642d5f-d12e-4eb4-bf1b-b9c67557c677
DEVICE=ens33
ONBOOT=yes ---修改为yes
添加如下内容:
IPADDR=192.168.10.100 ---ip
GATEWAY=192.168.100.2 ----网关
DNS1=192.168.100.2 --- 域名
修改好后一定要记得重启网络!
代码:service network restart
(6)查看是否连接外网
代码:ping www.baidu.com
正在上传…重新上传取消
查看 显示 或 设置 网络设备
代码:ifconfig 或 ifconfig –a
正在上传…重新上传取消
显示出这些带表设置静态ip成功
(7)连接终端模拟软件
在老师或者在网络上下载好xshell (Xshell 是一个强大的安全终端模拟软件,它支持SSH1, SSH2, 以及Microsoft Windows 平台的TELNET 协议。)
打开xshell
正在上传…重新上传取消
新建会话: (左上角)
正在上传…重新上传取消
输入自己创建虚拟机的ip
正在上传…重新上传取消
点击用户身份验证 (密码:123456)
正在上传…重新上传取消
点击确定: (如图显示表示成功连接虚拟机master)
正在上传…重新上传取消
(8)安装和配置JDK
在根目录 路径/usr/local/ 下新建soft目录 代码:cd //usr/local/ (创建目录代码:mkdir soft)
正在上传…重新上传取消
查看目录是否创建成功 代码:ll 或 ls
正在上传…重新上传取消
利用Xftp 传输已近下载在自己电脑的JDK到虚拟机(master)soft目录文件里面去
正在上传…重新上传取消
(Xftp需要下载)
蓝色地方代表在master里面寻找目录
操作:(从2拖到3)
回到虚拟机(master)soft目录查看jdk是否在当前目录下
正在上传…重新上传取消
解压jdk
代码:tar -zxvf jdk-8u171-linux-x64.tar.gz ( ß后再次查看目录)
正在上传…重新上传取消
配置jdk环境变量 代码:vi /etc/profile
正在上传…重新上传取消
进入文件滑到最下面 编辑 (按“i”)
正在上传…重新上传取消
(添加内容如下)
#JAVA_HOME
export JAVA_HOME=/usr/local/soft/jdk1.8.0_171
export PATH=$PATH:$JAVA_HOME/bin
退回终端使文件生效 代码:source /etc/profile
正在上传…重新上传取消
查看jdk 代码:java –version
正在上传…重新上传取消
出现图中参数代表jdk配置成功(jdk版本要与自己安装的一致)
Centos7可能会自带jdk我们要先删除,不过不是所有的都会带!
删除系统自带jdk参考:
正在上传…重新上传取消
(三)克隆子节点虚拟机
(1)克隆虚拟机
选中主节点虚拟机(master),我的是caitou 操作:右键--->管理--->克隆
正在上传…重新上传取消
正在上传…重新上传取消
正在上传…重新上传取消
正在上传…重新上传取消
圈中地方自己选择好路径,名字从1到3,方便我们记忆。
正在上传…重新上传取消
ß出现此对话框表示我们已经克隆好了一台,裸虚拟机,称为:子节点虚拟机
(2)修改子节点虚拟机配置
打开子节点虚拟机(CH1) 密码:123456
正在上传…重新上传取消
设置主机名为CH3 代码:vim /etc/hostname (我已经配到了CH3,你们是CH1)
正在上传…重新上传取消
(*因为是克隆机所以需要改主机名,要不然会重名)
正在上传…重新上传取消
正在上传…重新上传取消
(3)需改子节点静态IP
修改IP 代码:vi /etc/sysconfig/network-scripts/ifcfg-ens33
正在上传…重新上传取消
只要修改IP其他不用动 IP=192.168.10.103
*我的因为是第3台机了所以是103
重启子节点网络 代码: service network restart *每一次修改好ip都要重启网络
正在上传…重新上传取消
查看IP是否修改成功 代码 :ifconfig 或ifcongig –a
正在上传…重新上传取消
可以看到已经是我上面配的 192.168.10.103 了
尝试ping通外网 代码 : ping www.baidu.com
正在上传…重新上传取消
可以看见可以ping通百度了
重启子节点虚拟机(CH3) 代码:reboot
正在上传…重新上传取消
可以看见已经从 CH2 变成了CH3了 哈哈哈! (CH是我自己改喜欢的的 可以改成你们改你们自己喜欢的)
(4)其它子节点虚拟机配置
分别要克隆3台子节点虚拟机 步骤同上 一定要和配CH3一样,一定要从主节点(master)虚拟机里面克隆,
我的3台虚拟机IP:
master: IPADDR=192.168.10.100
CH1: IPADDR=192.168.10.101
CH2: IPADDR=192.168.10.102
CH3: IPADDR=192.168.10.103
要保证每一台IP都能修改成功,并且可以ping通外网。
(5)主节点IP 映射
配好其他子节点后打开主节点虚拟机(master) 配置映射 代码:vim /etc/hosts
正在上传…重新上传取消
正在上传…重新上传取消
(6)发送SSH安全协议
从主节点发送ssh安全协议到3处子节点 代码:ssh-keygen -t rsa(l连续三次回车)
*注意看里面要输入一个y
正在上传…重新上传取消
到ssh目录下 代码:cd ~/.ssh
正在上传…重新上传取消
查看目录下文件有没有问题 代码:ll
正在上传…重新上传取消
把ssh安全协议密钥 分发给CH1与CH2 和CH3:
发送给CH1的代码:scp authorized_keys CH1:/root/.ssh 后面同理(NB的也可以ssh-copy-id xxx)
发送给CH2的代码:scp authorized_keys CH2:/root/.ssh
发送给CH3的代码:scp authorized_keys CH3:/root/.ssh
发送成功的截图:
*注意:
要打yes 注意大小写
Password:123456 <-密码 *要输入
正在上传…重新上传取消
要在master上面执行上面3条 同理,一条条来
测试是否可以从主节点机跳转到子节点机
测试 代码:ssh CH3
正在上传…重新上传取消
如图所示表示跳转成功!
退回主节点机继续测试其他2台子节点机器 退回代码: exit
正在上传…重新上传取消
要测试3个
<-克隆完成
(四)Hadoop安装配置
(1)上传hadoop安装包
进入到我们装jdk的目录 代码:cd /usr/local/soft/ 查看里面文件代码:ll
正在上传…重新上传取消
看见只有JDK的安装包和软件 (涂鸦地方你当没看见)
回到桌面打开Xshell 连接上主节点虚拟机(master),再打开Xftp 上传hadoop
正在上传…重新上传取消
*注意一定要在soft目录下
回到主节点虚拟机(master) 再次执行文件查看命令 : ll
正在上传…重新上传取消
看见已经有 hadoop-2.7.7.tar.gz
解压hadoop-2.7.7.tar.gz 代码:tar -zxvf hadoop-2.7.7.tar.gz
正在上传…重新上传取消
正在上传…重新上传取消
*如图所示代表上传解压完成 *在此界面表示hadoop以及安装成功在虚拟机上
(2)配置hadoop环境变量
***以下添加内容无需修改直接复制
配置环境变量 代码:vi /etc/profile
正在上传…重新上传取消
按i 添加内容 添加内容如下:
#HADOOP 不用修改
export HADOOP_HOME=/usr/local/soft/hadoop-2.7.7
export PATH=$PATH:${HADOOP_HOME}/bin
export PATH=$PATH:${HADOOP_HOME}/sbin
正在上传…重新上传取消
保存退出查看Hadoop是否配置成功
输入代码:source /etc/profile(使环境变量生效)
正在上传…重新上传取消
查看hadoop配置 代码:hadoop version
正在上传…重新上传取消
如图所示表示配置成功
(3)修改hadoop配置文件
进入hadoop目录 代码:cd /usr/local/soft/hadoop-2.7.7/etc/hadoop/
正在上传…重新上传取消
使用ll 可以看见很多的文件
修改 slaves文件
代码:vi slaves
正在上传…重新上传取消
修改内容为子节点名字 如下图所示:
正在上传…重新上传取消
以下文件关乎到Hadoop成功失败
* 修改hadoop-env.sh文件
代码: vi hadoop-env.sh
添加内容:
export JAVA_HOME=/usr/local/soft/jdk1.8.0_171
正在上传…重新上传取消
退出
*修改 core-site.xml 将下面的配置参数加入进去修改成对应自己的
代码:vi core-site.xml
正在上传…重新上传取消
添加内容:
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/soft/hadoop-2.7.7/tmp</value>
</property>
<property>
<name>fs.trash.interval</name>
<value>1440</value>
</property>
</configuration>
保存退出!
*修改 hdfs-site.xml
代码: vi hdfs-site.Xml
正在上传…重新上传取消
添加内容:
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
</configuration>
*配置yarn-site.xml
代码:vi yarn-site.xml
正在上传…重新上传取消
添加内容:
<name>yarn.resourcemanager.hostname</name>
<value>master</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
*修改 mapred-site.xml
将mapred-site.xml.template 复制一份为 mapred-site.xml
代码:cp mapred-site.xml.template mapred-site.xml
正在上传…重新上传取消
修改mapred-site.xml文件
代码:vi mapred-site.xml
正在上传…重新上传取消
添加内容:
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>master:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>master:19888</value>
</property>
</configuration>
到这里文件以及修改完成!
(4)发送hadoop文件到子节点
将hadoop的安装目录分别拷贝到其他子节点
代码:
scp -r /usr/local/soft/hadoop-2.7.7 CH1:/usr/local/soft/
一条一条来
scp -r /usr/local/soft/hadoop-2.7.7 CH2:/usr/local/soft/
一条一条来
scp -r /usr/local/soft/hadoop-2.7.7 CH3:/usr/local/soft/
(5) 启动Hadoop
首先看下hadoop-2.7.7目录下有没有tmp文件夹
代码:cd /usr/local/soft/hadoop-2.7.7目录下
如果没有 执行一次格式化命令: 执行命令:./bin/hdfs namenode -format
正在上传…重新上传取消
进入Hadoop目录:
cd /usr/local/soft/hadoop-2.7.7目录下
启动执行: sbin/start-dfs.sh
正在上传…重新上传取消
sbin/start-dfs.sh 启动成功
启动执行: sbin/start-yarn.sh
正在上传…重新上传取消
sbin/start-yarn.sh 启动成功
启动执行: sbin/mr-jobhistory-daemon.sh start historyserver
正在上传…重新上传取消
sbin/mr-jobhistory-daemon.sh start historyserver 启动成功
启动完成后通过jps命令查看验证进程: 代码:jps
主节点进程为下面几个(下面是进程名称,不是命令):
正在上传…重新上传取消
子节点进程 (在CH1和CH2和CH3上分别输入命令:jps)
CH1节点
正在上传…重新上传取消
CH2 节点
正在上传…重新上传取消
CH3一样
必须要有以上进程才算成功,要不然Hadoop跑不了
(五)HADOOP搭建完成截图
(1)HDFS Web界面
正在上传…重新上传取消
(2)YARN WEB界面
正在上传…重新上传取消
(3)MapReduce Web 界面
正在上传…重新上传取消
(完结)
关闭日志文件:
代码:sbin/mr-jobhistory-daemon.sh stop historyserver
搭建Hadoop完全分布式集群
(一·)创建虚拟机:
我的镜像是下载老师给的文件(centos7)
正在上传…重新上传取消
正在上传…重新上传取消
这里我建议选中文!(英语好的当我没说!)
正在上传…重新上传取消
牛逼的可以选最原生态的系统!(单击!)
正在上传…重新上传取消
我比较笨选可视化图形界面!
正在上传…重新上传取消
正在上传…重新上传取消
正在上传…重新上传取消
填一个自己记得住的密码!(你是神仙当我没说)——(点2次完成)
正在上传…重新上传取消
正在上传…重新上传取消
刚刚装完了就点重启——!
正在上传…重新上传取消
正在上传…重新上传取消
这里等的时间都够去睡个觉了!——(重启)
正在上传…重新上传取消
正在上传…重新上传取消
虚拟机创建成功啦!
(学习Hadoop,首先需要搭建Hadoop集群。Hadoop集群可以分为单机版环境,伪分布式环境和完全分布式环境,这里任务要求我们搭建完全分布式集群,要求搭建集群有一个主节点,3个子节点!)
(二)修改虚拟机配置文件:
(1)打开终端——>进入root
正在上传…重新上传取消
(2)修改虚拟机主机名为master vim /etc/hostname (你喜欢就master)
正在上传…重新上传取消
esc shift+: wq 保存退出
(3)关闭防火墙
1.查看防火墙状态
systemctl status firewalld
2.关闭防火墙
systemctl stop firewalld
3.关闭开机自启动
systemctl disable firewalld
4.查看防火墙状态
systemctl status firewalld(此时已经关闭)
显示出这个图代表防火墙已经关闭!
正在上传…重新上传取消
(4)设置静态IP
ip route show ---查看网关
正在上传…重新上传取消
进入网关代码!
vi /etc/sysconfig/network-scripts/ifcfg-ens33
正在上传…重新上传取消
(或者)查看自己电脑IP的另外一种方法
子网IP= IPADDR
子网掩码=NEYMASK
网关= GATEWAY
域名=DNS1
正在上传…重新上传取消
(5)修改网关
可以查阅书本26页内容进行修改!
没台电脑的ip都是不同的 下面是我的电脑ip
正在上传…重新上传取消
TYPE=Ethernet
PROXY_METHOD=none
BROWSER_ONLY=no
BOOTPROTO=static ---修改为static
DEFROUTE=yes
IPV4_FAILURE_FATAL=no
IPV6INIT=yes
IPV6_AUTOCONF=yes
IPV6_DEFROUTE=yes
IPV6_FAILURE_FATAL=no
IPV6_ADDR_GEN_MODE=stable-privacy
NAME=ens33
UUID=59642d5f-d12e-4eb4-bf1b-b9c67557c677
DEVICE=ens33
ONBOOT=yes ---修改为yes
添加如下内容:
IPADDR=192.168.10.100 ---ip
GATEWAY=192.168.100.2 ----网关
DNS1=192.168.100.2 --- 域名
修改好后一定要记得重启网络!
代码:service network restart
(6)查看是否连接外网
代码:ping www.baidu.com
正在上传…重新上传取消
查看 显示 或 设置 网络设备
代码:ifconfig 或 ifconfig –a
正在上传…重新上传取消
显示出这些带表设置静态ip成功
(7)连接终端模拟软件
在老师或者在网络上下载好xshell (Xshell 是一个强大的安全终端模拟软件,它支持SSH1, SSH2, 以及Microsoft Windows 平台的TELNET 协议。)
打开xshell
正在上传…重新上传取消
新建会话: (左上角)
正在上传…重新上传取消
输入自己创建虚拟机的ip
正在上传…重新上传取消
点击用户身份验证 (密码:123456)
正在上传…重新上传取消
点击确定: (如图显示表示成功连接虚拟机master)
正在上传…重新上传取消
(8)安装和配置JDK
在根目录 路径/usr/local/ 下新建soft目录 代码:cd //usr/local/ (创建目录代码:mkdir soft)
正在上传…重新上传取消
查看目录是否创建成功 代码:ll 或 ls
正在上传…重新上传取消
利用Xftp 传输已近下载在自己电脑的JDK到虚拟机(master)soft目录文件里面去
正在上传…重新上传取消
(Xftp需要下载)
蓝色地方代表在master里面寻找目录
操作:(从2拖到3)
回到虚拟机(master)soft目录查看jdk是否在当前目录下
正在上传…重新上传取消
解压jdk
代码:tar -zxvf jdk-8u171-linux-x64.tar.gz ( ß后再次查看目录)
正在上传…重新上传取消
配置jdk环境变量 代码:vi /etc/profile
正在上传…重新上传取消
进入文件滑到最下面 编辑 (按“i”)
正在上传…重新上传取消
(添加内容如下)
#JAVA_HOME
export JAVA_HOME=/usr/local/soft/jdk1.8.0_171
export PATH=$PATH:$JAVA_HOME/bin
退回终端使文件生效 代码:source /etc/profile
正在上传…重新上传取消
查看jdk 代码:java –version
正在上传…重新上传取消
出现图中参数代表jdk配置成功(jdk版本要与自己安装的一致)
Centos7可能会自带jdk我们要先删除,不过不是所有的都会带!
删除系统自带jdk参考:
正在上传…重新上传取消
(三)克隆子节点虚拟机
(1)克隆虚拟机
选中主节点虚拟机(master),我的是caitou 操作:右键--->管理--->克隆
正在上传…重新上传取消
正在上传…重新上传取消
正在上传…重新上传取消
正在上传…重新上传取消
圈中地方自己选择好路径,名字从1到3,方便我们记忆。
正在上传…重新上传取消
ß出现此对话框表示我们已经克隆好了一台,裸虚拟机,称为:子节点虚拟机
(2)修改子节点虚拟机配置
打开子节点虚拟机(CH1) 密码:123456
正在上传…重新上传取消
设置主机名为CH3 代码:vim /etc/hostname (我已经配到了CH3,你们是CH1)
正在上传…重新上传取消
(*因为是克隆机所以需要改主机名,要不然会重名)
正在上传…重新上传取消
正在上传…重新上传取消
(3)需改子节点静态IP
修改IP 代码:vi /etc/sysconfig/network-scripts/ifcfg-ens33
正在上传…重新上传取消
只要修改IP其他不用动 IP=192.168.10.103
*我的因为是第3台机了所以是103
重启子节点网络 代码: service network restart *每一次修改好ip都要重启网络
正在上传…重新上传取消
查看IP是否修改成功 代码 :ifconfig 或ifcongig –a
正在上传…重新上传取消
可以看到已经是我上面配的 192.168.10.103 了
尝试ping通外网 代码 : ping www.baidu.com
正在上传…重新上传取消
可以看见可以ping通百度了
重启子节点虚拟机(CH3) 代码:reboot
正在上传…重新上传取消
可以看见已经从 CH2 变成了CH3了 哈哈哈! (CH是我自己改喜欢的的 可以改成你们改你们自己喜欢的)
(4)其它子节点虚拟机配置
分别要克隆3台子节点虚拟机 步骤同上 一定要和配CH3一样,一定要从主节点(master)虚拟机里面克隆,
我的3台虚拟机IP:
master: IPADDR=192.168.10.100
CH1: IPADDR=192.168.10.101
CH2: IPADDR=192.168.10.102
CH3: IPADDR=192.168.10.103
要保证每一台IP都能修改成功,并且可以ping通外网。
(5)主节点IP 映射
配好其他子节点后打开主节点虚拟机(master) 配置映射 代码:vim /etc/hosts
正在上传…重新上传取消
正在上传…重新上传取消
(6)发送SSH安全协议
从主节点发送ssh安全协议到3处子节点 代码:ssh-keygen -t rsa(l连续三次回车)
*注意看里面要输入一个y
正在上传…重新上传取消
到ssh目录下 代码:cd ~/.ssh
正在上传…重新上传取消
查看目录下文件有没有问题 代码:ll
正在上传…重新上传取消
把ssh安全协议密钥 分发给CH1与CH2 和CH3:
发送给CH1的代码:scp authorized_keys CH1:/root/.ssh 后面同理(NB的也可以ssh-copy-id xxx)
发送给CH2的代码:scp authorized_keys CH2:/root/.ssh
发送给CH3的代码:scp authorized_keys CH3:/root/.ssh
发送成功的截图:
*注意:
要打yes 注意大小写
Password:123456 <-密码 *要输入
正在上传…重新上传取消
要在master上面执行上面3条 同理,一条条来
测试是否可以从主节点机跳转到子节点机
测试 代码:ssh CH3
正在上传…重新上传取消
如图所示表示跳转成功!
退回主节点机继续测试其他2台子节点机器 退回代码: exit
正在上传…重新上传取消
要测试3个
<-克隆完成
(四)Hadoop安装配置
(1)上传hadoop安装包
进入到我们装jdk的目录 代码:cd /usr/local/soft/ 查看里面文件代码:ll
正在上传…重新上传取消
看见只有JDK的安装包和软件 (涂鸦地方你当没看见)
回到桌面打开Xshell 连接上主节点虚拟机(master),再打开Xftp 上传hadoop
正在上传…重新上传取消
*注意一定要在soft目录下
回到主节点虚拟机(master) 再次执行文件查看命令 : ll
正在上传…重新上传取消
看见已经有 hadoop-2.7.7.tar.gz
解压hadoop-2.7.7.tar.gz 代码:tar -zxvf hadoop-2.7.7.tar.gz
正在上传…重新上传取消
正在上传…重新上传取消
*如图所示代表上传解压完成 *在此界面表示hadoop以及安装成功在虚拟机上
(2)配置hadoop环境变量
***以下添加内容无需修改直接复制
配置环境变量 代码:vi /etc/profile
正在上传…重新上传取消
按i 添加内容 添加内容如下:
#HADOOP 不用修改
export HADOOP_HOME=/usr/local/soft/hadoop-2.7.7
export PATH=$PATH:${HADOOP_HOME}/bin
export PATH=$PATH:${HADOOP_HOME}/sbin
正在上传…重新上传取消
保存退出查看Hadoop是否配置成功
输入代码:source /etc/profile(使环境变量生效)
正在上传…重新上传取消
查看hadoop配置 代码:hadoop version
正在上传…重新上传取消
如图所示表示配置成功
(3)修改hadoop配置文件
进入hadoop目录 代码:cd /usr/local/soft/hadoop-2.7.7/etc/hadoop/
正在上传…重新上传取消
使用ll 可以看见很多的文件
修改 slaves文件
代码:vi slaves
正在上传…重新上传取消
修改内容为子节点名字 如下图所示:
正在上传…重新上传取消
以下文件关乎到Hadoop成功失败
* 修改hadoop-env.sh文件
代码: vi hadoop-env.sh
添加内容:
export JAVA_HOME=/usr/local/soft/jdk1.8.0_171
正在上传…重新上传取消
退出
*修改 core-site.xml 将下面的配置参数加入进去修改成对应自己的
代码:vi core-site.xml
正在上传…重新上传取消
添加内容:
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/soft/hadoop-2.7.7/tmp</value>
</property>
<property>
<name>fs.trash.interval</name>
<value>1440</value>
</property>
</configuration>
保存退出!
*修改 hdfs-site.xml
代码: vi hdfs-site.Xml
正在上传…重新上传取消
添加内容:
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
</configuration>
*配置yarn-site.xml
代码:vi yarn-site.xml
正在上传…重新上传取消
添加内容:
<name>yarn.resourcemanager.hostname</name>
<value>master</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
*修改 mapred-site.xml
将mapred-site.xml.template 复制一份为 mapred-site.xml
代码:cp mapred-site.xml.template mapred-site.xml
正在上传…重新上传取消
修改mapred-site.xml文件
代码:vi mapred-site.xml
正在上传…重新上传取消
添加内容:
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>master:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>master:19888</value>
</property>
</configuration>
到这里文件以及修改完成!
(4)发送hadoop文件到子节点
将hadoop的安装目录分别拷贝到其他子节点
代码:
scp -r /usr/local/soft/hadoop-2.7.7 CH1:/usr/local/soft/
一条一条来
scp -r /usr/local/soft/hadoop-2.7.7 CH2:/usr/local/soft/
一条一条来
scp -r /usr/local/soft/hadoop-2.7.7 CH3:/usr/local/soft/
(5) 启动Hadoop
首先看下hadoop-2.7.7目录下有没有tmp文件夹
代码:cd /usr/local/soft/hadoop-2.7.7目录下
如果没有 执行一次格式化命令: 执行命令:./bin/hdfs namenode -format
正在上传…重新上传取消
进入Hadoop目录:
cd /usr/local/soft/hadoop-2.7.7目录下
启动执行: sbin/start-dfs.sh
正在上传…重新上传取消
sbin/start-dfs.sh 启动成功
启动执行: sbin/start-yarn.sh
正在上传…重新上传取消
sbin/start-yarn.sh 启动成功
启动执行: sbin/mr-jobhistory-daemon.sh start historyserver
正在上传…重新上传取消
sbin/mr-jobhistory-daemon.sh start historyserver 启动成功
启动完成后通过jps命令查看验证进程: 代码:jps
主节点进程为下面几个(下面是进程名称,不是命令):
正在上传…重新上传取消
子节点进程 (在CH1和CH2和CH3上分别输入命令:jps)
CH1节点
正在上传…重新上传取消
CH2 节点
正在上传…重新上传取消
CH3一样
必须要有以上进程才算成功,要不然Hadoop跑不了
(五)HADOOP搭建完成截图
(1)HDFS Web界面
正在上传…重新上传取消
(2)YARN WEB界面
正在上传…重新上传取消
(3)MapReduce Web 界面
正在上传…重新上传取消
(完结)
关闭日志文件:
代码:sbin/mr-jobhistory-daemon.sh stop historyserver
正在上传…重新上传取消
关闭 yarn
代码:sbin/stop-yarn.sh
正在上传…重新上传取消
关闭 dfs
代码: sbin/stop-dfs.sh
正在上传…重新上传取消
正在上传…重新上传取消
关闭 yarn
代码:sbin/stop-yarn.sh
正在上传…重新上传取消
关闭 dfs
代码: sbin/stop-dfs.sh
正在上传…重新上传取消