实验03、Hadoop全分布式安装-自动版

0、集群规划

机器名称机器IP部署服务
g10master172.16.10.101hadoop master
g10slave1172.16.10.102slave1
g10slave2172.16.10.103slave2

1、网络配置

1.1 设置本机名称

只在主机上编辑,写入对应的主机名称(g10master,g10slave1,g10slave2)

vim /etc/hostname

1.2 配置hosts文件

只在主机上编辑以下文件,写入主机名称和IP的对应关系

vim /etc/hosts

g10master 172.16.10.101
g10slave1 172.16.10.102
g10slave2 172.16.10.103

1.3 测试网络

在主机上分别ping其他两台主机

ping g10slave1
ping g10slave2

2、安装JDK

只在主机上安装

2.1 解压jdk

tar -zxvf /root/data/jdk-8u333-linux-x64.tar.gz -C /usr/local/src

2.2 改名称

mv /usr/local/src/jdk1.8.0_333  /usr/local/src/java

2.3 配置环境变量

编辑以下文件,写入对应的环境变量

vim /etc/profile

export JAVA_HOME=/usr/local/src/java
export CLASSPATH=.:$JAVA_HOME/lib
export PATH=$PATH:$JAVA_HOME/bin

2.4 让环境变量生效

source /etc/profile

2.5 检验JDK是否安装成功

java -version

image.png

3、安装hadoop

只在主机上操作

3.1 解压

tar -zxvf /root/data/hadoop-2.7.7.tar.gz -C /usr/local/src/

3.2 改名称

mv /usr/local/src/hadoop-2.7.7 /usr/local/src/hadoop

3.3 配置环境变量

vim /etc/profile

export HADOOP_HOME=/usr/local/src/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

3.4 让环境变量生效

source /etc/profile

3.5 检验hadoop是否安装成功

hadoop version

image.png

4、配置hadoop

4.1 配置文件

只在主机上的/usr/local/src/hadoop/etc/hadoop文件下分别配置以下三个文件

4.1.1 hadoop-env.sh

vim /usr/local/src/hadoop/etc/hadoop/hadoop-env.sh
export JAVA_HOME=/usr/local/src/java

image.png

4.1.2 core-site.xml

vim /usr/local/src/hadoop/etc/hadoop/core-site.xml
<configuration>
    <property>
		<name>fs.defaultFS</name>
		<value>hdfs://g10master:9000</value>
	</property>
	<property>
		<name>hadoop.tmp.dir</name>
		<value>/usr/local/src/hadoop/tmp</value>
	</property>
</configuration>

注意:地址一定是主机(master)的名称,不是从机(slave)的名称

image.png

4.1.3 hdfs-site.xml

vim /usr/local/src/hadoop/etc/hadoop/hdfs-site.xml
<property>
		<name>dfs.replication</name>
		<value>3</value>
</property>

image.png

4.1.4 slaves

使用vim打开slavers文件

/usr/local/src/hadoop/etc/hadoop/slaves

写入以下内容

g10master
g10slave1
g10slave2

4.2 创建文件夹

只在主机上创建tmp文件夹

mkdir /usr/local/src/hadoop/tmp

5 SSH 免密登录

5.1 生成key

分别在三台计算机上做以下操作

cd ~ 
ssh-keygen

image.png

5.2 拷贝凭证

只在主机上做以下操作

ssh-copy-id g10master
ssh-copy-id g10slave1
ssh-copy-id g10slave2

image.png

执行过程中会询问是否继续,输入yes后输入对应计算机用户的密码即可

5.3 检验免密登录

在主机上输入以下命令,验证是否需要输入密码

ssh g10master
ssh g10slave1
ssh g10slave2

image.png

如果免密登录操作失败,可以在每台机器上执行rm -rf ~/.ssh命令,删除之前的配置,重新进行ssh免密登录配置

6、向其他主机分发配置文件和软件

6.1 分发配置文件

包括hosts文件,/etc/profile文件

  • hosts
scp /etc/hosts g10slave1:/etc/hosts
scp /etc/hosst g10slave2:/etc/hosts

scp /etc/profile g10slave1:/etc/profile
scp /etc/profile g10slave1:/etc/profile
  • profile
scp -r /usr/local/src/* g10slave1:/usr/local/src/
scp -r /usr/local/src/* g10slave1:/usr/local/src/

7、启动hadoop集群

只在master主机上操作

7.1 格式化文件系统

hdfs namenode -format

image.png

7.2 启动hadoop集群
/usr/local/src/hadoop/sbin/start-dfs.sh

image.png

7.3 验证是否启动成功

jps

image.png

分别在g10slave1 和g10slave2节点上使用jps观察进程,应该存在DataNode进程

8、出错后重建

如果格式化出错或者启动集群过程出是配置文件出现错误,判断需要重新格式化的情况下可以采用以下方式解决

  • 1.停止集群(只在主机上操作)
stop-dfs.sh
  • 2.删除配置的临时文件夹(三台机器全部要操作)
rm -rf /usr/local/src/hadoop/tmp
yuyueywdhuweyowydwyeoywydo
kewjhdfkjwhdjkwjkklwehlhkjweh

lwhendfshjlkhwehjfhdhds,nfhsf,mhlfhlsdnhfdhhwiehdlsjhihwbdjkwgud
ghedgjhewdkj.kdjbjukwehjkdhkwjlhwdh
jkhwekjjkwegilhjhdljwhe,dwdkldhjwlkhdwegwhgdjkwgdk
ewhgdkwijkhl;hdjndhewjhdgwdbhjge在这
ewhjghgdghd2ehehsjkghjkkhilhbjkydgkdkjghjklweqd
hwdjkghmsaghkgwd
mndgbhwgdhghwgqdhqwdkghm
dwedhgahgdhgahdgwqgdhambgkqwkjhdmsgwqjhdjmawgukwh


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值