Hadoop群集搭建

HDFS集群搭建
一 虚拟网络配置
1.编辑虚拟网络设置,选择NAT模式
2.点击NAT设置,查看网络信息(后面设置ip会用到)
3.查看主机ip地址
ifconfig
4.修改网络配置文件,将BOOTPROTO值修改为”static”
Vim /etc/sysconfig/network-scripts/ifcfg-…(第一个文件)在这里插入图片描述
在这里插入图片描述
二 更改主机名称
修改主机名vim /etc/hostname,注意3个虚拟机都改一下,并且改完都要重启reboot
在这里插入图片描述

三 建立主机名和ip的映射
vim /etc/hosts
在这里插入图片描述
查看各台机器是否能互相ping通
Xshell 勾选 工具选项 第一个发送键输入到其他回话
Ping 192.168.220.1
Ping 192.168.220.20
Ping 192.168.220.21
Ping 192.168.220.22
四 配置ssh免密码登录
在root用户下输入ssh-keygen -t rsa 一路回车(三次)
在这里插入图片描述
上图中的cd~/.sh是查看是否有钥匙了,可以不写。
//ssh -copy -id 0.0.0.0 给本机配置免密,不用写也行。
Scp -r .ssh /服务器名称或者ip地址:$PWD
检查是否免密登录(第一次登录会有提示)
在这里插入图片描述
五 关闭防火墙
systemctl stop firewalld.service #停止firewall
systemctl disable firewalld.service #禁止firewall开机启动
firewall-cmd --state查看防火墙状态
六 安装JDk hadoop
1)解压 tar -zxvf JDK…
tar -zxvf Hadoop…

2)配置环境变量
vim /etc/profile
#在文件最后添加

export JAVA_HOME=JDK的路径   用pwd获取,然后复制粘贴
export HADOOP_HOME=HADOOP的路径
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

3)配置hadoop (配置路径、usr/local/etc/hadoop-2.7.3/etc/hadoop/)

第一个配置文件名:hadoop-env.sh

vim hadoop-env.sh
#第27行
export JAVA_HOME=JDK的路径 

第二个配置文件名:vim core-site.xml

<!-- 指定HADOOP所使用的文件系统schema(URI),HDFS的老大(NameNode)的地址 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://master11(master是哪台机器):9000(指端口)</value>
</property>
<!-- 指定hadoop运行时产生文件的存储目录 -->
<property>
<name>hadoop.tmp.dir</name>
<value>hadoop路径/tmp</value>
</property>

在这里插入图片描述
第三个配置文件:vim hdfs-site.xml

<!-- 指定HDFS副本的数量 -->
<property>
<name>dfs.replication</name>
<value>2</value>    (2指的是只有一个datanode,具体看自己搭几台机器)
</property>
 <property>
 <!-- 安全权限关闭 -->
<name>dfs.permissions.enabled</name>
 <value>false</value>
</property>

第四个配置文件:vim mapred-site.xml.template

cp mapred-site.xml.template mapred-site.xml
<!-- 指定mr运行在yarn上 -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>

第五个配置文件: vim yarn-site.xml

  <!-- 指定YARN的老大(ResourceManager)的地址 -->
    <property>
    <name>yarn.resourcemanager.hostname</name>
    <value>weekend-1206-01</value>
    </property>
    <!-- reducer获取数据的方式 -->
    <property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
    </property>   

4)将配置好的hadoop文件发送到其他节点上
scp -r (hadoop路径) slave1:$ PWD
在这里插入图片描述
5)格式化Namenode
进入bin目录, hadoop namenode -format 出现success即可如下图
在这里插入图片描述

6)让配置文件立刻生效 进入bin目录 source /etc/profile
在这里插入图片描述
七. 启动集群
修改hadoop安装目录中/etc/hadoop/slaves(把需要启动datanode进程的节点列入)
在这里插入图片描述
1)格式化Namenode
进入bin目录, hadoop namenode -format
2) 启动所有节点 方式一sbin /start-all.sh
在这里插入图片描述
3) 在master上用脚本:start-dfs.sh 来自动启动整个集群
使用 Jps查看进程
如果要停止,则用脚本:stop-dfs.sh

注意:如果从节点没有DataNode,可以把主节点的hadoop发送到节点;

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值