入门级,Linux下的Hadoop集群的搭建

hadoop安装包:https://pan.baidu.com/s/1ma4AywSvK4sYHJZ_J40amQ
提取码:k91h
linux虚拟机安装及配置参考:https://blog.csdn.net/weixin_44147632/article/details/107770763
linuxj中jdk配置参考:https://blog.csdn.net/weixin_44147632/article/details/107796624
我这里以四台虚拟机集群演示,包括一台主机vwmaster,三台从机vwslave01,vwslave02,vwslave03
首先,虚拟机之前需要免密访问,请参考:关于设置主机名和免密登录

解压文件

在主机xshell下:在opt文件夹下的bigdatainstall中,各新建一个hadoop文件夹,打开xftp6,将hadoop安装包拖入install中的hadoop文件中。
在这里插入图片描述
hadoop-2.6.0-cdh5.14.2.tar.gz解压至bigdata文件夹中,并改名为hadoop260
tar -zxf hadoop-2.6.0-cdh5.14.2.tar.gz -C /opt/bigdata/hadoop/
mv 解压后的文件/ hadoop260
在这里插入图片描述
修改hadoop260的权限:chown -R root:root hadoop260/
在这里插入图片描述

修改hadoop-env.sh配置文件

hadoop260目录下vi etc/hadoop/hadoop-env.sh,进入配置文件
将原先的{JAVA_HOME}改为自己的jdk180所在目录,如图
在这里插入图片描述

配置hadoop fs系统文件

hadoop260目录下vi etc/hadoop/core-site.xml,在<configuration>中添加:

<property>
    <name>fs.defaultFS</name>
    <value>hdfs://vwmaster:9000</value>
  </property>
  <property>
    <name>hadoop.tmp.dir</name>
    <value>/opt/bigdata/hadoop/hadoop260</value>
  </property>
  <property>
    <name>hadoop.proxyuser.root.hosts</name>
    <value>*</value>
  </property>
  <property>
    <name>hadoop.proxyuser.root.groups</name>
    <value>*</value>
  </property>

在这里插入图片描述

hadoop replicas 备份

dfs.replication备份数量
dfs.hosts添加节点白名单
hadoop260下,vi etc/hadoop/hdfs-site.xml进入,在<configuration>中添加:

<property>
<!--一般的四个虚拟机,2个备份就行-->
    <name>dfs.replication</name>
    <value>2</value>
  </property>
  <property>
    <name>dfs.permissions</name>
    <value>false</value>
  </property>

在这里插入图片描述

hadoop mapreduce 计算框架

hadoop260下,cp etc/hadoop/mapred-site.xml.template etc/hadoop/mapred-site.xml
vi etc/hadoop/mapred-site.xml进入配置文件,在<configuration>中添加:

<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
  </property>

在这里插入图片描述

hadoop yarn 管理调度

hadoop260下,进入配置文件,vi etc/hadoop/yarn-site.xml<configuration>中添加:

<property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
  </property>
  <property>
    <name>yarn.resourcemanager.hostname</name>
    <value>vwmaster</value>
  </property>
修改hadoop slaves 主机名
[root@vwmaster hadoop260]# vi etc/hadoop/slaves
vwslave01
vwslave02
vwslave03
环境变量配置

vi /etc/profile
在JAVA_HOME行后添加:

export HADOOP_HOME=/opt/bigdata/hadoop/hadoop260
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"

注意在PATH中的修改:export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$JAVA_HOME/bin:$PATH
在这里插入图片描述
source /etc/profile 激活配置文件

hadoop 格式化 HDFS

进入cd /opt/bigdata/hadoop/hadoop260/bin/,输入hdfs namenode -format回车:
出现:

/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at vwmaster/192.168.47.132
************************************************************/

则格式化成功

hadoop-native库

在install文件夹下,将hadoop-native-64-2.6.0.tar解压到bgdata/hadoop/hadoop260/lib/native/
tar -xf hadoop-native-64-2.6.0.tar -C /opt/bigdata/hadoop/hadoop260/lib/native/

启动 hadoop

cd /opt/bigdata/hadoop/hadoop260/sbin
./mr-jobhistory-daemon.sh start historyserver 启动historyserver
start-dfs.sh 启动dfs
start-yarn.sh 启动yarn
stop-all.sh 结束所有
./mr-jobhistory-daemon.sh stop historyserver 结束historyserver

查看hadoop服务状态

jps回车,主机中查看:在这里插入图片描述
每一个从机中jps查看
在这里插入图片描述
则集群启动成功。

页面端口访问

http://192.168.47.132:50070
在这里插入图片描述
http://192.168.47.132:8088
在这里插入图片描述
http://192.168.47.132:19888
在这里插入图片描述
至此,hadoop集群启动成功。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值