【Hadoop教程】一、开发环境搭建

一、准备工作

1、软件下载

本文采用以下版本进行安装,均从相应软件的官网进行下载。如版本不同可能导致相关配置有所差异,仅供参考。
VMware-workstation-full-16.1.1
CentOS-7-x86_64-DVD-2009
jdk-8u291-linux-x64
hadoop-3.2.2

2、集群规划

主机名hadoop1hadoop2hadoop3
IP192.168.100.101192.168.100.102192.168.100.103
HDFSNameNode
DataNode
SecondaryDataNode
DataNode
DataNode
YARNResourceManager
NodeManager
NodeManagerNodeManager

二、虚拟机安装与配置

1、修改WMware网络设置

注意设置虚拟机为NAT模式,并且设置相应的IP地址。
虚拟机IP
在Windows网络设置中,对VMnet8虚拟网卡进行相应修改。
Windows网络设置

2、安装CentOS

采用默认的简易安装方式即可。根据自身电脑配置,适当调高每个虚拟机的CPU核数和内存大小,建议每个虚拟机分配的内存不小于2GB,4GB以上更佳。

3、修改网络配置

设置静态IP地址。

su root
vim /etc/sysconfig/network-scripts/ifcfg-ens33

ip设置
设置主机名。

vim /etc/hostname 

hostname
设置hosts文件。

vim /etc/hosts

hosts文件
重启虚拟机,使配置生效。

reboot

测试配置是否生效。

ifconfig
hostname
ping www.baidu.com

测试网络

4、安装必需软件包

su root
yum install -y epel-release

5、关闭防火墙

systemctl stop firewalld.service
systemctl disable firewalld.service

6、赋予用户root权限

vim /etc/sudoers

sudoers设置

7、卸载系统自带的JDK

rpm -qa | grep -i java | xargs -n1 rpm -e --nodeps

三、相关软件安装与配置

1、安装软件

将JDK、Hadoop拷贝进虚拟机,解压缩。

tar -zxf hadoop-3.2.2.tar.gz 
tar -zxf jdk-8u291-linux-x64.tar.gz 

设置环境变量。

cd /etc/profile.d/
sudo vim my_env.sh

加入如下内容。

export JAVA_HOME=/home/pxq/Downloads/jdk1.8.0_291
export PATH=$PATH:$JAVA_HOME/bin
export HADOOP_HOME=/home/pxq/Downloads/hadoop-3.2.2
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin

使设置生效。

source /etc/profile

测试设置是否生效。
环境变量测试

2、配置Hadoop

core-site.xml

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <!--NameNode地址-->
        <value>hdfs://hadoop1:8020</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <!--数据存储路径-->
        <value>/home/pxq/Downloads/hadoop-3.2.2/data</value>
    </property>
    <property>
        <name>hadoop.http.staticuser.user</name>
        <!--网页登录用户-->
        <value>pxq</value>
    </property>
</configuration>

hdfs-site.xml

<configuration>
    <property>
        <name>dfs.namenode.http-address</name>
        <!--NameNode的Web访问地址-->
        <value>hadoop1:9870</value>
    </property>
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <!--SecondaryNameNode的Web访问地址-->
        <value>hadoop2:9868</value>
    </property>
</configuration>

yarn-site.xml

<configuration>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <property>
        <name>yarn.resourcemanager.hostname</name>
        <!--ResourceManager地址-->
        <value>hadoop1</value>
    </property>
</configuration>

mapred-site.xml

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

workers

hadoop1
hadoop2
hadoop3

3、克隆虚拟机

VMware中选择管理->克隆->创建完整克隆,克隆两台虚拟机。克隆完成后分别修改两台虚拟机的IP与主机名。

4、设置ssh免密登录

生成密钥。

ssh-keygen -t rsa

配置hadoop1到自身,到hadoop2和hadoop3的免密登录。

ssh-copy-id hadoop1
ssh-copy-id hadoop2
ssh-copy-id hadoop3

四、集群启动

1、格式化

hadoop namenode -format

2、启动

启动HDFS。

start-dfs.sh

启动YARN。

start-yarn.sh

3、检查启动状态

jps

hadoop1
hadoop2
hadoop3
访问 http://hadoop1:9870
web页面hdfs
访问 http://hadoop1:8088
web页面yarn

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值