hadoop伪分布式部署

1、环境介绍
操作系统:Centos 7.7
jdk版本:8u291
hadoop版本:2.10.1
4核心 8G内存 100G硬盘

2、关闭防火墙和selinux
在这里插入图片描述
3、安装jdk
https://blog.csdn.net/zyj81092211/article/details/118055068

4、建立hadoop用户

useradd hadoop
echo hadoop|passwd --stdin hadoop

5、使用hadoop登录,解压缩hadoop安装包并重命名hadoop

tar -xvf hadoop-2.10.1.tar.gz
mv hadoop-2.10.1 /usr/local/hadoop

6、用root用户设置hadoop环境变量并重新加载

# hadoop environment
export HADOOP_HOME=/home/hadoop/hadoop
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PAT
source /etc/profile

7、设置hadoop用户ssh免登录认证

ssh-keygen -t rsa
ssh-copy-id -i .ssh/id_rsa.pub hadoop@localhost

8、进入hadoop配置文件目录

cd /home/hadoop/hadoop/etc/hadoop

9、编辑hadoop-env.sh,更改如下

export JAVA_HOME=/usr/local/java

在这里插入图片描述
10、编辑core-site.xml,添加如下

<configuration>
        <property>
                <name>fs.defaultFS</name>
                <value>hdfs://10.99.99.200:9000</value>
        </property>
</configuration>

11、编辑hdfs-site.xml,添加如下

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
</configuration>

12、编辑mapred-site.xml,添加如下

cp mapred-site.xml.template mapred-site.xml
<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

13、编辑yarn-site.xml,添加如下

<configuration>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>10.99.99.200</value>
    </property>
    <property>
        <name>yarn.resourcemanager.webapp.address</name>
        <value>10.99.99.200:8088</value>
    </property>
    <property>
         <name>yarn.nodemanager.hostname</name>
         <value>10.99.99.200</value>
    </property>
</configuration>

14、初始化HDFS

hdfs namenode -format

15、启动namenode和datanode

start-dfs.sh

状态如下
在这里插入图片描述
16、启动yarn

start-yarn.sh

状态如下
在这里插入图片描述
17、访问web页面
HDFS:端口50070
在这里插入图片描述
yarn:端口8088
在这里插入图片描述
18、简单使用

示例计算
在这里插入图片描述
(1)在HDFS 根目录上创建input文件夹

hdfs dfs -mkdir /input

(2)上传etc/hadoop中的配置文件到input文件夹

hdfs dfs -put etc/hadoop /input

(3)执行示例程序

hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.10.1.jar grep /input/hadoop /output 'dfs[a-z.]+'

注意:/output目录自动创建为结果输出目录
(4)获取结果

hdfs dfs -cat /output/*

在这里插入图片描述
(5)查看yarn上有执行过的任务
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值