Hadoop伪分布式搭建Linux版 超详细(喂饭教程 强烈推荐)

Hadoop是大数据处理主流框架,如果要学习大数据处理与存储,hadoop是必须掌握的一种框架技术。动手安装是最基础的实践,下面介绍一下伪分布式和完全分布式安装与配置、测试过程,推荐hadoop2.7.7 .供有需要的参考。
目前已探索完成伪分布式搭建部署,完全分布式还未建立,后续更新.开始:
java jdk下载:https://www.oracle.com/java/technologies/javase-downloads.html
hadoop下载准备:
全网最低积分下载:传送门
历史下载版本:http://archive.apache.org/dist/hadoop/core/hadoop-2.7.7/

一. 修改主机名j建立映射
1.查看机器IP ifconfig
2. 查看主机名 vim /etc/hostname
在这里插入图片描述
3. sudo vim /etc/hosts填写 ip hostname
在这里插入图片描述
二. 免登陆设置

生产密钥 ssh-keygen -t rsa 
将密钥发送给需要登陆本机的机器,这里是本机 ssh-copy-id root@cronuser 
测试ssh ssh root@cronuser 

三. 搭建JAVA环境
1.JDK配置 这里选用JDK8 tar -zxvf jdk-8u144-linux-x64.tar.gz -C /home/java
2.配置环境变量

# 加入配置 加入位置如下图所示
export JAVA_HOME=/home/java/jdk1.8.0_144
export PATH=$PATH:$JAVA_HOME/bin

# 保存后刷新环境变量
[root@localhost jdk1.8.0_144]# source /etc/profile 

3.验证java 是否安装成功 java -version
在这里插入图片描述
四. HADOOP伪分布式配置
1.附上下载链接:hadoop历史版本下载
2.解压文件 tar -zxvf hadoop-2.7.7.tar.gz -C /app/software/
3.修改配置文件 cd /opt/install/hadoop-2.9.2/etc/hadoop
(1) vim hadoop-env.sh
export JAVA_HOME=/home/java/jdk1.8.0_144
在这里插入图片描述
注:hadoop中的四个核心模块对应四个默认配置文件,指定默认的文件系统为HDFS,文件系统的访问入口,namenode所在的机器9000端口是早期Hadoop 1.x使用的,现在Hadoop 2.x使用的是8020,端口号用于节点直接内部通信,使用RPC通信机制。
(2) vim core-site.xml
/tmp表示临时存储目录,系统每次重启会按照脚本预先设置好的删除里面的文件,重新自定义系统生成的文件路径,/tmp会被清空,无法保证数据文件安全性。

	   <!--  用于设置namenode并且作为Java程序的访问入口  -->
       <property>
            <name>fs.defaultFS</name>
            <value>hdfs://cronuser:8020</value>
       </property>
       <!--  存储NameNode持久化的数据,DataNode块数据  -->
       <!--  手工创建$HADOOP_HOME/data/tmp  -->
       <property>
             <name>hadoop.tmp.dir</name>
             <value>/app/software/hadoop-2.7.7/data/tmp</value>
       </property>

在这里插入图片描述
(3) vim hdfs-site.xmll指定HDFS文件存储的副本数个数,默认是3个,这个数字要小于datanode的节点数

	   <!--  设置副本数量 默认是3 可自行根据需求更改  -->
        <property>		
            <name>dfs.replication</name>
            <value>3</value>
        </property>
		<!--  权限,可省略  -->
         <property>
             <name>dfs.permissions.enabled</name>
             <value>false</value>
          </property>
          <property>
              <name>dfs.namenode.http.address</name>
              <value>cronuser:50070</value>
           </property> 
(4)

cp mapred-site.xml.template mapred-site.xml
vim mapred-site.xml

<!--  yarn 与 MapReduce相关  -->
       <property>	 	        		
            <name>mapreduce.framework.name</name>
            <value>yarn</value>
       </property>

(5) vim yarn-site.xml

 <property>
          <name>yarn.nodemanager.aux-services</name>
          <value>mapreduce_shuffle</value>
  </property>

(6)vim slaves

cronuser

五.配置HADOOP 环境变量
1.配置环境变量

[root@localhost hadoop-2.7.7]# vim /etc/profile
# 加入
export HADOOP_HOME=/app/software/hadoop-2.7.7
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

2.激活环境变量

# 刷新环境变量
[root@localhost hadoop-2.7.7]# source /etc/profile

3.验证

[root@localhost hadoop-2.9.2]# hadoop version

在这里插入图片描述
六.格式化NameNode
目的作用:格式化hdfs系统,并且生成存储数据块的目录

[root@localhost hadoop-2.7.7]# hadoop namenode -format 

在这里插入图片描述
七.启停HADOOP
1.启停进程

	启动所有进程 start-all.sh
	终止所有进程 stop-all.sh

2.查看进程 jps
在这里插入图片描述
3.查看WebUI界面
http://10.168.1.50:50070 访问 hdfs
http://10.168.1.50:8088 访问 yarn
在这里插入图片描述

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Starry-sky(jing)

一起共勉,一起加油!!!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值