5分钟教你搭建Hadoop本地模式以及Hadoop伪分布式

以下不涉及完全分布式,只说明单机版和伪分布式

一,hadoop本地模式和伪分布式模式之间的区别

1.单机(非分布式)模式这种模式在一台单机上运行,没有分布式文件系统,而是直接读写本地操作系统的文件系统。

2.伪分布式运行模式这种模式也是在一台单机上运行,但用不同的Java进程模仿分布式运行中的各类结点: (NameNode,DataNode,JobTracker,TaskTracker,SecondaryNameNode)

请注意分布式运行中的这几个结点的区别:从分布式存储的角度来说,集群中的结点由一个NameNode和若干个DataNode组成,另有一个SecondaryNameNode作为NameNode的备份。从分布式应用的角度来说,集群中的结点由一个JobTracker和若干个TaskTracker组成,JobTracker负责任务的调度,TaskTracker负责并行执行任务。TaskTracker必须运行在DataNode上,这样便于数据的本地计算。JobTracker和NameNode则无须在同一台机器上。一个机器上,既当namenode,又当datanode,或者说既是jobtracker,又是tasktracker。没有所谓的在多台机器上进行真正的分布式计算,故称为"伪分布式"。

二,hadoop本地模式的搭建

1.首先需要一台客户机
2.安装jdk

1)首先在客户机根目录root文件夹下建立tools文件夹:

root> mkdir tools

2)用远程连接工具连接客户机,拖拽压缩包到客户机 root/tools/目录下
3) 解压 jdk-8u152-linux-x64.tar.gz 到/etc/local下:

tar -zxvf  jdk-8u152-linux-x64.tar.gz  -C /usr/local/

3.安装hadoop

1)用远程连接工具连接客户机,拖拽压缩包到客户机 root/rools 目录下
2)解压 hadoop-2.7.2.tar.gz 到 etc/local/下:

tar -zxvf  hadoop-2.7.2.tar.gz -C /usr/local

4.配置环境变量 到文件最下面

hadoop> vi /etc/profile

export JAVA_HOME=/usr/local/jdk1.8.0_152
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$JAVA_HOME/bin:$PATH
export HADOOP_HOME=/usr/local/hadoop-2.7.2
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin

5.打开一个终端
输入以上两项,都能正常显示除版本号,即为环境搭建成功以上步骤为本地模式搭建成功!

hadoop version
java -version

三,hadoop伪分布式模式的搭建

以上五部到配置环境搭建成功为基础6
6.配置集群

1)配置:hadoop-env.sh
Linux 系统中获取jdk 的安装路径:/usr/local/jdk1.8.0_152
修改JAVA_HOME 路径为:

export JAVA_HOME=/opt/module/jdk1.8.0_144

2)配置:core-site.xml

<property>
	<name>fs.defaultFS</name>
	<value>hdfs://hadoop101:9000</value>
</property>
<property>
	 <!-- 指定hadoop 运行时产生文件的存储目录-->
	<name>hadoop.tmp.dir</name>
	<value>/opt/module/hadoop-2.7.2/data/tmp</value>
</property>

3)配置hdfs-site.xml

<property>
	<!-- 指定HDFS 副本的数量-->
	<name>dfs.replication</name>
	<value>1</value>
</property>

4)启动集群格式化 namenode(第一次启动时格式化,以后就谨慎格式化操作)

1.格式化操作
[root@hadoop01 hadoop-2.7.2]$ bin/hdfs namenode -format
2.启动namenode
[root@hadoop01 hadoop-2.7.2]$ sbin/hadoop-daemon.sh start namenode
3.启动datanode
[root@hadoop01 hadoop-2.7.2]$ sbin/hadoop-daemon.sh start datanode

5)查看集群是否成功

[qianfeng@hadoop101 hadoop-2.7.2]$ jps
13586 NameNode
13668 DataNode
13786 Jps

//正常应该启动这三个进程

6)在web前端查看HDFS文件系统
http://192.168.120.128:50070/
192.168.120.128为自己的主节点的IP
(注意不要用自己计算机自带的浏览器,用搜狗,360都可以,如果无法查看网页打开如下帖子处理http://www.cnblogs.com/zlslch/p/6604189.html)
以上步骤即为伪分布式搭建成功!

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值