hadoop伪分布式的搭建

在安装hadoop之前确保已经安装好jdk,hadoop安装包路径Hadoop家族,此文章以hadoop-2.4.1为例,完成伪分布式集群的搭建

1、上传hadoop-2.4.1到Linux上,并解压

[hadoop01@hadoop01 hadoop]$ tar -zxvf hadoop-2.4.1.tar.gz 


2、进入hadoop-2.4.1的配置文件路径中

[hadoop01@hadoop01 ~]$ cd hadoop-2.4.1/etc/hadoop/


3、修改Hadoop的配置文件,文件包含 hadoop-env.sh、 core-site.xmlhdfs-site.xml、mapred-site.xml.template、yarn-site.xml、slaves

-----> 修改hadoop-env.sh <-----

[hadoop01@hadoop01 hadoop]$ vim hadoop-env.sh 
export JAVA_HOME=/home/hadoop01/jdk1.7.0_67 #将此处修改为你的jdk路径


-----> 修改core-site.xml<-----

[hadoop01@hadoop01 hadoop]$ vim core-site.xml 

添加以下内容

<configuration>
<!-- 指定HADOOP所使用的文件系统schema(URI),HDFS的老大(NameNode)的地址 -->
<property>
    <name>fs.defaultFS</name>
    <value>hdfs://192.168.110.110:9000</value> ## 此处修改为你的ip,端口号为9000
</property>
<!-- 指定hadoop运行时产生文件的存储目录 -->
<property>
    <name>hadoop.tmp.dir</name>
    <value>/home/hadoop01/hadoop-2.4.1/tmp</value> ## 此处修改为你保存文件的路径
</property>
</configuration>


-----> 修改hdfs-site.xml<-----

[hadoop01@hadoop01 hadoop]$ vim hdfs-site.xml

添加以下内容

<configuration>
<!-- 指定HDFS副本的数量 -->
<property>
        <name>dfs.replication</name>
        <value>1</value>  ## 我这里是单机版 所以设为1
</property>
<!-- 指定secondary的启动路径 -->
<property>
	<name>dfs.secondary.http.address</name>
	<value>192.168.110.110:50090</value>## 改成你的ip,端口号为50090
</property>
</configuration>


-----> 修改mapred-site.xml.template<-----

[hadoop01@hadoop01 hadoop]$ mv mapred-site.xml.template mapred-site.xml
[hadoop01@hadoop01 hadoop]$ vim mapred-site.xml

 添加以下内容

<configuration>
<!-- 指定mr运行在yarn上 -->
<property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
</property>
</configuration>


-----> 修改yarn-site.xml<-----

[hadoop01@hadoop01 hadoop]$ vim yarn-site.xml

添加以下内容

<configuration>
<!-- 指定YARN的老大(ResourceManager)的地址 -->
<property>
        <name>yarn.resourcemanager.hostname</name>
        <value>localhost</value>	## 你的主机名
</property>
<!-- reducer获取数据的方式 -->
<property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
</property>
</configuration>


-----> 修改slaves(这里可以不改)<-----

[hadoop01@hadoop01 hadoop]$ vim slaves 
localhost	## datanode节点ip

 

4、将hadoop添加到环境变量

[hadoop01@hadoop01 etc]# vim /etc/profile
############HADOOP_HOME#############
export HADOOP_HOME=/home/hadoop01/hadoop-2.4.1
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

 

5、刷新配置文件、查询hadoop版本

[hadoop01@hadoop01 hadoop]$ source /etc/profile
[hadoop01@hadoop01 hadoop]$ hadoop version
Hadoop 2.4.1
Subversion http://svn.apache.org/repos/asf/hadoop/common -r 1604318
Compiled by jenkins on 2014-06-21T05:43Z
Compiled with protoc 2.5.0
From source with checksum bb7ac0a3c73dc131f4844b873c74b630
This command was run using /home/hadoop01/hadoop-2.4.1/share/hadoop/common/hadoop-common-2.4.1.jar

6、格式化namenode

[hadoop01@hadoop01 hadoop]$ hdfs namenode -format

最后有一行输出如下,则证明格式化成功

17/01/19 14:00:53 INFO common.Storage: Storage directory /home/hadoop01/hadoop-2.4.1/tmp/dfs/name has been successfully formatted

7、进入hadoop目录下的sbin下,启动hadoop,可以使用./start-all.sh启动,但是建议先启动HDFS再启动YARN

---->启动HDFS

[hadoop01@hadoop01 sbin]$ ./start-dfs.sh 

查看HDFS启动情况,出现以下服务名称,则证明启动成功

[hadoop01@hadoop01 sbin]$ jps
25550 DataNode
25695 SecondaryNameNode
25807 Jps
25435 NameNode

----->启动YARN

[hadoop01@hadoop01 sbin]$ ./start-yarn.sh

查看YARN启动,出现ResourceManager和NodeManager服务,则证明YARN启动成功

[hadoop01@hadoop01 sbin]$ jps
25550 DataNode
25695 SecondaryNameNode
26266 Jps
25861 ResourceManager
26146 NodeManager
25435 NameNode

8、配置ssh免密登录
输入以下命令,出现提示按回车即可

[hadoop01@hadoop01 sbin]$ cd ~
[hadoop01@hadoop01 ~]$ ssh-keygen

 

执行完这个命令后,会生成两个文件id_rsa(私钥)、id_rsa.pub(公钥)将公钥拷贝到要免密登陆的目标机器上

[hadoop01@hadoop01 ~]$ ssh-copy-id localhost

检查ssh免密登录是否成功,不需要输入密码,则表示成功

[hadoop01@hadoop01 ~]$ ssh localhost



评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值