hadoop2.0为分布式搭建

本文转载自http://www.iteblog.com/archives/790

 首先,你得在电脑上面安装好jdk7,如何安装,这里就不说了,网上一大堆教程!然后安装好ssh,如何安装请参见本博客《Linux平台下安装SSH》、并设置好无密码登录(《Ubuntu和CentOS如何配置SSH使得无密码登陆》)。好了,上面的前提条件部署好之后,下面将进入Hadoop2.2.0的部署。
运行下面命令,将最新版的hadoop下载下来:

1 [wyp@wyp hadoop]$ wget \
2  
3 http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.2.0/hadoop-2.2.0.tar.gz

  当然,你也可以用下载的软件到上面的地址去下载。上面的命令是一行,由于此处太长了, 所以强制弄成两行。假设下载好的hadoop存放在/home/wyp/Downloads/hadoop目录中,由于下载下来的hadoop是压缩好的,请将它解压,运行下面的命令:

1 [wyp@wyp hadoop]$ tar -xvf hadoop-2.2.0.tar.gz

解压之后,你将会看到如下目录结构:

01 [wyp@wyp hadoop]$ ls -l
02 total 56
03 drwxr-xr-x. 2 wyp wyp  4096 Oct  7 14:38 bin
04 drwxr-xr-x. 3 wyp wyp  4096 Oct  7 14:38 etc
05 drwxr-xr-x. 2 wyp wyp  4096 Oct  7 14:38 include
06 drwxr-xr-x. 3 wyp wyp  4096 Oct  7 14:38 lib
07 drwxr-xr-x. 2 wyp wyp  4096 Oct  7 14:38 libexec
08 -rw-r--r--. 1 wyp wyp 15164 Oct  7 14:46 LICENSE.txt
09 drwxrwxr-x. 3 wyp wyp  4096 Oct 28 14:38 logs
10 -rw-r--r--. 1 wyp wyp   101 Oct  7 14:46 NOTICE.txt
11 -rw-r--r--. 1 wyp wyp  1366 Oct  7 14:46 README.txt
12 drwxr-xr-x. 2 wyp wyp  4096 Oct 28 12:37 sbin
13 drwxr-xr-x. 4 wyp wyp  4096 Oct  7 14:38 share

下面是配置Hadoop的步骤:首先设置好Hadoop环境变量:

01 [wyp@wyp hadoop]$ sudo vim /etc/profile
02  
03 在/etc/profile文件的末尾加上以下配置
04  
05 export HADOOP_DEV_HOME=/home/wyp/Downloads/hadoop
06 export PATH=$PATH:$HADOOP_DEV_HOME/bin
07 export PATH=$PATH:$HADOOP_DEV_HOME/sbin
08 export HADOOP_MAPARED_HOME=${HADOOP_DEV_HOME}
09 export HADOOP_COMMON_HOME=${HADOOP_DEV_HOME}
10 export HADOOP_HDFS_HOME=${HADOOP_DEV_HOME}
11 export YARN_HOME=${HADOOP_DEV_HOME}
12 export HADOOP_CONF_DIR=${HADOOP_DEV_HOME}/etc/hadoop

然后按:wq保存。为了让刚刚的设置生效,运行下面的命令

1 [wyp@wyp hadoop]$ sudo source /etc/profile

接下来修改Hadoop的hadoop-env.sh配置文件,设置jdk所在的路径:

1 [wyp@wyp hadoop]$ vim etc/hadoop/hadoop-env.sh
2  
3 在里面找到JAVA_HOME,并将它的值设置为你电脑jdk所在的绝对路径
4  
5 # The java implementation to use.
6 export JAVA_HOME=/home/wyp/Downloads/jdk1.7.0_45

设置好之后请保存退出。接下来请配置好一下几个文件(都在hadoop目录下的etc/hadoop目录下):

01 ----------------core-site.xml
02 <property>
03     <name>fs.default.name</name>
04     <value>hdfs://localhost:8020</value>
05     <final>true</final>
06 </property>
07  
08 ------------------------- yarn-site.xml
09 <property>
10     <name>yarn.nodemanager.aux-services</name>
11     <value>mapreduce_shuffle</value>
12 </property>
13  
14 <property>
15     <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
16     <value>org.apache.hadoop.mapred.ShuffleHandler</value>
17 </property>
18  
19 ------------------------ mapred-site.xml
20 <property>
21     <name>mapreduce.framework.name</name>
22     <value>yarn</value>
23 </property>
24  
25 <property>
26     <name>mapred.system.dir</name>
27     <value>file:/opt/cloud/hadoop_space/mapred/system</value>
28     <final>true</final>
29 </property>
30  
31 <property>
32     <name>mapred.local.dir</name>
33     <value>file:/opt/cloud/hadoop_space/mapred/local</value>
34     <final>true</final>
35 </property>
36  
37 ----------- hdfs-site.xml 
38 <property>
39     <name>dfs.namenode.name.dir</name>
40     <value>file:/opt/cloud/hadoop_space/dfs/name</value>
41     <final>true</final>
42 </property>
43  
44 <property>
45     <name>dfs.datanode.data.dir</name>
46     <value>file:/opt/cloud/hadoop_space/dfs/data</value>
47     <description>Determines where on the local
48       filesystem an DFS data node should store its blocks.
49       If this is a comma-delimited list of directories,
50       then data will be stored in all named
51       directories, typically on different devices.
52       Directories that do not exist are ignored.
53     </description>
54     <final>true</final>
55 </property>
56 <property>
57     <name>dfs.replication</name>
58     <value>1</value>
59 </property>
60  
61 <property>
62     <name>dfs.permissions</name>
63     <value>false</value>
64 </property>

上面的配置弄好之后,现在来进行测试,看看配置是否正确。首先格式化一下HDFS,如下命令:

01 [wyp@wyp hadoop]$  hdfs namenode -format
02 13/10/28 16:47:33 INFO namenode.NameNode: STARTUP_MSG:
03 /************************************************************
04  
05 ..............此处省略好多文字......................
06  
07 ************************************************************/
08 13/10/28 16:47:33 INFO namenode.NameNode: registered UNIX signal
09 handlers for [TERM, HUP, INT]
10 Formatting using clusterid: CID-9931f367-92d3-4693-a706-d83e120cacd6
11 13/10/28 16:47:34 INFO namenode.HostFileManager: read includes:
12 HostSet(
13 )
14 13/10/28 16:47:34 INFO namenode.HostFileManager: read excludes:
15 HostSet(
16 )
17  
18 ..............此处也省略好多文字......................
19  
20 13/10/28 16:47:38 INFO util.ExitUtil: Exiting with status 0
21 13/10/28 16:47:38 INFO namenode.NameNode: SHUTDOWN_MSG:
22 /************************************************************
23 SHUTDOWN_MSG: Shutting down NameNode at wyp/192.168.142.138
24 ************************************************************/
25 [wyp@wyp hadoop]$

大概出现上面的输出,好了,去启动一下你的Hadoop吧,命令如下:

1 [wyp@wyp hadoop]$ sbin/start-dfs.sh
2 [wyp@wyp hadoop]$ sbin/start-yarn.sh

查看一下是否安装好了Hadoop,命令如下:

01 [wyp@wyp hadoop]$ jps
02 9582 Main
03 9684 RemoteMavenServer
04 7011 DataNode
05 7412 ResourceManager
06 17423 Jps
07 7528 NodeManager
08 7222 SecondaryNameNode
09 6832 NameNode
10 [wyp@wyp hadoop]$

  其中的jps是jdk自带的,如果出现NameNode、SecondaryNameNode、NodeManager、ResourceManager、DataNode这五个进程,那就恭喜你了,你的Hadoop已经安装好了!

  这里附上如何关闭Hadoop各个服务

1 [wyp@wyp hadoop]$ sbin/stop-dfs.sh
2 [wyp@wyp hadoop]$ sbin/stop-yarn.sh
本博客文章除特别声明,全部都是原创!

尊重原创,转载请注明: 转载自过往记忆(http://www.iteblog.com/)
本文链接地址: 《在Fedora上部署Hadoop2.2.0伪分布式平台》(http://www.iteblog.com/archives/790)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值