Cygwin搭建Hadoop环境

 

Hadoop单节点(Single Node)配置
1. 首先将下载的hadoop放到你的主目录(cygwin安装目录下的home/用户名)中,使用tar –xzvf hadoop_1.0.4.bin.tar.gz将hadoop解压。

2. 在windows下安装好jdk(我这里下载的是:jdk-6u24-windows-i586.exe) ,安装完成后,去到cygwin下转到hadoop的conf目录,使用vi编辑hadoop-env.sh运行环境相关配置,去掉export JAVA_HOME前面的#注释,修改为本机对应的jdk目录。

注意:JAVA_HOME的设置,如果已经设置了jdk目录的软连接,直接填写软连接的目录,可避免路径中包含空格的问题,如:/usr/local/jdk1.7.0_09.

软连接建立:ln -s "C:\Program Files\Java\jdk1.6.0_24"   /usr/local/jdk1.6.0_24.

3. 分配配置以下3个文件:

conf/core-site.xml:

<configuration>
     <property>
         <name>fs.default.name</name>
         <value>hdfs://localhost:9000</value>
     </property>
</configuration>

conf/hdfs-site.xml:

<configuration>
     <property>
         <name>dfs.replication</name>
         <value>1</value>
     </property>
</configuration>

 

conf/mapred-site.xml:

<configuration>
     <property>
         <name>mapred.job.tracker</name>
         <value>localhost:9001</value>
     </property>
</configuration>
4. 设置ssh免登陆:在Cygwin中使用如下命令设置不需要密码的dsa秘钥对。

$ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

设置完成后使用ssh localhost测试能否登陆到本机,如果无法连接请查看ssh服务的配置是否正确。

运行Hadoop
1. 首先要格式化hadoop文件系统(只需第一使用的时候,或是hadoop出现重大的难以修复的故障是才格式化)

$ bin/hadoop namenode –format

2. 启动hadoop

$ bin/start-all.sh

3. 测试hadoop是否正常启动

访问namenode节点:http://localhost:50070/

访问jobtracker节点:http://localhost:50030/

如果以上2个节点都能正常访问说明hadoop已经正常启动了,如果不能正常访问可以查看${HADOOP_HOME}/logs目录下的日志,找到错误原因。

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值