[size=large][b]1.简介[/b][/size]
windows下安装hadoop,这里采用hadoop-1.2.1其他的版本的都没有安装成功
[size=large][b]2.cgywin环境安装及设置jdk软连接[/b][/size]
下载安装cgywin:
在Select Packages界面里:
Category展开net,选择如下openssh和openssl两项
[img]http://images.cnitblog.com/blog/12097/201308/20135155-d1b594ab75114469924e247b22b305b0.png[/img]
在Eclipe上编译Hadoop,需要安装Category为Base下的sed
[img]http://images.cnitblog.com/blog/12097/201308/20135437-739ba347a1154cae857b6e5e54208338.png[/img]
在Cygwin上直接修改hadoop的配置文件,可以安装Editors下的vim
[img]http://images.cnitblog.com/blog/12097/201308/20135808-2f4bbb307c444bd0bc37a28d7727805f.png[/img]
设置软连接:
在usr/local下执行 ln -s "C:/Program Files/Java/jdk1.7.0_67" jdk1.7 命令设置jdk软连接
[size=x-large][b]3.ssh免登陆[/b][/size]
安装sshd服务:在cgywin中执行ssh-host-config -y 命令
配置SSH免密码登录:
执行ssh-keygen命令生成密钥文件:
ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa,注意-t -P -f参数区分大小写。
生成authorized_keys文件
cd ~/.ssh/
cp id_dsa.pub authorized_keys
[size=large][b]4.hadoop文件配置[/b][/size]
[color=red]这里编辑文件最好用vim编辑,如果用windows系统本身编辑器会出现错误[/color]
[b]hadoop-env.sh文件[/b]
添加: export JAVA_HOME=/usr/local/jdk1.7
[b]core-site.xml文件[/b]
[b]hdfs-site.xml文件[/b]
[b]mapred-site.xml文件[/b]
[size=large][b]5.启动测试hadoop[/b][/size]
在hadoop的bin目录下执行: ./hadoop namenode -format 格式化Hadoop的文件系统HDFS
在hadoop的bin目录下执行: ./start-all.sh 启动进程
[size=large][b]6.eclipse环境配置hadoop[/b][/size]
windows下安装hadoop,这里采用hadoop-1.2.1其他的版本的都没有安装成功
[size=large][b]2.cgywin环境安装及设置jdk软连接[/b][/size]
下载安装cgywin:
在Select Packages界面里:
Category展开net,选择如下openssh和openssl两项
[img]http://images.cnitblog.com/blog/12097/201308/20135155-d1b594ab75114469924e247b22b305b0.png[/img]
在Eclipe上编译Hadoop,需要安装Category为Base下的sed
[img]http://images.cnitblog.com/blog/12097/201308/20135437-739ba347a1154cae857b6e5e54208338.png[/img]
在Cygwin上直接修改hadoop的配置文件,可以安装Editors下的vim
[img]http://images.cnitblog.com/blog/12097/201308/20135808-2f4bbb307c444bd0bc37a28d7727805f.png[/img]
设置软连接:
在usr/local下执行 ln -s "C:/Program Files/Java/jdk1.7.0_67" jdk1.7 命令设置jdk软连接
[size=x-large][b]3.ssh免登陆[/b][/size]
安装sshd服务:在cgywin中执行ssh-host-config -y 命令
配置SSH免密码登录:
执行ssh-keygen命令生成密钥文件:
ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa,注意-t -P -f参数区分大小写。
生成authorized_keys文件
cd ~/.ssh/
cp id_dsa.pub authorized_keys
[size=large][b]4.hadoop文件配置[/b][/size]
[color=red]这里编辑文件最好用vim编辑,如果用windows系统本身编辑器会出现错误[/color]
[b]hadoop-env.sh文件[/b]
添加: export JAVA_HOME=/usr/local/jdk1.7
[b]core-site.xml文件[/b]
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
<property>
<name>mapred.child.tmp</name>
<value>/home/用户名/hadoop/tmp</value>
</property>
</configuration>
[b]hdfs-site.xml文件[/b]
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
[b]mapred-site.xml文件[/b]
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
<property>
<name>mapred.child.tmp</name>
<value>/home/用户名/hadoop/tmp</value>
</property>
</configuration>
[size=large][b]5.启动测试hadoop[/b][/size]
在hadoop的bin目录下执行: ./hadoop namenode -format 格式化Hadoop的文件系统HDFS
在hadoop的bin目录下执行: ./start-all.sh 启动进程
[size=large][b]6.eclipse环境配置hadoop[/b][/size]