ubunutu11.10下hadoop1.1.1单机版环境搭建步骤详解(二)--单机版配置

[size=medium][color=blue][align=center]ubunutu11.10下hadoop1.1.1单机版环境搭建步骤详解(二)--单机版配置[/align][/color][/size]

Hadoop是由Apache基金会开发的一个分布式系统构架。Hadoop通过分布式集群技术,将多个物理机或虚拟机当作一台机器运行,充分利用集群的威力高速运算和存储。hadoop包括了HDFS(Hadoop Distributed File System)分布式文件系统以及mapreduce并行计算框架和hbase等组成部分。Hadoop的推荐部署环境是Linux,我的电脑安装的是Win7系统,由于对Linux系统的操作一无所知,为了给自己留一条后路,我在这里使用双系统,实现hadoop的搭建。具体的搭建步骤为:
一、安装虚拟光驱
二、在虚拟光驱上安装ubuntu
三、在ubuntu中创建hadoop用户和用户组
四、在ubuntu下安装JDK,配置JDK环境
五、安装SSH,设置SSH无密码登录本机
六、安装hadoop
七、在单机上运行hadoop

[b]一、安装虚拟光驱[/b]
我的电脑是Win7系统,在这里我选择使用虚拟光驱安装ubuntu,当然大家也可以用硬盘光驱安装,差别在于前者安装系统的速度相对来说会快一点,但如果选择硬盘安装的话,这一步就可以省了。我下载的虚拟光驱是Deamon Tools Lite。
[b]二、在虚拟光驱中安装ubuntu[/b]
将ubuntu-11.10-desktop-i386.iso这个镜像文件添加到虚拟光驱中,在虚拟光驱中,双击wubi.exe文件,弹出的窗体中,选择第二个:“在windows中安装”
[align=center][img]http://dl.iteye.com/upload/attachment/0079/5433/be10f733-ace8-34a4-a693-f064158f26b4.png[/img][/align]
在弹出的界面中,选择ubuntu安装的系统盘,以及ubuntu的登录名和登录密码,因为,在切换用户时,会经常用到这个密码,方便起见,建议密码设置简单一点。设置完成后,点击“安装”,可能需要3--10分钟,安装完成后,系统会提示让你重启系统,当你重启后,选择进入ubuntu系统,进入ubuntu的图形化界面后,系统需要15-20分钟的时间配置文件,就安心等待吧。

[b]三、在ubuntu中创建hadoop用户组和hadoop_chp用户[/b]
用快捷键Ctrl+Alt+T打开终端,在终端输入以下命令:
1、创建hadoop用户组:sudo addgroup hadoop
会提示让你输入用户组密码。Hadoop用户组主要用于以后集群版,在单击版时还体现不出其作用。
sudo:super user do,超级用户操作
addgroup:添加用户组命令
2、创建hadoop_chp用户 :sudo adduser -ingroup hadoop hadoop_chp
当提示输入用户密码时,建议密码设置的简单一点,因为这个密码会经常用到,对于用户名,如果是一个团队,也建议统一一下命名规则,这里用户名为hadoop_chp.
addusr:添加用户命令
-ingroup:把用户添加到用户组的命令
3、给用户添加权限
输入:sudo gedit /etc/sudoers
gedit:打开文件命令
在文件中 root ALL=(ALL:ALL) ALL语句的下一行添加下面的命令:
hadoop_chp ALL=(ALL:ALL) ALL,然后保存,退出。

[b]四、在unbutu下安装jdk[/b]
(假设jdk的安装文件jdk-7u11-linux-i586.tar.gz在桌面上)
1、在local目录下创建一个java文件夹
进入文件夹的目录:cd /usr/local
创建java文件: sudo mkdir java
mkdir:创建文件夹的命令
(在/usr/local下面就创建了一个java 文件夹,可以去看看哦)
2、复制jdk到安装目录:
(1)进入到桌面目录(JDK压缩包所在的目录)下:cd /home/administrator/桌面
(2)复制:sudo cp jdk-7u11-linux-i586.tar.gz /usr/local/java
(/usr/local/java为目标目录)
3、安装jdk
(1) 先进入到JDK的压缩包所在的目录下:cd /usr/local/java
(2)解压:sudo tar -xzvf jdk-7u10-linux-i586.tar.gz
tar:解压命令
tar -xzvf:解压.tar.gz的压缩文件命令
(在这里jdk1.7.0的安装只需解压就可以了,不同于jdk1.6.0,注意哦)
4、配置jdk环境变量
(1)、打开配置文件:sudo gedit /etc/profile
在文件的最后面添加如下代码
 export JAVA_HOME=/usr/local/java/jdk1.7.0_10
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib:$CLASSPATH
export PATH=${JAVA_HOME}/bin:$PATH

(2)、 source ~/.bashrc
(3)、 source /etc/profile
(4)、测试:java -version
[b]五、安装ssh服务[/b]
1、安装openssh-server
sudo apt-get install openssh-server
(这里是在线安装,所以,要确保你的网络处于连接状态,这会需要一点时间,主要取决于网速)
[b]六、设置ssh无密码登录本机[/b]
ssh安装成功后:
1、创建ssh-key,有两种方式rsa和dsa,我们采用rsa方式获取密码
sudo ssh-keygen -t rsa -P “”

hadoop_chp@ubuntu:~$ ssh-keygen -t rsa -P ""
Generating public/private rsa key pair.
Enter file in which to save the key (/home/hadoop_chp/.ssh/id_rsa): /home/hadoop_chp/.ssh/id_rsa
Created directory '/home/hadoop_chp/.ssh'.
Your identification has been saved in /home/hadoop_chp/.ssh/id_rsa.
Your public key has been saved in /home/hadoop_chp/.ssh/id_rsa.pub.
The key fingerprint is:
e2:bb:35:cf:97:80:d0:52:e1:ea:fa:9a:bf:cb:fb:88 hadoop_chp@ubuntu:The key's randomart image is:
+--[ RSA 2048]----+
| .. |
| .. |
| o. |
| o.. |
| ooS. |
| o .. . |
| o o . . |
| = + + o |
| E+@*. o. |
+-----------------+
hadoop_chp@ubuntu:~$


(注:回车后会在~/.ssh/下生成两个文件:id_rsa和id_rsa.pub这两个文件是成对出现的)
2、进入~/.ssh/目录下,将id_rsa.pub追加到authorized_keys授权文件中,开始是没有authorized_keys
cd /home/hadoop_chp/.ssh
cat id_rsa.pub >> authorized_keys
3、登录localhost
ssh localhost
4、完成后,就可退出啦,exit

[b]七、安装hadoop[/b]
(假设hadoop-1.1.1.tar.gz的压缩包的压缩包在桌面)
1、将hadoop-1.1.1.tar.gz的压缩包复制到安装目录/usr/local下。
进入压缩包所在的目录:cd /home/administrator/桌面
复制:sudo cp hadoop-1.1.1.tar.gz /usr/local
2、进入到/usr/local目录下解压hadoop-1.1.1.tar.gz
sudo tar -xzvf hadoop-1.1.1.tar.gz
3、在/usr/local目录下,将解压出来的文件hadoop-1.1.1改名为hadoop,便于以后的操作
sudo mv hadoop-1.1.1.1 hadoop
mv:更改命令
4、将文件hadoop的属性用户改为用户hadoop_chp和组hadoop
sudo chown -R hadoop_chp:hadoop hadoop
5、在/usr/local/hadoop/conf目录下打开hadoop-env.sh文件
sudo gedit hadoop-env.sh
6、配置conf/hadoop-env.sh(#export JAVA_HOME=前的#去掉,然后加上本机jdk的绝对路径)
export JAVA_HOME=/usr/local/java/jdk1.7.0-10
7、在/usr/local/hadoop/conf目录下打开core-site.xml文件编辑如下
<configuration>

<property>

<name>fs.default.name</name>

<value>hdfs://localhost:9000</value>

</property>

</configuration>

8、在/usr/local/hadoop/conf目录下打开mapred-site.xml文件,编辑如下
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>

</configuration>

9、在/usr/local/hadoop/conf目录下打开hdfs-site.xml文件,编辑如下:
 <configuration>

<property>

<name>dfs.name.dir</name>

<value>/usr/local/hadoop/datalog1,/usr/local/hadoop/datalog2</value>

</property>

<property>

<name>dfs.data.dir</name>

<value>/usr/local/hadoop/data1,/usr/local/hadoop/data2</value>

</property>

<property>

<name>dfs.replication</name>

<value>2</value>

</property>

</configuration>

10、在/usr/local/hadoop/conf目录下打开masters文件,作为secondrynamenode的主机名,作为单机版环境,名字为localhost
11、在/usr/local/hadoop/conf目录下打开slaves文件,作为slave的主机名,单机版,就为localhost,不要改了。
[b]八、在单机上运行hadoop[/b]
(由于我们jdk配置的是用户环境,所以,每次我们都要保存一下,执行命令source /etc/profile,至于为什么,我还没弄懂,知道的亲们,告诉我一哈啦,感谢...)

1、初次运行时,进入/usr/local/hadoop目录下,格式化hdfs文件系统
bin/hadoop namenode -format
(博主提示:这一步如果出错,很可能是jdk的环境没有配置成功,不妨javac试一下)
2、在/usr/local/hadoop目录下启动hadoop
bin/start-all.sh
当出现以下代码时,表示启动成功:
hadoop_chp@ubuntuCHP:/usr/local/hadoop$ bin/start-all.sh
starting namenode, logging to /usr/local/hadoop/libexec/../logs/hadoop-hadoop_chp-namenode-ubuntuCHP.out
localhost: starting datanode, logging to /usr/local/hadoop/libexec/../logs/hadoop-hadoop_chp-datanode-ubuntuCHP.out
localhost: starting secondarynamenode, logging to /usr/local/hadoop/libexec/../logs/hadoop-hadoop_chp-secondarynamenode-ubuntuCHP.out
starting jobtracker, logging to /usr/local/hadoop/libexec/../logs/hadoop-hadoop_chp-jobtracker-ubuntuCHP.out
localhost: starting tasktracker, logging to /usr/local/hadoop/libexec/../logs/hadoop-hadoop_chp-tasktracker-ubuntuCHP.out

3、检测hadoop是否启动成功,执行jps
hadoop_chp@ubuntuCHP:/usr/local/hadoop$ jps

9878 SecondaryNameNode

9428 NameNode

9654 DataNode

10248 Jps

10188 TaskTracker

9967 JobTracker


如果有namenode,secondarynamenode,tasktracker,datanode,jobtracker五个进程,就说明已经启动了
4、关闭bin/stop-all.sh
hadoop_chp@ubuntuCHP:/usr/local/hadoop$ bin/stop-all.sh
stopping jobtracker
localhost: stopping tasktracker
stopping namenode
localhost: stopping datanode
localhost: stopping secondarynamenode

噢啦,hadoop单机版搭建步骤基本完成,真是历经波折啊。
注:相关文件的下载地址见:[url]http://carmen-hongpeng.iteye.com/blog/1772660[/url]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值