Hadoop安装

一:环境准备

1:准备虚拟机一台,我安装的是redhat6.4的32位操作系统。

2:修改hostname。使用命令hostname localhost(如需重启后生效,可以修改配置文件/etc/sysconfig/network中的HOSTNAME=localhost即可)。另修改/etc/hosts ,#注释掉默认的文本,添加127.0.0.1 localhost即可。

3:jdk安装,虚拟机是32位的,可下载jdk-6u43-linux-i586.bin文件,上传到/home/software目录下,用命令chmod755jdk-6u43-linux-i586.bin授可执行权限。然后./jdk-6u43-linux-i586.bin执行即可快速安装,默认路径在/home/software/jdk1.6.0_43目录中。

 4:配置JAVA_HOME。在/etc/profile文件中添加

      exportJAVA_HOME=/home/software/jdk1.6.0_43

      export PATH = $PATH:$JAVA_HOME/bin

      保存后用命令source /etc/profile使环境配置修改生效。

用命令java、javac、java-version测试jdk是否成功。

二 :免密码ssh设置

 ssh-keygen -t rsa

一直按<Enter>由于不设置密码,所以就一直回车就行。 

 如果是root用户,默认生成文件在/root/.ssh中,进入目录中,使用命令cp  id_rsa_put  authorized_keys

生成authorized_keys。

测试:


ssh localhost

如果不需要输入密码即设置成功,恭喜你,可以进入下一步了。 

三、下载hadoop2.2.0包解压安装。

   大家可以自行到www.apache.org官网下载安装,也可以到下面http://mirrors.hust.edu.cn/apache/hadoop/common/hadoop-2.2.0/这个地址下载hadoop-2.2.0.tar.gz这个包,下载好后放入/home根目录下,用命令tar-zxvf hadoop-2.2.0.tar.gz解压即可。

   /home目录下会生成hadoop-2.2.0目录,为了便于升级和管理,增加一个链接目录,用命令ln -s hadoop2.2.0 hadoop既可。

   最后配置HADOOP_HOME的环境变量

   JAVA_HOME类似,在/etc/profile文件中添加

   export HADOOP_HOME=/home/hadoop即可。

   至此hadoop环境及环境变量已经安装完毕,够简单吧,够帅吧,离成功越来越近。

四:修改配置文件

修改的文件都在/home/hadoop/etc/hadoop下:

core-site.xmlhdfs-site.xmlyarn-site.xml 、mapred-site.xml. 四个文件

文件说明(略)

配置文件的添加和修改都在<configuration></configuration> 中

1、core-site.xml

<property>

   <name>fs.defaultFS</name>

   <value>hdfs://localhost:9000</value>

 </property>

 <property>

   <name>hadoop.tmp.dir</name>

   <value>/home/hadoop/hadoop_tmp</value>

 </property>


添加hdfs的指定URL路径,由于是伪分布模式,所以配置的是本机IP,可为真实ip、localhost。

2、hdfs-site.xml

<property>
  <name>dfs.namenode.name.dir</name>
  <value>/home/namenode</value>
</property>
<property>
  <name>dfs.datanode.data.dir</name>
  <value>/home/datanode</value>
</property>



主要是对namenode 和datanode 存储路径的设置。为了便于管理,最好配置一下。

3、mapred-site.xml

<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>

hadoop2.0有了yarn所以原来的mapred配置都转向yarn-site.xml文件中了,这里也就指定yarn。

4、yarn-site.xml 

为了简单,快速做测试,使用默认的即可。

五 :hadoop启动

启动的文件都是 sbin下,bin下的都是命令。

使用命令cd $HADOOP_HOME切换到该安装目录下

首先格式化 namenode

 
bin/hdfs namenode -format


确定不报错,且出现

/************************************************************

SHUTDOWN_MSG:Shutting down NameNode at startos/localhost

************************************************************/

启动namenode


sbin/hadoop-daemon.sh start namenode
sbin/hadoop-daemon.sh start datanode


运行测试

jps


出现: 

12935 NameNode

5309 Jps

13012 DataNode

证明启动成功,如果没有出现DataNode或者NameNode,证明启动没有成功,可以查看hadoop安装目录下的logs下的日志记录。

可以使用sbin/hadoop-daemon.sh stopdatanode(或namenode)来关闭。

启动Manage管理

 

sbin/yarn-daemon.sh start resourcemanager
sbin/yarn-daemon.sh start nodemanager


运行测试

jps


出现: 

13338NodeManager

13111ResourceManager

12935 NameNode

5309 Jps

13012 DataNode

证明启动成功同时也可以使用yarn-daemon.sh stop resourcemanager(nodemanager)来关闭。

如果没有单独配置yarn-site.xml中的yarn.resourcemanager.webapp.address,默认的端口8088访问

http://127.0.0.1:8088/  可以访问hadoop管理页面

如果没有单独配置hdfs-site.xml中的dfs.namenode.http-address,默认端口50070

http://127.0.0.1:50070 可以访问namenode节点信息。

 

六:测试运行

操作命令与hadoop1.0非常类似,几乎相同。

首先进入HADOOP_HOME,cd$HADOOP_HOME

1:在dfs上创建一个目录input

   bin/hadoop dfs -mkdir /input

2:上传本地文件到input中

   bin/hadoop dfs -put README.txt  /input

3:查看上传的文件

   bin/hadoop dfs -ls /input 

同时也可以通过http://127.0.0.1:50070 查看节点下的文件。

OK,hadoop2.2.0稳定版__伪分布式安装完美收工。开心开启hadoop2.0之旅。

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 5
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值