ubuntu server 12.04 安装 hadoop-1.1.1

环境如下:
ubuntu server  12.04

hadoop 1.1.1

 

1) master和slave /etc/hosts文件修改

hadoop@hadoop-master:~$ sudo apt-get install default-jdk

  1. hadoop@master:~$ sudo vim /etc/hosts
  2. 修改为:     本机地址  master hadoop-master
  3.              xx.xx.xx.xx slave1 hadoop-slave

2) 创建统一用户hadoop并且实现ssh认证登录(master可以无密码登录slave)

  1. hadoop@master:~$sudo apt-get install ssh
  2. hadoop@master:~$sudo /etc/init.d/sshd start
  3. hadoop@master:~$cd ~/.ssh
  4. hadoop@master ssh:~$ssh-keygen -t rsa
  5. hadoop@master ssh:~$cat id_rsa.pub >> authorized_keys

3) 安装jdk

hadoop@-master:~$ sudo apt-get install default-jdk


  1. export JAVA_HOME=/usr/lib/jvm/java-6-openjdk-i386
  2. export HADOOP_HOME=/home/hadoop/hadoop-1.0.2
  3. export PATH=$PATH:$HADOOP_HOME/bin:$JAVA_HOME/bin
  4. export HADOOP_HOME_WARN_SUPPRESS=1  #屏蔽hadoop的一个警告

4) 安装hadoop


  1. #下载hadoop-1.0.2
  2. hadoop@master:~$ wget -c http://archive.apache.org/dist/hadoop/core/hadoop-1.0.1/hadoop-1.0.2.tar.gz
  3. #解压
  4. hadoop@master:~$tar xvzf hadoop-1.0.2.tar.gz
  5. #软链接
  6. hadoop@master:~$ ln -s hadoop-1.0.2 hadoop

5) 配置hadoop
#
conf/hadoop-env.sh


  1. #添加jdk
  2. export JAVA_HOME=/usr/lib/jvm/java-6-openjdk-i386

#conf/mapred-site.xml


  1. #hdfs-site.xm<?xml version="1.0"?>
  2. <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
  3. <!-- Put site-specific property overrides in this file. -->
  4. <configuration>

  5. <property>
  6. <name>mapred.job.tracker</name>
  7. <value>hadoop-master:9001</value>
  8. </property>
  9. </configuration>

#conf/hdfs-site.xml


  1. <?xml version="1.0"?>
  2. <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
  3. <!-- Put site-specific property overrides in this file. -->

  4. <configuration>

  5. <property>
  6. <name>dfs.name.dir</name>
  7. <value>/home/hadoop/name</value>
  8. </property>

  9. <property>
  10. <name>dfs.data.dir</name>
  11. <value>/home/hadoop/data</value>
  12. </property>

  13. <property>
  14. <name>dfs.replication</name>
  15. <value>1</value>  #默认是3份
  16. </property>
  17. </configuration>

#conf/core-site.xml

  1. <?xml version="1.0"?>
  2. <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
  3. <!-- Put site-specific property overrides in this file. -->

  4. <configuration>

  5.   <property>
  6.     <name>fs.default.name</name>
  7.     <value>hdfs://hadoop-master:9000</value>
  8.   </property>

  9.   <property>
  10.     <name>hadoop.tmp.dir</name>
  11.     <value>/home/hadoop/tmp</value>
  12.   </property>

  13. </configuration>

#conf/master

hadoop-master

#conf/slaves

hadoop-slave1

6) 格式化文件系统

 

  1. hadoop@master:~$ cd hadoop-1.1.1/
  2. hadoop@master:~/hadoop-1.1.1$ bin/hadoop namenode -format

7) 启动所有结点

hadoop@master:~/hadoop-1.0.2$ bin/start-all.sh

8)查看运行状态

hadoop@master:~/hadoop-1.0.2$ bin/hadoop dfsadmin -report


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值