Ubuntu 12.04安装Hadoop

33 篇文章 0 订阅
1 篇文章 0 订阅

Ubuntu 12.04安装Hadoop过程详解。

相关阅读:

在Ubuntu 12.10 上安装部署Openstack http://www.linuxidc.com/Linux/2013-08/88184.htm

Ubuntu 12.04 OpenStack Swift单节点部署手册 http://www.linuxidc.com/Linux/2013-08/88182.htm

在Ubuntu上安装OpenStack的Swift组件-installing openstack object storage http://www.linuxidc.com/Linux/2013-08/88180.htm

OpenStack Hands on lab系列 http://www.linuxidc.com/Linux/2013-08/88170.htm 

1. 创建hadoop用户组和用户

a. 创建hadoop用户组 

sudo addgroup hadoop


b. 创建hadoop用户

sudo adduser –ingroup hadoop hadoop

 

c. 编辑/etc/sudoers文件,为hadoop用户添加权限

sudo vim /etc/sudoers

给hadoop用户赋予root相同的权限 

hadoop ALL=(ALL:ALL) ALL

注意:/etc/sudoers文件可能为readonly文件,修改后使用“:wq!”保存


2. 安装JDK

安装JDK的教程网上资料非常多,故省略

注意:不要安装OpenJDK,在Oracle官网上下载JDK(Oracle JDK不能使用apt-get install安装)

3. 安装ssh服务 

sudo apt-get install openssh-server


4. 设置ssh无密码登录

执行su –命令切换到hadoop用户

su – hadoop

ssh生成密钥有rsa和dsa两种,默认采用rsa方式

a. 创建ssh-key(采用rsa方式)

ssh-keygen -t rsa -P ""


b. 进入~/.ssh/目录下,将id_rsa.pub追加到authorized_keys授权文件中
  1. cd ~/.ssh
  2. cat id_rsa.pub >> authorized_keys


c. 无密码登录localhost

ssh localhost

 

d. 退出ssh连接
  1. exit

 

5. 安装Hadoop

a. 复制hadoop文件至/usr/local
  1. sudo cp sf_share/HadoopDatabase/hadoop-1.1.2.tar.gz/usr/local/

 

b. 解压.tar.gz文件
  1. cd /usr/local/
  2. sudo tar -zxvf hadoop-1.1.2.tar.gz

 

c. 修改文件名为hadoop
  1. sudo mv hadoop-1.1.2 hadoop

 

d. 将hadoop文件夹的属主用户设为hadoop
  1. sudo chown -R hadoop:hadoop hadoop

 

e. 修改配置文件conf/hadoop-env.sh的JDK路径
  1. sudo vim hadoop/conf/hadoop-env.sh
  2. export JAVA_HOME=/usr/local/jvm/jdk1.6.0_45

 

f. 修改conf/core-site.xml文件
  1. sudo vimhadoop/conf/core-site.xml

 

配置文件如下所示:

  1. <?xmlversion="1.0"?>
  2. <?xml-stylesheettypexml-stylesheettype="text/xsl"href="configuration.xsl"?>
  3. <!-- Put site-specific property overridesin this file. -->
  4. <configuration>
  5. <property>
  6. <name>fs.default.name</name>
  7. <value>hdfs://localhost:9000</value>
  8. </property>
  9. </configuration>

 

g. 修改conf/mapred-site.xml文件
  1. sudo vimhadoop/conf/mapred-site.xml

 

配置文件如下所示:

  1. <?xmlversion="1.0"?>
  2. <?xml-stylesheettypexml-stylesheettype="text/xsl"href="configuration.xsl"?>
  3. <!-- Put site-specific property overridesin this file. -->
  4. <configuration>
  5. <property>
  6. <name>mapred.job.tracker</name>
  7. <value>localhost:9001</value>
  8. </property>
  9. </configuration>

 

h. 修改conf/hdfs-site.xml文件
  1. sudo vimhadoop/conf/hdfs-site.xml

 

配置文件如下所示:

  1. <?xmlversion="1.0"?>
  2. <?xml-stylesheettypexml-stylesheettype="text/xsl"href="configuration.xsl"?>
  3. <!-- Put site-specific property overridesin this file. -->
  4. <configuration>
  5. <property>
  6. <name>dfs.name.dir</name>
  7. <value>/usr/local/hadoop/datalog1,/usr/local/hadoop/datalog2</value>
  8. </property>
  9. <property>
  10. <name>dfs.data.dir</name>
  11. <value>/usr/local/hadoop/data1,/usr/local/hadoop/data2</value>
  12. </property>
  13. <property>
  14. <name>dfs.replication</name>
  15. <value>2</value>
  16. </property>
  17. </configuration>

 

i. 编辑配置文件conf/masters,添���作为secondarynamenode的主机名(单机版仅localhost即可)
  1. sudo vimhadoop/conf/masters

 j. 编辑配置文件conf/slaves,添加作为slave的主机名(单机版仅localhost即可)

  1. sudo vimhadoop/conf/slaves

 6. 运行单机版hadoop

a. 进入hadoop目录,格式化hdfs文件系统(初次运行必做操作)
  1. bin/hadoop namenode –format


b. 启动hadoop
  1. bin/start-all.sh

 

c. 查看hadoop是否运行成功

浏览器中输入http://localhost:50070/查看NameNode


浏览器中输入http://localhost:50030/查看JobTracker


d. 停止hadoop
  1. bin/stop-all.sh


转载自:http://www.linuxidc.com/Linux/2013-08/88187p2.htm

同时可参考http://cos.name/2013/03/rhadoop1-hadoop/

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值