在ubuntu12.04上安装单机版详细hadoop步骤

  1. 通过ctrl+alt+t打开终端编辑器。

  2. 创建hadoop用户组:输入命令sudo  addgroup  hadoop

  3. 创建hadoop用户: 输入命令sudo   adduser  -ingroup   hadoop   hadoop

    在出现enter new unix password是输入密码,再重复输入一遍,剩下的就一路enter下去

  4. 给hadoop用户添加权限,打开/etc/sudoers文件:sudo  gedit   /etc/sudoers    

     在root   ALL=(ALL:ALL)   ALL下添加hadoop   ALL=(ALL:ALL)  ALL

  5. 安装jdk:sudo  apt-get  install   openjdk-7-jdk

  6. 安装ssh :  sudo  apt-get   install  ssh  openssh-server

  7. 建立ssh无密码登陆本机

    首先要转换到hadoop用户,通过:su  -   hadoop

    创建ssh-key:  ssh-keygen  -t   rsa  -p  ""当没生成如下时换成ssh-keygen  -t   rsa

   

  8.进入~/.ssh/目录下,将id_rsa.pub追加到authorized_keys授权文件中,开始是没有authorized_keys文件的:cd  ~/.ssh    然后  cat  id_rsa.pub  >>  authorized_keys

  9.首先把下载的hadoop压缩包放在/usr/local目录下

    通过sudo  nautilus高级用户权限来打开文件夹从HOME/DESKTOP下移动到/usr/local文件夹下.

    解压hadoop-0.23.10.tar.gz在/usr/local/下,然后改名为hadoop文件名,命令为如下:

    cd  /usr/local

    sudo  tar  -zxf   hadoop-0.23.10.tar.gz

    sudo  mv  hadoop-0.23.10 hadoop

  10.将该hadoop文件夹的属主用户设置为hadoop:sudo  chown  -R  hadoop:hadoop  hadoop

  11.打开hadoop/conf/hadoop-env.sh文件:sudo  gedit  hadoop/conf/hadoop-env.sh

     配置conf/hadoop-env.sh(找到#export JAVA_HOME=......去掉#,改为:

     export JAVA_HOME=/usr/lib/jvm/java-6-openjdk

   12.打开conf/core-site.xml文件:

       sudo gedit hadoop/conf/core-site.xml

   编辑  

<?xml version="1.0"?> 

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>                                                                                                         

<!-- Put site-specific property overrides in this file. --> 

                                                           

<configuration> 

<property>    

  <name>fs.default.name</name>    

  <value>hdfs://localhost:9000</value>     

 </property>    

10 </configuration> 

  13.打开conf/mapred-site.xml文件:

     sudo gedit hadoop/conf/mapred-site.xml

    

<?xml version="1.0"?> 

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>                                                                                                           

<!-- Put site-specific property overrides in this file. -->                                                  

    <configuration>    

     <property>     

      <name>mapred.job.tracker</name>    

      <value>localhost:9001</value>     

     </property>    

    </configuration> 

 14.打开conf/hdfs-site.xml文件:

    

<configuration> 

<property> 

<name>dfs.name.dir</name> 

<value>/usr/local/hadoop/datalog1,/usr/local/hadoop/datalog2</value> 

</property> 

<property> 

<name>dfs.data.dir</name> 

<value>/usr/local/hadoop/data1,/usr/local/hadoop/data2</value> 

</property> 

10 <property> 

11 <name>dfs.replication</name> 

12 <value>2</value> 

13 </property> 

14 </configuration> 

 15.进入hadoop目录下,格式化hdfs文件系统,初次运行hadoop时一定要有该

      cd /usr/local/hadoop/
       bin/hadoop namenode -format

  16.当你看到下图时,就说明你的hdfs文件系统格式化成功了

 

17.启动bin/start-all.sh:     bin/start-all.sh

    18.检测hadoop是否启动成功:输入jps

说明你的hadoop单机版环境变量配置好了。

  19.在浏览器中输入localhost:50030就可进入hadoop管理界面了。

 

转载于:https://my.oschina.net/yuyanghuoming/blog/224040

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值