hadoop ubuntu 单机版部署记

下面是1.1.0 release版本的singlealone安装情况

 

1. 安装

1.1  官方网站http://hadoop.apache.org,下载hadoop-1.10.tar.gz

1.2 解压缩: tar zxvf  hadoop-1.10.tar.gz    /home/hadoop

 1.4修订    /home/hadoop/hadoop-1.1.0/conf/hadoop-env.sh

    配置java路径   export JAVA_HOME=/usr/lib/jvm/java

   配置hadoop路径  export HADOOP_HOME=/home/hadoop/hadoop-1.1.0

2. 配置ssh

$ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa 
$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys 

若是一个集群的话,把master的authorized_keys文件追加到各个slave中的authorized_keys文件。

 service sshd  使之有效。

3. 配置Hadoop内部的环境

1. conf/core-site.xml

<configuration>
 <property>
      <name>fs.default.name</name>
      <value>localhost:9000</value>
  </property>
</configuration>
2. conf/hdfs-site.xml

<configuration>
    <property> 
              <name>dfs.replication</name>
              <value>1</value>
    </property>
</configuration>
3.conf/mapred-site.xml 

<configuration>
  <property> 
         <name>mapred.job.tracker</name>
         <value>localhost:9001</value>
   </property>
</configuration>

 4 验证
  bin/hadoop namenode -format     格式化
  bin/start-all.sh 
  打开,说明部署成功了。
      http://192.168.101.167:50070/dfshealth.jsp
    http://192.168.101.167:50030/jobtracker.jsp


 

1. /home/bruce/1.txt,内容为:  
hello world
hello hadoop
文件内容输入

2.# bin/hadoop dfs -put /home/bruce/1.txt brucetest
# bin/hadoop dfs -ls 或者 # bin/hadoop dfs -ls /user/bruce
# bin/hadoop dfs -cat brucetest或者 # bin/hadoop dfs -cat /user/bruce/brucetest 

3. 执行map/reduce

bin/hadoop jar hadoop-examples-1.1.0.jar  wordcount  brucetest  outdir
4. 查看结果

bin/hadoop dfs -cat outdir/*
hadoop    1
hello    2
world    1



 

 

下面是0.2版本的安装情况

 1. 下载0.2 版本文件,解压

2 . 伪分布 配置

   设置conf中的hadoop-env.sh,设置各个主从结点的hadoop  JAVA_HOME变量

   设置conf中的如下三个配置文件

conf/core-site.xml:

<configuration> 
  <property> 
    <name>fs.default.name</name> 
    <value>hdfs://localhost:9000</value> 
  </property> 
</configuration> 


conf/hdfs-site.xml:

<configuration> 
  <property> 
    <name>dfs.replication</name> 
    <value>1</value> 
  </property> 
</configuration> 


conf/mapred-site.xml:

<configuration> 
  <property> 
    <name>mapred.job.tracker</name> 
    <value>localhost:9001</value> 
  </property> 
</configuration> 

   设置ssh登陆

  

$ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa 
$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys 

启动正常,如下所示:

bruce@ubuntu:/home/hadoop/bin$ ./start-all.sh
starting namenode, logging to /home/hadoop/bin/../logs/hadoop-bruce-namenode-ubuntu.out
localhost: starting datanode, logging to /home/hadoop/bin/../logs/hadoop-bruce-datanode-ubuntu.out
localhost: starting secondarynamenode, logging to /home/hadoop/bin/../logs/hadoop-bruce-secondarynamenode-ubuntu.out
starting jobtracker, logging to /home/hadoop/bin/../logs/hadoop-bruce-jobtracker-ubuntu.out
localhost: starting tasktracker, logging to /home/hadoop/bin/../logs/hadoop-bruce-tasktracker-ubuntu.out



3. web监控

4. 伪分布环境测试
   

将输入文件拷贝到分布式文件系统:

$hadoop  fs -mkdir  brucecppstudy

$hadoop  fs -put  /home/bruce/study/cpp/*  brucecppstudy
$ hadoop fs -put conf input

查看NameNode web展示结果如下:

Cluster Summary
58 files and directories, 42 blocks = 100 total. Heap Size is 7.56 MB / 966.69 MB (0%) 

Configured Capacity : 19.19 GB 
DFS Used : 137.78 KB 
Non DFS Used : 4.5 GB 
DFS Remaining : 14.69 GB 
DFS Used% : 0 % 
DFS Remaining% : 76.55 % 
Live Nodes  : 1 
Dead Nodes  : 0 

运行发行版提供的示例程序:
$ bin/hadoop jar hadoop-*-examples.jar grep input output 'dfs[a-z.]+'

查看输出文件:

将输出文件从分布式文件系统拷贝到本地文件系统查看:
$ bin/hadoop fs -get output output
$ cat output/*


将输出文件从分布式文件系统拷贝到本地文件系统查看:
$ bin/hadoop fs -get output output
$ cat output/*

或者

在分布式文件系统上查看输出文件:
$ bin/hadoop fs -cat output/*

完成全部操作后,停止守护进程:
$ bin/stop-all.sh



  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值