Hadoop集群搭建(Hadoop)

首先说一下配置环境:三台电脑
192.168.30.149 Hadoop149 namenode和jobtracker   ###因为149机器稍微好一点 

  1. 192.168.30.150  hadoop150 datanode和TaskTracker  
  2. 192.168.30.148  hadoop150 datanode和TaskTracker  

配置ssh无需密码登陆:

  1. $ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa  
  2. $ cat~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys  
  1. 我的master在149可以吧149的.pub文件拷贝到150和148上 然后执行<pre name="code" class="plain">cat~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys  
  1.   
  1. <span style="color:#ff0000;">如果存在问题有可能是文件权限问题!</span>  
 

我用的hadoop版本是hadoop-0.20.2 下载地址:

 

  1. </pre><p>google吧 过两天弄个网盘都放在上面再写到这里。</p><p></p><p>下载后:编辑几个文件:</p><p>在/root/hadoop-0.20.2/conf中(这里注意的是几台电脑的hadoop文件路径必须相同):加入如下一句话</p><p></p><p>   [root@localhostconf]# vim <span style="color: rgb(255, 0, 0); ">hadoop-env.sh </span>      </p><p></p><pre name="code" class="plain"> exportJAVA_HOME=/usr/java/jdk1.7.0_01     ###设置变量  

 

   [root@localhostconf]# vim core-site.xml 

 

  1. <?xmlversion="1.0"?>  
  2. <?xml-stylesheettype="text/xsl" href="configuration.xsl"?>  
  3.           
  4. <!-- Put site-specificproperty overrides in this file. -->  
  5.           
  6. <configuration>  
  7. <property>  
  8. <name>fs.default.name</name>  
  9. <value>hdfs://192.168.30.149:9000</value> ###具体的意义之后会讲解  
  10. </property>  
  11. </configuration>  

[root@localhostconf]# vim mapred-site.xml 

 

  1. <?xmlversion="1.0"?>  
  2. <?xml-stylesheettype="text/xsl" href="configuration.xsl"?>  
  3.    
  4. <!-- Putsite-specific property overrides in this file. -->  
  5.    
  6. <configuration>  
  7. <property>  
  8. <name>mapred.job.tracker</name>  
  9. <value>hdfs://192.168.30.149:9004</value>  
  10. </property>  
  11. </configuration>  

[root@localhostconf]# vim hdfs-site.xml

 

  1. <?xmlversion="1.0"?>  
  2. <?xml-stylesheettype="text/xsl" href="configuration.xsl"?>  
  3.    
  4. <!-- Putsite-specific property overrides in this file. -->  
  5.    
  6. <configuration>  
  7. <property>  
  8. <name>dfs.replication</name>  
  9. <value>2</value>  
  10. </property>  
  11. </configuration><span style="font-family: Arial, Verdana, sans-serif; white-space: normal; background-color: rgb(255, 255, 255); ">        </span>  

[root@localhostconf]# vim masters 

 

  1. hadoop149   

 

[root@localhostconf]# vim slaves 

 

  1. hadoop150  
  2. hadoop148  

 

一共编辑了5个文件,具体意义代表什么,之后会讲到

这里注意要被指/etc/hosts文件,如下(192.168.30.149):

         [root@localhostconf]# vim /etc/hosts

 

 

  1. # Do not removethe following line, or various programs  
  2. # that requirenetwork functionality will fail.  
  3. 127.0.0.1               localhost.localdomain localhost  
  4. ::1             localhost6.localdomain6 localhost6  
  5.           
  6. 192.168.30.149hadoop149  
  7. 192.168.30.150hadoop150  
  8. 192.168.30.148hadoop148  


 

 

4.启动hadoop:

这里用简单的命令进行启动,

         A.格式化文件系统:                 

  1. #bin/hadoop namenode –format  

         B.启动hadoop                 

  1. #bin/start-all.sh  

         C.利用hadoop自带的例子测试hadoop是否启动成功                  

  1. #bin/hadoop fs -mkdir input     ###在文件系统中创建input文件夹  
  2. #bin/hadoopfs -put README.txt input    ###把本地readme.txt上传到input中  
  3. #bin/hadoop fs –lsr            ###查看本件系统所有文件  
  4.     存在文件并且大小不为0则hadoop文件系统搭建成功。  
  5. #bin/hadoopjar hadoop-0.20.2-examples.jar wordcount input/README.txt output  
  6.                                                                                     ###将输出结果输出到output中  
  7. #bin/hadoop jar hadoop-0.20.2-examples.jar wordcount input/1.txt output  

11/12/02 17:47:14 INFOinput.FileInputFormat: Total input paths to process : 1

11/12/02 17:47:14 INFO mapred.JobClient:Running job: job_201112021743_0001

11/12/02 17:47:15 INFOmapred.JobClient:  map 0% reduce 0%

11/12/02 17:47:22 INFOmapred.JobClient:  map 100% reduce 0%

11/12/02 17:47:34 INFOmapred.JobClient:  map 100% reduce 100%

11/12/02 17:47:36 INFO mapred.JobClient:Job complete: job_201112021743_0001

11/12/02 17:47:36 INFO mapred.JobClient:Counters: 17

11/12/02 17:47:36 INFOmapred.JobClient:   Job Counters

11/12/02 17:47:36 INFOmapred.JobClient:     Launched reducetasks=1

11/12/02 17:47:36 INFOmapred.JobClient:     Launched maptasks=1

11/12/02 17:47:36 INFOmapred.JobClient:     Data-local maptasks=1

11/12/02 17:47:36 INFOmapred.JobClient:   FileSystemCounters

11/12/02 17:47:36 INFOmapred.JobClient:    FILE_BYTES_READ=32523

11/12/02 17:47:36 INFOmapred.JobClient:    HDFS_BYTES_READ=44253

11/12/02 17:47:36 INFOmapred.JobClient:    FILE_BYTES_WRITTEN=65078

11/12/02 17:47:36 INFOmapred.JobClient:    HDFS_BYTES_WRITTEN=23148

11/12/02 17:47:36 INFOmapred.JobClient:   Map-Reduce Framework

11/12/02 17:47:36 INFOmapred.JobClient:     Reduce inputgroups=2367

11/12/02 17:47:36 INFOmapred.JobClient:     Combine outputrecords=2367

11/12/02 17:47:36 INFOmapred.JobClient:     Map inputrecords=734

11/12/02 17:47:36 INFOmapred.JobClient:     Reduce shufflebytes=32523

11/12/02 17:47:36 INFOmapred.JobClient:     Reduce outputrecords=2367

11/12/02 17:47:36 INFO mapred.JobClient:     Spilled Records=4734

11/12/02 17:47:36 INFOmapred.JobClient:     Map outputbytes=73334

11/12/02 17:47:36 INFOmapred.JobClient:     Combine inputrecords=7508

11/12/02 17:47:36 INFOmapred.JobClient:     Map outputrecords=7508

11/12/02 17:47:36 INFOmapred.JobClient:     Reduce inputrecords=2367 

也可以通过本地浏览器进行查看状态:50070和50030端口(注意配置本地C:\Windows\System32\drivers\etc\hosts文件)

 

  1. 192.168.30.150      hadoop150  
  2. 192.168.30.149      hadoop149  
  3. 192.168.30.148      hadoop148  
  4. 推荐阅读文章

    大数据工程师在阿里面试流程是什么?

    学习大数据需要具备怎么样基础?

    年薪30K的大数据开发工程师的工作经验总结?

  5.  

     

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值