hadoop集群安装步骤

一、环境准备阶段:
假设你需要配置集群的设备有5台:分别为master,slave1,slave2,slave3,slave4
1、每台机器都创建一个账户hadoop;
2、修改每台机器的主机名:/etc/sysconfig/network  
如master的机器:
NETWORKING=yes
HOSTNAME=master(这个名字可以随便起,方便记忆)
slave1:
NETWORKING=yes
HOSTNAME=slave1
slave2:
.....以此类推;
修改完文件后,最后记得在相应的机器上执行hostname master(你修改后的名字) ,hostname slave1等;
3、修改每台机器的/etc/hosts,保证每台机器间都可以通过机器名解析,注意master和slave每台机器都要修改,保证所有机器的hosts文件内容一样;
如:
192.168.30.60  master
192.168.30.61  slave1
192.168.30.62  slave2
192.168.30.63  slave3
192.168.30.65  slave4

4、实现无密码登陆ssh
由于hadoop需要通过ssh服务在各个节点之间登陆并运行服务,因此必须确保安装hadoop的各个节点之间的网络畅通;
确保机器上安装了ssh
(1) 用hadoop用户登陆master机器:
(2)执行:ssh-keygen -t rsa 一路回车(记得不要输入任何字符),将在/home/hadoop/.ssh下生成密钥id_rsa和公钥id_rsa.pub
id_rsa.pub的可能内容:
ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEA3XYLxqxNfltkbKuCpJJDTuQekVJ0L3XA6dLoLQpPLbZxJNQ7DsogcMYM9opg+R1baTMvm1Cbj/cfIwELHPSRLFjN7E6x9S7PWnS2tObXosBNZ/eo6+eZiAF0h0LL+1Rsfsne2cP3amhdztbudSzm1ezLRPBLNUh0FKwDjbgnK2ZZy49h6vCvOZRKJPQf+B3xTSTbix/omalecCdYc1bCFvifOy1pgWVchKSQsynN0V901dA7CAfIjsAKc4DfyGcdoFNFp+POz6+q4AiYUmO+QTh7wPRa2vTg6FRlaaqvTUfnep6prFSVPe/Jh6dt6yyH0k7sIPDIl/kca6cZX0YgNw== hadoop@master
(3)把公钥id_rsa.pub内容拷贝到authorized_keys 
cat /home/hadoop/.ssh/id_rsa.pub >>/home/hadoop/.ssh/authorized_keys
(4)把authorized_keys复制到其他的slave机器上:scp /home/hadoop/.ssh/authorized_keys hadoop@192.168.30.61:/home/hadoop/.ssh/、scp /home/hadoop/.ssh/authorized_keys hadoop@192.168.30.62:/home/hadoop/.ssh/ ......等,先确定slave机器上都有.ssh目录,如果没有手动创建一个;
(5)设置目录权限(所有机器)
chmod 750 hadoop
chmod 750 .ssh
chmod 644  authorized_keys 
(6)验证ssh是否成功
在master机器上执行ssh slave1 
如果不需要输入密码即可

5、安装JDK
这里和普通的安装JDK步骤一样;
首先下载最近的JDK,安装程序,修改环境变量等等;

二、安装hadoop
1、获取cdh3 yum 源并安装Hadoop
(1)wget -c http://archive.cloudera.com/redhat/cdh/cdh3-repository-1.0-1.noarch.rpm
(2)yum --nogpgcheck localinstall cdh3-repository-1.0-1.noarch.rpm   //安装后将得到 cloudera-cdh3.repo 文件
(3)rpm --import http://archive.cloudera.com/redhat/cdh/RPM-GPG-KEY-cloudera  // 导入 rpm key
(4)yum install hadoop-0.20
(5)yum install hadoop-0.20-namenode    (安装到要作为namenode的机器,在 /etc/hadoop/conf/core-site.xml中配置,后面会讲到
        yum install hadoop-0.20-datanode     (安装到所有的slave机器,也可以安装到namenode机器,把namenode也作为一台datanode)
        yum install hadoop-0.20-jobtracker     (安装到作为jobtracker机器,jobtrancker机器配置是在/etc/hadoop/conf/hdfs-site.xml 里面配置)
         yum install hadoop-0.20-tasktracker
        不同的角色安装不同服务;安装datanode的机器需要安装tasktracker,namenode机器也可以用来作为datanode
2、修改配置文档 (hdfs 方面)
//slaves 配置文件 namenode 上配置即可 
cat /etc/hadoop/conf/slaves  
192.168.30.61
192.168.30.62
192.168.30.63
192.168.30.64
cat /etc/hadoop/conf/masters 
192.168.30.60
3、修改/etc/hadoop/conf/hdfs-site.xml 配置文件
<?xml version="1.0"?> 
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?> 


<!-- Put site-specific property overrides in this file. --> 


<configuration> 
 <property> 
   <name>dfs.replication</name> 
   <value>1</value> 
 </property> 
 <property> 
    <name>dfs.permissions</name> 
    <value>false</value> 
 </property> 
 <!-- Immediately exit safemode as soon as one DataNode checks in. 
      On a multi-node cluster, these configurations must be removed.  --> 
 <property> 
   <name>dfs.safemode.extension</name> 
   <value>0</value> 
 </property> 
 <property> 
    <name>dfs.safemode.min.datanodes</name> 
    <value>1</value> 
 </property> 
<!-- 
 <property> 
     specify this so that running 'hadoop namenode -format' formats the right dir 
    <name>dfs.name.dir</name> 
    <value>/var/lib/hadoop-0.20/cache/hadoop/dfs/name</value> 
 </property> 


--> 


<!-- add by dongnan --> 


<property> 
<name>dfs.data.dir</name> 
<value>/data/dfs/data</value> 
</property> 


<property> 
<name>hadoop.tmp.dir</name> 
<value>/data/dfs/tmp</value> 
</property> 


<property> 
<name>dfs.datanode.max.xcievers</name> 
<value>200000</value> 
</property> 




</configuration> 
4、修改/etc/hadoop/conf/core-site.xml 配置文件
<?xml version="1.0"?> 
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?> 


<!-- Put site-specific property overrides in this file. --> 



<configuration> 


<property> 
<name>fs.default.name</name> 
<value>hdfs://namenode:8020</value> 
</property> 


</configuration>
5、修改/etc/hadoop/conf/mapred-site.xml 
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>


<!-- Put site-specific property overrides in this file. -->


<configuration>


<property>
    <name>mapred.job.tracker</name>
        <value>192.168.30.61:9001</value>
          </property>


  <property>
      <name>mapred.child.java.opts</name>
          <value>-Xmx1024m -XX:+UseConcMarkSweepGC</value>
            </property>


  <property>
      <name>mapred.tasktracker.map.tasks.maximum</name>
          <value>1</value>
            </property>


  <property>
      <name>mapred.tasktracker.reduce.tasks.maximum</name>
          <value>1</value>
            </property>


  <property>
      <name>mapred.local.dir</name>
          <value>/data1/hdfs/</value>
              <description>The local directory where MapReduce stores intermediate
                  data files.  May be a comma-separated list of
                      directories on different devices in order to spread disk i/o.
                          Directories that do not exist are ignored.
                              </description>
                                </property>


    <property>
            <name>mapreduce.jobtracker.staging.root.dir</name>
                    <value>/user</value>
                        </property>


    <property>
            <name>mapred.system.dir</name>
                    <value>/mapred/system</value>
                        </property>


  <property>
      <name>io.sort.mb</name>
          <value>256</value>
              <description>The total amount of buffer memory to use while sorting 
                    files, in megabytes.  By default, gives each merge stream 1MB, which
                          should minimize seeks.</description>
                            </property>


  <property>
      <name>io.sort.factor</name>
          <value>64</value>
            </property>


  <property>
      <name>mapred.max.map.failures.percent</name>
          <value>10</value>
            </property>


  <property>
      <name>mapred.job.reuse.jvm.num.tasks</name>
          <value>1</value>
              <description>jvm reuse tasks count. default is 1. If it is -1, there is no limit</description>
                </property>


  <property>
      <name>mapred.reduce.parallel.copies</name>
          <value>64</value>
            </property>


<!--
       <property>
           <name>job.end.notification.url</name>
               <value>http://182.61.128.18:50030/test_url.jsp?jobid=$jobId&amp;jobStatus=$jobStatus</value>
                   <description>jvm reuse tasks count. default is 1. If it is -1, there is no limit</description>
                     </property>


-->
<!--
<property>   
     <name>mapred.jobtracker.taskScheduler</name>    
          <value>org.apache.hadoop.mapred.CapacityTaskScheduler</value>
          </property>


<property>   
     <name>mapred.queue.names</name>    
          <value>default,ca</value>
          </property>
-->


</configuration>

6、启动hadoop 相应进程
root@namenode ~]# /etc/init.d/hadoop-0.20-namenode start  (1台namenode)
[root@slave1 /]# /etc/init.d/hadoop-0.20-datanode start          (4台datanode)
[root@slave2 /]# /etc/init.d/hadoop-0.20-datanode start          
[root@slave1 /]# /etc/init.d/hadoop-0.20-tasktracker start         (4台tasktracker 跟datanode相应)
[root@slave1 /]# /etc/init.d/hadoop-0.20-jobtracker start  
         (1台jobtracker)
在相应的机器上启动相应的服务;
7、OK安装完毕
http://192.168.30.60:50070/                  (namenode) 

http://192.168.30.61:50030/jobtracker.jsp   (jobtracker)


original artical from this site: http://blog.chinaunix.net/uid-12014716-id-3987394.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在现有省、市港口信息化系统进行有效整合基础上,借鉴新 一代的感知-传输-应用技术体系,实现对码头、船舶、货物、重 大危险源、危险货物装卸过程、航管航运等管理要素的全面感知、 有效传输和按需定制服务,为行政管理人员和相关单位及人员提 供高效的管理辅助,并为公众提供便捷、实时的水运信息服务。 建立信息整合、交换和共享机制,建立健全信息化管理支撑 体系,以及相关标准规范和安全保障体系;按照“绿色循环低碳” 交通的要求,搭建高效、弹性、高可扩展性的基于虚拟技术的信 息基础设施,支撑信息平台低成本运行,实现电子政务建设和服务模式的转变。 实现以感知港口、感知船舶、感知货物为手段,以港航智能 分析、科学决策、高效服务为目的和核心理念,构建“智慧港口”的发展体系。 结合“智慧港口”相关业务工作特点及信息化现状的实际情况,本项目具体建设目标为: 一张图(即GIS 地理信息服务平台) 在建设岸线、港口、港区、码头、泊位等港口主要基础资源图层上,建设GIS 地理信息服务平台,在此基础上依次接入和叠加规划建设、经营、安全、航管等相关业务应用专题数据,并叠 加动态数据,如 AIS/GPS/移动平台数据,逐步建成航运管理处 "一张图"。系统支持扩展框架,方便未来更多应用资源的逐步整合。 现场执法监管系统 基于港口(航管)执法基地建设规划,依托统一的执法区域 管理和数字化监控平台,通过加强对辖区内的监控,结合移动平 台,形成完整的多维路径和信息追踪,真正做到问题能发现、事态能控制、突发问题能解决。 运行监测和辅助决策系统 对区域港口与航运业务日常所需填报及监测的数据经过科 学归纳及分析,采用统一平台,消除重复的填报数据,进行企业 输入和自动录入,并进行系统智能判断,避免填入错误的数据, 输入的数据经过智能组合,自动生成各业务部门所需的数据报 表,包括字段、格式,都可以根据需要进行定制,同时满足扩展 性需要,当有新的业务监测数据表需要产生时,系统将分析新的 需求,将所需字段融合进入日常监测和决策辅助平台的统一平台中,并生成新的所需业务数据监测及决策表。 综合指挥调度系统 建设以港航应急指挥中心为枢纽,以各级管理部门和经营港 口企业为节点,快速调度、信息共享的通信网络,满足应急处置中所需要的信息采集、指挥调度和过程监控等通信保障任务。 设计思路 根据项目的建设目标和“智慧港口”信息化平台的总体框架、 设计思路、建设内容及保障措施,围绕业务协同、信息共享,充 分考虑各航运(港政)管理处内部管理的需求,平台采用“全面 整合、重点补充、突出共享、逐步完善”策略,加强重点区域或 运输通道交通基础设施、运载装备、运行环境的监测监控,完善 运行协调、应急处置通信手段,促进跨区域、跨部门信息共享和业务协同。 以“统筹协调、综合监管”为目标,以提供综合、动态、实 时、准确、实用的安全畅通和应急数据共享为核心,围绕“保畅通、抓安全、促应急"等实际需求来建设智慧港口信息化平台。 系统充分整合和利用航运管理处现有相关信息资源,以地理 信息技术、网络视频技术、互联网技术、移动通信技术、云计算 技术为支撑,结合航运管理处专网与行业数据交换平台,构建航 运管理处与各部门之间智慧、畅通、安全、高效、绿色低碳的智 慧港口信息化平台。 系统充分考虑航运管理处安全法规及安全职责今后的变化 与发展趋势,应用目前主流的、成熟的应用技术,内联外引,优势互补,使系统建设具备良好的开放性、扩展性、可维护性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值