配置hadoop集群一

花了1天时间最终把环境搭建好了。整理了一下,希望对想学习hadoop的有所帮助。

资料下载:http://pan.baidu.com/s/1kTupgkn
包括了linux虚拟机。jdk, hadoop1.0

环境搭建准备工作:
hadoop_master 192.168.50.158
hadoop_slave    192.168.50.136

网络配置:
1:设置IP
2:重新启动网卡 service network restart.  验证命令 ifconfig
3:设置主机名 hostname hadoop 运行命令 vi /ect/sysconfig/network
4:把hostname和IP绑定
      运行命令 vi /etc/hosts   
192.168.50.158 master
192.168.50.136 slave
      验证:ping hadoop
5:关闭防火墙 service iptables stop
     关闭防火墙自己主动执行:  chkconfig iptables off
     验证: chkconfig --list |grep iptables

     
免password登陆ssh
1:ssh-keygen -t rsa产生的密钥位于~/.ssh目录中
2:cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys  本机就能够免password登录了
3:配置多机器面password登录
    拷贝id_rsa.pub到须要登录的机器上:     scp .ssh / id_rsa.pub chenlb@ 192.168 . 1.181 : / home / chenlb / id_rsa.pub 
    把文件的内容追加到authorized_keys上   cat id_rsa.pub  >>  .ssh / authorized_keys
                                                                 chmod 600 .ssh/authorized_keys
   配置完毕后ssh ip(对方的电脑)



配置环境变量
1:拷贝jdk到/user/local文件夹下
2:运行命令 chmod u+x jdk*.bin
3:vi /etc/profile 
      export JAVA_HOME = /user/local/jdk
      export PATH=.:$JAVA_HOME/bin:$PATH
      让配置文件生效: source /etc/profile

安装 hadoop
1:tar -zxvf hadoop.tar.gz
2:改名字 mv hadoop.1.2 hadoop
3:vi /etc/profile  
     export HADOOP_NAME=/user/local/hadoop
     path环境变量须要改动一下。

加入hadoop的bin

4:改动配置文件,配置文件在hadoop的conf文件夹下
       hadoop-env.sh

export JAVA_HOME=/usr/local/jdk/

也能够配置垃圾回收机制:

比如,配置Namenode时,为了使其可以并行回收垃圾(parallelGC)。 要把以下的代码增加到hadoop-env.sh :

export HADOOP_NAMENODE_OPTS="-XX:+UseParallelGC ${HADOOP_NAMENODE_OPTS}"

其他可定制的经常使用參数还包含:

    • HADOOP_LOG_DIR - 守护进程日志文件的存放文件夹。假设不存在会被自己主动创建。
    • HADOOP_HEAPSIZE - 最大可用的堆大小,单位为MB。

      比方。1000MB。 这个參数用于设置hadoop守护进程的堆大小。缺省大小是1000MB。

          

      core-site.xml

<configuration>

    <property>

        <name>fs.default.name</name>

        <value>hdfs://hadoop0:9000</value>   定义HadoopMaster的URI和port

        <description>change your own hostname</description>

    </property>

    <property>

        <name>hadoop.tmp.dir</name>

        <value>/usr/local/hadoop/tmp</value>

    </property> 

</configuration>

     hdfs-site.xml

<configuration>

    <property>

        <name>dfs.replication</name>

        <value>1</value>

    </property>

    <property>

        <name>dfs.permissions</name>

        <value>false</value>

    </property>

</configuration>
      mapred-site.xml

<configuration>

    <property>

        <name>mapred.job.tracker</name>

        <value>hadoop0:9001</value> <!--hadoop0指的是你在hosts中配置的名字-->

        <description>change your own hostname</description>

    </property>

</configuration>

配置完毕后。假设是配置集群就须要在配置文件下的slaves和masters配置相应的datanode和secordaryNamenode。

5:对hadoop进行格式化  hadoop namenode -format
     格式化假设没有成功的话须要删除 /usr/local/hadoop/tmp目录



启动完毕后,能够输入 http://master:50070/dfshealth.jsp中能够查看到节点。

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值