三台节点配置hadoop



Ssh互信建立完成以后,接下来咱们开始搭建hadoop

  1. ApacheDownload Mirrors下载haoop-2.6.0.

  2. JavaSE - Downloads | Oracle Technology Network | Oracle下载jdk,我下载的是1.8.0_25x861.8.0_25x64因为我的三台主机两台ubuntu32位的,另一台是64位的,所以下载了两个。如果要看自己ubuntu是多少位的:file /sbin/init

    下载完成后,在home下面建目录cloud,把压缩包解压到该文件夹

    执行sudo gedit /etc/profile配置JAVA环境:在最后面

    #set java environment

    JAVA_HOME=/home/yuchengcan/cloud/jdk1.8.0_25

    exportJRE_HOME=/home/yuchengcan/cloud/jdk1.8.0_25/jre

    exportCLASSPATH=$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH

    exportPATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH

    执行source /etc/profile

      jdk安装完成

  1. home下建立文件夹hadoop将压缩包解压进去

  2. Sudo chmod –R777 hadoop

  3. 修改环境变量信息

    /Hadoop-2.6.0/etc/hadoop hadoop-env.sh

  4. Hadoop伪分布设置:

    对配置参数有疑惑参考:ApacheHadoop 2.6.0 - Hadoop Map Reduce Next Generation-2.6.0 - Cluster Setup

    /Hadoop-2.6.0/etc/Hadoop 

  1. 修改配置文件core-site.xml

     

    Hadoop.tmp.dir: Hadoop的默认临时路径(tmp需要提前建)

  2. 修改配置文件hdfs-site.xml(分布式文件系统)

    第一个性质栏目:数据需要备份的数量(node1 node3

    第二个性质栏目:指定命名节点目录,也就是masters  node20

    第三个性质栏目:指定数据节点目录,也就是slaves    node1 node3

    (dfs data name文件夹需要提前建立)

  3. 修改配置文件mapred-sitemapreduce

  4. Masters(没有的话添加)

    删去localhost  填写node20(举例)

  5. Slaves

    删去 localhost  填写node1 node3

  1. Scp Hadoop-2.6.0 node1:/tmp

    Scp Hadoop-2.6.0 node3:/tmp

      保证每个节点的hadoop相同

     

文件配置完成,初始化文件系统:

/Hadoop-2.6.0  /bin/hdfs namenode  -format

  1. 开启namnode等进程

    Sbin/start-dfs.sh

    jps

  2. 查看集群状态:

    Hadoop dfsadmin  -report

 

       下来看看我的一些错误:

  1. 目的文件夹没有写权限

    改正:先转到tmp再拷贝过去

  2. 配置文件tmpdfs的路径弄错:

  3. 64位的ubuntu装了32位的jdk,启动不起来:

    下载x64jdk

     

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值