大数据时代之Hadoop集群搭建

前面说搭建Hadoop+Hbase+Hive这些环境什么的太麻烦,说直接搭个CDH好了,结果看了几篇文章都说内存10G以下的就不要玩了,wtfk,我只是学习,又不是公司运维,我哪来这么大的服务器搞哦,算了还是一个个的搭吧。

搭建Hadoop环境

先前已经写过一篇Hadoop伪分布式搭建的文章了,这里就不再赘述了,贴链接:java连接Hbase操作数据库的全过程—搭建伪分布式hadoop环境

搭建分布式环境

  1. 将先前的机器设置为master

  2. 克隆master虚拟机,命名为slave

  3. 在hosts文件中配置master和slave的地址(master和slave虚拟机上都需要配置)
    hosts

  4. 因为虚拟机是克隆来的,公钥私钥是一样的,所以master和slave之间可以相互免密登录,所以slave不需要生成ssh的公钥和私钥并拷贝给master。

  5. 在master和slave服务器上的~/hadoop/etc/hadoop/slaves文件中配置slave的地址:
    slaves

  6. 在mster机器上启动dfs:
    start-dfs.sh

  7. 分别在master和slave上jps将会看到如下图:
    masterslave
    本以为可以了,兴高采烈的打开浏览器查看:
    在这里插入图片描述网上收索一通后找到文章:伪分布式+分布式安装Hadoop(两个节点),好吧与之区别就在于伪分布式部署得时候很多采用的是默认配置,遂参考其配置,对以下文件进行配置:
    core-site.xml

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://my-cdh-master:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name> #配置Hadoop临时文件保存路径
        <value>file:/tmp/hdfs/</value>
    </property>
</configuration>

hdfs-site.xml

    <configuration> 
        <property> 
            <name>dfs.replication</name> 
            <value>1</value> 
        </property> 
        <property>
                <name>dfs.namenode.secondary.http-address</name> #配置第二名称节点端口号
                <value>my-cdh-master:50090</value>
        </property>
        <property>
                <name>dfs.namenode.name.dir</name> #配置namenode数据保存路径
                <value>file:/tmp/dfs/name</value>
        </property>
        <property>
                <name>dfs.datanode.data.dir</name> #配置datanode数据保存路径
                <value>file:/tmp/dfs/data</value>
        </property>
    </configuration>

mapred-site.xml

    <configuration> 
        <property> 
            <name>mapreduce.framework.name</name> 
            <value>yarn</value> 
        </property> 
        <property>
                <name>mapreduce.jobhistory.address</name> #jobhistory服务器端地址
                <value>my-cdh-master:10020</value>
        </property>
        <property>
                <name>mapreduce.jobhistory.webapp.address</name> #jobhistory的Web端地址
                <value>my-cdh-master:19888</value>
        </property>
    </configuration>

yarn-site.xml

    <property>
        <name>yarn.resourcemanage.hostname</name> #配置担当resourcemanage的节点
        <value>my-cdh-master</value>
    </property>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>

yarn-env.sh
在这里插入图片描述
mapred-env.sh
在这里插入图片描述
hadoop-env.sh
![在这里插入图片描述](https://img-blog.csdnimg.cn/20191128150408127.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3FxMTA0OTU0NTQ1MA==,size_16,color_FFFFFF,t_70

注意,master和slave上都这么配置即可,我估计这么配置后slave才知道他的master是谁。如果添加节点的话,应该拷贝slave即可,然后在slaves里面进行添加即可,此处为验证。
至此完成伪分布式hadoop转换成分布式hadoop。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值