cdh版本的hadoop安装及配置(伪分布式模式) MapReduce配置 yarn配置

10 篇文章 0 订阅
3 篇文章 0 订阅

友情提示:更多有关大数据、人工智能方面技术文章请关注博主个人微信公众号:高级大数据架构师

安装hadoop需要jdk依赖,我这里是用jdk8

jdk版本:jdk1.8.0_151

hadoop版本:hadoop-2.5.0-cdh5.3.6

hadoop下载地址:链接:https://pan.baidu.com/s/1qZNeVFm 密码:ciln

jdk下载地址:链接:https://pan.baidu.com/s/1qZLddl6 密码:c9w3

一切准备好以后,开始安装

1、上传hadoop软件包和jdk软件包到Linux系统指定目录:/opt/softwares/cdh

2、解压 hadoop软件包和jdk软件包到指定目录:/opt/modules/cdh/

解压命令:tar -zxvf hadoop-2.5.0-cdh5.3.6.tar.gz -C /opt/modules/cdh/

     tar -zxvf jdk-8u151-linux-x64.tar.gz -C /opt/modules/cdh

 

3、jdk环境变量配置

在/etc/profile文件中配置

3.1 sudo vi  /etc/profile

==========================================================================

#JAVA_HOME#
export JAVA_HOME=/opt/modules/jdk1.8.0_151
export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$PATH:$JAVA_HOME/bin

==========================================================================

3.2 source /etc/profile

 4、测试java是否已经安装成功

4.1 java -version

5、hadoop配置

  5.1 删除hadoop/share/doc

  5.2 修改配置文件

    3个?-env,sh文件(hadoop,mapred,yarn)

      export JAVA_HOME=/opt/modules/jdk1.8.0_151

    4个?-site.xml文件(core-site.xml 、hdfs-site.xml、mapred-site.xml、yarn-site.xml)

      core-site.xml       

        <property>
          <name>fs.defaultFS</name>
          <value>hdfs://hadoop01.xningge.com:8020</value>
        </property>
        <property>
          <name>hadoop.tmp.dir</name>
          <value>/opt/modules/cdh/hadoop-2.5.0-cdh5.3.6/data/tmp</value>
        </property>

      hdfs-site.xml

        <property>
          <name>dfs.replication</name>
          <value>1</value>
        </property>
        <property>
          <name>dfs.namenode.secondary.http-address</name>
          <value>hadoop01.xningge.com:50090</value>
        </property>
        <property>
          <name>dfs.permissions.enabled</name>
          <value>false</value>
        </property>

      mapred-site.xml

        <property>
          <name>mapreduce.framework.name</name>
          <value>yarn</value>
        </property>
        <property>
          <name>mapreduce.jobhistory.address</name>
          <value>hadoop01.xningge.com:10020</value>
        </property>
        <property>
          <name>mapreduce.jobhistory.webapp.address</name>
          <value>hadoop01.xningge.com:19888</value>
        </property>

      yarn-site.xml

        <property>
          <name>yarn.resourcemanager.hostname</name>
          <value>hadoop01.xningge.com</value>
        </property>
        <property>
          <name>yarn.nodemanager.aux-services</name>
          <value>mapreduce_shuffle</value>
        </property>
        <property>
          <name>yarn.log-aggregation-enable</name>
          <value>true</value>
        </property>
        <property>
          <name>yarn.log-aggregation.retain-seconds</name>
          <value>86400</value>
        </property>

    1个slaves

        hadoop01.xningge.com

6、格式化namenode

  $ bin/hdfs namenode -format

7、开启各服务

  $ sbin/hadoop-daemon.sh start namenode
  $ sbin/hadoop-daemon.sh start datanode
  $ sbin/hadoop-daemon.sh start secondarynamenode
  $ sbin/mr-jobhistory-daemon.sh start historyserver
  $ sbin/yarn-daemon.sh start resourcemanager
  $ sbin/yarn-daemon.sh start nodemanager
  配置SSH免密登陆可使用:
  $ sbin/start-dfs.sh 
  $ sbin/start-yarn.sh 
  $ sbin/start-all.sh

 

8、基本测试

  $ bin/hdfs dfs -mkdir -p /user/xningge/mapreduce/input
  $ bin/hdfs dfs -put /opt/datas/wc.input  /user/xningge/mapreduce/input 
  $ bin/hdfs dfs -get /user/xningge/mapreduce/input/wc.input  /
  $ bin/hdfs dfs -cat /user/xningge/mapreduce/input/wc.input

9、跑一个简单的job

  $ bin/yarn jar share/hadoop/mapreduce2/hadoop-mapreduce-examples-2.5.0-cdh5.3.6.jar wordcount  /user/xningge/mapreduce/input  /user/xningge/mapreduce/output

 

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

大数据爱好者社区

打赏是支持,也可以移步公众号。

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值