Hadoop伪分布部署

Hadoop伪分布部署

温馨提示:配置时候一定要细心!!!

1. 安装jdk、 Hadoop

安装jdk、Hadoop

2.伪分布部署

主要配置文件 :core-site.xml、mapred-site.xml、yarn-site.xml、hdfs-site.xml

文件名属性名属性值含义
core-site.xmlfs.defaultFShdfs://localhost:9000NameNode地址
hadoop.tmp.dir/home/hadoop01/hadoop/tmpHadoop临时工作目录
mapred-site.xmlmapreduce.framework.nameyarn指定mapreduce运行框架
yarn-site.xmlyarn.resourcemanager.hostnameipResourceManager的ip地址
yarn.nodemanager.aux-servicesmapreduce_shuffleNodeManager上运行的附属服务
hdfs-site.xmldfs.replication1副本数
  1. 修改主机名sudo vi /etc/hostname,保存后重启。(根据需要判断是否需要修改主机名)

  2. 映射ip地址及主机名

    sudo vi /etc/hosts添加 本机ip 主机名

      不知道主机名终端输入hostname查看主机名。
    
  3. 免密登录

    • 检查系统是否安装openssh-client和openssh-server:sudo dpkg -l|grep ssh

    • 如果没有,进行安装:sudo apt-get install openssh-clientsudo apt-get install openssh-server(少哪个安装哪个)

    • 安装成功后进行重启ssh服务:sudo /etc/init.d/ssh restart

    • 配置ssh

      1. 生成密钥对:ssh-keygen -t rsa
      2. 追加公钥:ssh-copy-id -i ~/.ssh/id_rsa.pub 主机名
      3. 免密登录:ssh 主机名

    注意:在进行ssh登录时要区分root用户和普通用户

  4. 设置Hadoop配置文件(使用sudo命令进行编辑)

    etc/hadoop/core-site.xml:

    <configuration>
        <property>
            <name>fs.defaultFS</name>
            <value>hdfs://localhost:9000</value>
        </property>
        <!--临时文件夹(注意文件夹不用存在,格式化后自动生成),默认是在系统的tmp文件夹下,如果不改计算机重启的话可能会丢失-->
        <property>
            <name>hadoop.tmp.dir</name>
      <value>/home/hadoop01/hadoop/tmp</value>
        </property>
    </configuration>
    

    etc/hadoop/hdfs-site.xml:

    <configuration>
        <property>
            <name>dfs.replication</name>
            <value>1</value>
        </property>
    </configuration>
    

    etc/hadoop/yarn-site.xml:

     <configuration>
          <property>
              <name>yarn.nodemanager.aux-services</name>
              <value>mapreduce_shuffle</value>
          </property>
      </configuration>
    

    etc/hadoop/mapred-site.xml: ( 如果没有mapred-site.xml这个文件而存在mapred-site.xml.template对其改名或复制一份:
    sudo cp ./mapred-site.xml.template mapred-site.xml)

    <configuration>
        <property>
            <name>mapreduce.framework.name</name>
            <value>yarn</value>
        </property>
    </configuration>
    
  5. 格式化NameNode:hdfs namenode -format

  6. 启动HDFS:start-dfs.sh,查看启动的Java进程:jps 启动HDFS

  7. 启动YARN:start-yarn.sh,查看启动的Java进程:jps启动yarn后

3.通过Web访问Hadoop(注意2.x与3.x端口号不同)

  1. HDFS Web界面:浏览器中输入 http://localhost:9870HDFS Web界面

  2. YARN Web界面:浏览器中输入 http://localhost:8088YARN Web界面

4.常用端口

端口名称Hadoop2.xHadoop3.x
NameNode内部通信端口8020/90008020/9000/9820
NameNode HTTP UI500709870
MapReduce查看执行任务端口80888088
历史服务器通信端口1988819888

5.问题

  • 1. openssh-server安装时,包之间的依赖关系出现问题。

    解决办法:将openssh-client 卸载再重新安装。

  • 2. Hadoop安装版本过高,配置文件时出错。

    解决办法:官网找相应配置:http://www.apache.org/

6.体会

发现好多知识是需要自己探索的。多看,多思考,多操作。操作的时候可能按步骤操作,但往往就是会出错,所以配置这个东西一定一定要细心!!!!如有错误,欢迎指正。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值