Hadoop各个配置文件的作用

core-site.xml

 其中 fs.defaultFS 配置的地址就是java代码访问的时候的路径,需要配置在java代码中代码中要用IP:9000不能用localhost

 <configuration>
       <property>
         <!-- 这个属性用来指定namenode的hdfs协议的文件系统通信地址,可以指定一个主机+端口,也可以指定为一个namenode服务(这个服务内部可以有多台namenode实现ha的namenode服务) -->

          <name>fs.defaultFS</name>
          <value>hdfs://localhost:9000</value>
       </property>
       <property>
          <!-- 这个属性用来执行文件IO缓冲区的大小-->

          <name>io.file.buffer.size</name>
          <value>131072</value>
        </property>
       <property>
         <!-- 指定hadoop临时目录,前面用file:表示是本地目录。也可以直接使用/usr/local/hadoop/tm,我估计不加file:应该也可以。hadoop在运行过程中肯定会有临时文件或缓冲之类的,必然需要一个临时目录来存放,这里就是指定这个的。当然这个目录前面我们已经创建好了。 -->

         <name>hadoop.tmp.dir</name>
         <value>file:/usr/local/hadoop-2.4.1/tmp</value>
         <description>Abase for other temporary   directories.</description>
       </property>
        <property>
            <!-- 配置ipc传输大小 -->
           <name>ipc.maximum.data.length</name>
           <value>134217728</value>
        </property>

</configuration>

hdfs-site.xml

 dfs.namenode.secondary.http-address 这个地址就是文件系统浏览器访问地址

主namenode有个hdfs协议的访问地址:http://192.168.187.128:50070

secondNamenode有个http协议的访问地址:http://192.168.187.128:50071

 <configuration>

       <property>

            <!-- secondary namenode的http通讯地址,有何用呢?为何不用hdfs协议了?我还不太清楚-->
                <name>dfs.namenode.secondary.http-address</name>
               <value>localhost:50070</value>
       </property>
     <property>
            <!-- namenode数据的存放地点。也就是namenode元数据存放的地方,记录了hdfs系统中文件的元数据-->

             <name>dfs.namenode.name.dir</name>
             <value>file:/usr/local/hadoop-2.4.1/dfs/name</value>
       </property>
      <property>
            <!-- datanode数据的存放地点。也就是block块存放的目录了-->

              <name>dfs.datanode.data.dir</name>
              <value>file:/usr/local/hadoop-2.4.1/dfs/data</value>
       </property>
       <property>
            <!-- hdfs的副本数设置。也就是上传一个文件,其分割为block块后,每个block的冗余副本个数-->

               <name>dfs.replication</name>
               <value>3</value>
        </property>
        <property>
            <!-- 开启hdfs的web访问接口。好像默认端口是50070-->

                <name>dfs.webhdfs.enabled</name>
                <value>true</value>
         </property>
</configuration>

 

yarn-site.xml

<property>
               <name>yarn.nodemanager.aux-services</name>
               <value>mapreduce_shuffle</value>
        </property>
        <property>                                                                
               <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
               <value>org.apache.hadoop.mapred.ShuffleHandler</value>
        </property>
        <property>
            <!--yarn总管理器的IPC通讯地址-->
               <name>yarn.resourcemanager.address</name>
               <value>singlehost:8032</value>
       </property>
       <property>
            <!--yarn总管理器调度程序的IPC通讯地址-->
               <name>yarn.resourcemanager.scheduler.address</name>
               <value>singlehost:8030</value>
       </property>
       <property>
            <!--yarn总管理器的IPC通讯地址-->
            <name>yarn.resourcemanager.resource-tracker.address</name>
             <value>singlehost:8031</value>
      </property>
      <property>
            <!--yarn总管理器的IPC管理地址-->
              <name>yarn.resourcemanager.admin.address</name>
               <value>singlehost:8033</value>
       </property>
       <property>
            <!--yarn总管理器的web http通讯地址-->
               <name>yarn.resourcemanager.webapp.address</name>
               <value>singlehost:8088</value>
       </property>

mapred-site.xml

MapReduce内部的一个通讯地址:singlehost:10020

MapReduce外部web访问的地址:singlehost:19888

 <configuration>
          <property> 
            <!---- 指定mr框架为yarn方式,Hadoop二代MP也基于资源管理系统Yarn来运行 -->

             <name>mapreduce.framework.name</name>
             <value>yarn</value>
           </property>
          <property>
        <!---- 指定mr框架jobhistory的内部通讯地址。目前还不知道是做什么的 -->

                  <name>mapreduce.jobhistory.address</name>
                  <value>singlehost:10020</value>
          </property>
          <property>

        <!---- 指定mr框架web查看的地址 -->
                <name>mapreduce.jobhistory.webapp.address</name>
                <value>singleshost:19888</value>
       </property>
</configuration>

 

  • 4
    点赞
  • 28
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要配置Hadoop配置文件,您需要编辑Hadoop的核心配置文件(`core-site.xml`)和HDFS配置文件(`hdfs-site.xml`)。以下是一步骤: 1. 找到Hadoop安装目录下的`/etc/hadoop`目录具体位置可能因发行版而异)。 2. 在`/etc/hadoop`目录下,找到并编辑`core-site.xml`文件。该文件包含有关Hadoop核心配置的信息。 ``` $ vi /etc/hadoop/core-site.xml ``` 3. 在`core-site.xml`中,您可以设置一些重要的配置项,例如Hadoop文件系统的URI、默认文件系统和临时目录等。根据您的需求进行相应的更改。例如,以下是设置HDFS的URI和默认文件系统的示例配置: ```xml <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/path/to/tmp</value> </property> </configuration> ``` 4. 保存并关闭`core-site.xml`文件。 5. 接下来,找到并编辑`hdfs-site.xml`文件,它位于同样的目录下。 ``` $ vi /etc/hadoop/hdfs-site.xml ``` 6. 在`hdfs-site.xml`中,您可以设置一些与HDFS相关的配置项,例如副本数量、块大小等。根据您的需求进行相应的更改。例如,以下是设置副本数量和块大小的示例配置: ```xml <configuration> <property> <name>dfs.replication</name> <value>3</value> </property> <property> <name>dfs.blocksize</name> <value>128m</value> </property> </configuration> ``` 7. 保存并关闭`hdfs-site.xml`文件。 8. 配置文件的更改完成后,您需要将这些配置文件复制到所有Hadoop节点上的相应位置。您可以使用分发工具(如`scp`)将这些文件复制到其他节点上的相同目录下。 9. 在所有节点上重复步骤 1-8,确保配置文件一致。 10. 完成后,您需要重新启动Hadoop集群以使配置生效。 请注意,上述步骤仅涵盖了核心配置文件的配置。根据您的需求,可能还需要编辑其他Hadoop配置文件,如`yarn-site.xml`(用于YARN配置)和`mapred-site.xml`(用于MapReduce配置)。在编辑这些文件时,请参考各个配置文件中的注释和文档,以了解每个配置项的含义和用法。 还要注意,Hadoop配置文件可能因版本和发行版而有所不同。因此,在进行配置时,请参考您所使用的Hadoop版本的官方文档或社区资源以获取准确的配置指导。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值