HADOOP之配置HDFS集群,修改四个文件workers,hadoop-env.sh,core-site.xml,hdfs-site.xml

本文详细介绍了如何在Hadoop环境中配置workers文件、hadoop-env.sh、core-site.xml和hdfs-site.xml,涉及Namenode、Datanode的设置,以及Java路径、文件系统参数等关键配置。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.配置workers文件

进入hadoop所在的文件夹
cd etc/hadoop
vim workers
node1
node2
node3

2.配置hadoop-env.sh文件

我的jdk,hadoop都在/export/server/目录下


export JAVA_HOME=/export/server/jdk
export HADOOP_HOME=/export/server/hadoop
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export HADOOP_LOG_DIR=$HADOOP_HOME/logs

3.配置core-site.xml文件

<configuration>
       <!--指定namenode的地址-->
   <property>
               <name>fs.defaultFS</name>
               <value>hdfs://node1:8020</value>
   </property>
   <!--io文件缓冲区大小-->
   <property>
            <name>io.file.buffer.size</name>
            <value>131072</value> 
   </property>
</configuration>

4.配置hdfs-site.xml文件

<configuration>
    <!--默认文件权限设置-->
    <property>
            <name>dfs.datanode.data.dir.perm</name>
            <value>700</value>
    </property>
    <!--Namenode元数据的存储位置-->
    <property>
             <name>dfs.namenode.name.dir</name> 
             <value>/data/nn</value>
    </property>
    <!--Namenode允许哪几个节点的Datanode连接-->
    <property>
             <name>dfs.namenode.hosts</name> 
             <value>node1,node2,node3</value>
    </property>
    <!--hdfs默认块大小-->
    <property>
             <name>dfs.blocksize</name> 
             <value>268435456</value>
    </property>
  <!--Namenode处理的并发程序-->
    <property>
             <name>dfs.namenode.handler.count</name> 
             <value>100</value>
    </property>
    <!--指定hdfs中datanode的存储位置-->
    <property>
             <name>dfs.datanode.data.dir</name>
             <value>/data/dn</value>
    </property>
</configuration>

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值