hadoop分布式文件系统常用配置参数

本文详细介绍了Hadoop分布式文件系统(HDFS)的常用配置参数,包括Hadoop环境变量、核心、HDFS、MapReduce和YARN的相关设置。如`JAVA_HOME`、`HADOOP_HEAPSIZE`、`fs.defaultFS`、`dfs.replication`、`mapreduce.map.memory.mb`等,这些配置对于优化Hadoop集群性能和稳定性至关重要。同时,还涵盖了安全性、资源管理和队列配置等方面。
摘要由CSDN通过智能技术生成
文件系统:
         hdfs fsck /   -files -blocks  显示文件的块信息
 
hadoop-env.sh  (脚本中要用到的环境变量,以运行hadoop)
       JAVA_HOME   设置java环境变量,例如export JAVA_HOME=/usr/software/jdk1.8.0_65
       HADOOP_HEAPSIZE  设置hadoop为各个守候进程分配的内存大小配置个数
                       如下exportHADOOP_HEAPSIZE=   默认值1G(1000M),可以被
                       yarn-env.sh中的YARN_RESOURCEMANAGER_HEAPSIZE覆盖
        HADOOP_NAMENODE_OPTS  允许向namenode的JVM传递额外的选项,
               比如-Xmx2000m表示为namenode分配2000MB内存空间
        HADOOP_SECONDARYNAMENODE_OPTS   辅助namenode的大小需要和主的基本相同,
               所以要跟随主的一起修改
        HADOOP_LOG_DIR  Hadoop生成的系统日志存放位置 
               export HADOOP_LOG_DIR=/usr/software/Hadoop/log
        HADOOP_IDENT_STRING  hadoop中的日志文件名中的用户名称部分,默认配置
               export HADOOP_IDENT_STRING=$USER
        HADOOP_SSH_OPTS      向SSH传递更多的选项
mapred-env.sh  脚本中要用到的环境变量,以运行MapReduce(覆盖hadoop-env.sh中的设置)
 
yarn-env.sh     脚本中要用到的环境变量,以运行YARN(覆盖hadoop-env.sh中的设置)
core-site.xml    Hadoop core的配置项,例如HDFS,MapReduce和YARN常用的IO设置等
          fs.defaultFS  设置为hdfs://localhost/  配置hadoop的默认的hdfs文件系统默认
                的文件系统,URI定义主机名称和namenode的RPC服务器工作的端口号,
                默认值是8020
          Io.file.buffer.size    设置IO缓冲区大小,默认4096(单位字节),建议增大为
                比如128k
          fs.trash.interval      默认值为0(单位分钟) 设置回收站清除前的保留时间
          hadoop.security.authentication=kerberos   启用kerberos认证(默认值simple)
          hadoop.security.authorizati
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值