修改hadoop的core-site.xml的配置文件不需重启也生效了

 今天运行了mahout程序,生成的结果放在hdfs://master:9000/output/result目录下,当时通过上下键不小心执行了一个删除命令,将该目录下的数据删除掉了,当时都有点傻了,虽然是测试数据,但程序运行了大概20分钟才生成的结果,我回到回收站里看,没有任何东西,是因为我当时没有配置回收站。

    所以马上配置,然后并没有重启服务,就发现生效了。我是用hadoop-1.1.2 ,不知道其他版本是不是也这样。

core-site.xml:

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
         <property>
                <name>fs.default.name</name>
                <value>hdfs://master:9000</value>
        </property>
        <property>
                <name>hadoop.tmp.dir</name>
                <value>/root/hadoop_data/tmp</value>
        </property>
        <property>
                <name>fs.trash.interval</name>
                <value>1440</value>
                <description>Number of minutes between trash checkpoints. If zero, the trash feature is disabled. </description>
        </property>
</configuration>

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
core-site.xml和hdfs-site.xmlHadoop中两个重要的配置文件,其中core-site.xml主要用于配置Hadoop的核心配置参数,hdfs-site.xml主要用于配置HDFS的相关参数。 以下是配置core-site.xml和hdfs-site.xml的具体步骤: 1. 通过终端或者编辑器打开core-site.xml和hdfs-site.xml文件。 2. 配置core-site.xml文件: ```xml <configuration> <property> <name>fs.default.name</name> <value>hdfs://localhost:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/usr/local/hadoop/tmp</value> </property> </configuration> ``` 其中,fs.default.name指定了HDFS的默认文件系统,这里指定为localhost:9000;hadoop.tmp.dir指定了Hadoop运行时的临时目录,这里指定为/usr/local/hadoop/tmp。 3. 配置hdfs-site.xml文件: ```xml <configuration> <property> <name>dfs.replication</name> <value>2</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>/usr/local/hadoop/hdfs/namenode</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>/usr/local/hadoop/hdfs/datanode</value> </property> </configuration> ``` 其中,dfs.replication指定了HDFS中数据块的副本数,这里指定为2;dfs.namenode.name.dir指定了HDFS中NameNode的存储目录;dfs.datanode.data.dir指定了HDFS中DataNode的存储目录。 4. 保存并关闭配置文件。 5. 在Hadoop集群中,需要将配置文件拷贝到所有节点的Hadoop配置目录中,例如: ```bash $ cp /path/to/core-site.xml /usr/local/hadoop/etc/hadoop/ $ cp /path/to/hdfs-site.xml /usr/local/hadoop/etc/hadoop/ ``` 6. 重新启动Hadoop集群,使配置生效。 以上就是配置core-site.xml和hdfs-site.xml的具体步骤。需要注意的是,配置文件中的具体参数值需要根据实际情况进行修改

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值