【13_hadoop】

本文详细介绍了Hadoop HDFS的参数设置优先级,包括默认配置文件和生产配置文件,并探讨了HDFS的文件拆分、存储机制以及块属性。此外,还讨论了大数据处理流程和NameNode的角色,包括fsimage和编辑日志的合并以及DataNode的心跳与BlockReport机制。
摘要由CSDN通过智能技术生成

13_hadoop

hdfs参数设置的优先级:
1.默认配置文件
core-default.xml
hdfs-default.xml
mapred-default.xml
yarn-default.xml
2.生产配置文件
core-site.xml
hdfs-site.xml
mapred-site.xml
yarn-site.xml
3.代码里面设置的参数
Configuration
优先级:3>2>1

1.使用java api 操作 hdfs 在创建文件夹
            /data/dt=20221114
            /data/dt=20221115
            /data/dt=20221116
    
2.使用java api 上传本地 wc.data 到上面三个目录下
3.使用java api 将
/data/dt=20221114/wc.data
/data/dt=20221115/wc.data
/data/dt=20221116/wc.data
目录下的文件移动到 指定目录 并进行改名字
/data/hive/20221114-01.data
/data/hive/20221115-01.data
/data/hive/20221116-01.data

创建文件夹 上传 改名
            path:
            hdfspath  上传的path
            localpath  本地path
            filename   文件名字
            renamepath  修改文件的路径的path
            renamesufname 修改后文件的结尾
            dt         

hadoop jar /home/hadoop/project/DL2262-hdfsapi-1.0.jar
com.bigdata.HomeWork01
“/data/dt=” “file:home/hadoop” “1.log” “/data/flink” “-01.data” “20221117”

start.sh
if [ $# -lt 6 ];then
echo “Usage:put file to hdfs”
echo “Usage:$0


echo “Usage: is hdfs path”
echo “eg:$0 ‘/d
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值