hive-staging文件问题——DataX同步数据重复

1.产生原因

        1.使用Hue的界面工具执行Hive-sql。Hue会自动保存sql执行结果方便用户能够查看历史执行记录,所以会在相应目录下生成hive-staging文件;

        2.Hive-sql任务执行过程中出现异常,导致hive-staging文件未删除,未出现异常时,hive会自行删除hive-staging文件;

        3.使用spark-sql on yarn 跑sql 程序生成的hive-staging文件不会被删除

2.解决方案

        1.配置hive-site.xml文件

<property>
    <name>hive.insert.into.multilevel.dirs</name>
    <value>true</value>
    <description>允许生成多级目录</description>
</property>
<property>
    <name>hive.exec.stagingdir</name>
    <value>/tmp/hive/staging/.hive-staging</value>
    <description>临时文件暂放目录</description>
</property>

CDH环境配置

2.使用shell脚本定时删除临时文件

#! /bin/bash

#hive-staging文件夹位置
param=$1

#获取前一天时间
time=`date +%F -d "-1 days"`

#获取待删除的文件
echo 'get files------'
regexp="*{0,}hive-staging_hive_""${time}*"
echo "regexp---""${regexp}"
arr=(`hdfs dfs -ls ${param} | awk '{print $8}' | egrep "${regexp}" | tr '\n' ' '`)
echo ${arr[0]}
for i in "${arr[@]}"
do
   file="$i"
   `hdfs dfs -rm -r "${file}"`
done

 3.将shell脚本加入linux定时任务就可以了

vi /etc/crontab
#加入下面命令
01 0 * * * /usr/bin/sh /home/shell-file/test.sh ${你的hive-staging目录} >>${你的日志存放路径}/`date +%F`.log 2>&1

3.参考资料

        1.【大数据】hive 删除临时文件 .hive-staging_hive - TurboWay - 博客园 (cnblogs.com)

        2.占用_06535.16.1Hive Staging目录占用大量HDFS空间问题分析_weixin_39604819的博客-CSDN博客
 

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值