datax导入到hive的数据量翻倍

现象 mysql->hive 或者oracle->hdfs 

源表数据100w  结果hive表数据200w。

这个现象很容易发生,只要你同一时间调度这个json两次。

原因 

"writeMode" : "append", "nonconflict","truncate"
* append,写入前不做任何处理,data-ingestion hdfswriter直接使用filename写入,并保证文件名不冲突。
* truncate 会把filename的文件的删掉
* nonConflict,如果目录下有fileName前缀的文件,直接报错。

那么问题出在哪里呢? 

因为hive的数据底层就是文件,有文件就有数据,这中间并没有像mysql这种插入一条数据这种事务关系。

例如 append 你执行了两次肯定double 

truncate为什么会double呢?

因为datax的执行逻辑是

1.先删除文件

2. 在stageing目录写数据文件

3.最后rename到目标目录。

其中2->3少的有十几秒,多的有几十分钟。

在这段时间内 如果我又执行了一个这个任务,会发生什么呢?

1.删文件,结果前面的都删完了,那我就不删了呗

2. 在stageing目录写数据文件

3.最后rename到目标目录。

2和3步骤重复运行了两次。按道理来说第二次应该把第一次的数据文件删除,可是别人也没跑完,而且还不在同一个目录。怎么删

只好将错就错,到最后就有了两份文件。

所以问题很清楚。解决办法也很简单

1.在我rename的之前我再删一次。

2.在我rename之前我发现突然又有文件了,那我就把自己删了

前者属于删别人,后者属于删自己

个人觉得后者好。

        public void post() {
            //如果是truncate模式, 会出现double情况,

//            if ("truncate".equals(writeMode)){
                //之前删了一次 现在又出现了文件
                Path[] existFilePaths = hdfsHelper.hdfsDirList(path,fileName);
                LOG.info("开始检查已删除的目录,是否有新增文件.....");
                if (existFilePaths.length>0){
                    LOG.info("之前删过一次文件,现在又出现了一次,任务可能存在同时运行两次情况,请仔细检查,开始删除本次任务的数据:{}",storePath);
                    hdfsHelper.deleteDir(new Path(storePath));
                    hdfsHelper.closeFileSystem();
                    throw DataXException.asDataXException(HdfsWriterErrorCode.HDFS_RENAME_FILE_ERROR,"任务同时运行,数据重复");
                  //    hdfsHelper.deleteFiles(existFilePaths);
                }
            hdfsHelper.renameFile(tmpFiles, endFiles);
        }

 

 就是在这里rename之前 判断目录下是否有文件,有文件就删除!! 

 两个任务一起运行 一个成功一个失败

失败日志

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
当使用DataX数据Hive导出到MySQL,可能会出现数据丢失的情况。出现数据丢失的原因可能有以下几种: 1. 数据源问题:首先,需要检查Hive中的数据是否完整,是否包含了所有需要导出的数据。可以通过查询Hive表来确认数据的完整性。 2. 数据过滤问题:在DataX的配置中,可能会对数据进行了过滤操作,例如使用了查询条件、选择了特定列等。如果过滤条件设置不正确,可能会导致一部分数据被漏掉。 3. 数据类型不匹配:Hive和MySQL有着不同的数据类型,在数据导出过程中,可能会发生类型转换导致数据丢失的问题。在配置DataX,需要确保Hive和MySQL的数据类型匹配,以避免数据丢失。 4. 数据写入问题:在将数据Hive导入到MySQL的过程中,可能会发生写入错误或网络中断等问题,导致数据丢失。在这种情况下,需要检查DataX的日志或MySQL的错误日志,以确定是否有异常情况发生。 为了解决数据丢失的问题,可以采取以下措施: 1. 检查数据源和目标数据库的数据完整性,确保数据源的数据没有问题。 2. 检查DataX的配置文件,确认过滤条件和数据类型匹配条件是否正确设置。 3. 对于数据量较大的导出任务,可以考虑分批导出,以降低出现问题的风险。 4. 在导出过程中,定期备份数据,并且在数据导出完成后进行数据校验,确保目标数据库中的数据和源数据一致。 总之,数据丢失问题可能是由于数据源、配置、数据类型或写入问题引起的。通过对数据源和配置进行仔细检查,以及采取一些预防措施,可以减少数据丢失的可能性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值