1、现象:
postgresql源表数据量:

抽取到HDFS上和Hive之后数据量:


2、原因:
使用sqoop从pg库导出数据至HDFS或Hive时,如果数据中包含Hive指定的列分隔符,如”\001”或”\t”,那么在Hive中就会导致数据错位;如果数据中包含换行符”\n”,那么就会导致原先的一行数据,在Hive中变成了两行或多行数据,导致数据量增多。

正常的:

3、解决:
在sqoop执行import导入命令时添加参数–hive-drop-import-delims,作用是在导入时从字符串字段中删除”\n”、”\r”和”\01”。或者使用参–hive-delims-replacement,作用是在导入时将字符串字段中的”\n”、”\r”和”\01”替换为指定字符串。
命令:
sqoop import --D tez.queue.name=$queue_name --connect p g s q l h d s c d b c o n n e c t i

本文探讨了使用Sqoop从PostgreSQL导入数据到HDFS和Hive时,数据量增多的现象及原因。当数据包含Hive列分隔符或换行符时,会导致数据错位或行数增加。解决方案是在sqoop import命令中添加--hive-drop-import-delims参数删除特定字符,或使用--hive-delims-replacement进行替换。
最低0.47元/天 解锁文章
3680

被折叠的 条评论
为什么被折叠?



