我发现小伙伴们在使用Sqoop把数据从MySQL导入到Hive的过程中经常会遇到数据错位的问题,虽然最后都是通过添加参数的方法来解决这个问题,但是我认为这并不是一个完美的解决方案,所以花了一点时间研究了一下Sqoop。
Sqoop是连接关系型数据库和Hadoop的桥梁,主要有两个功能:
(1)将关系型数据库的数据导入到Hadoop及其相关的系统中,如HDFS、Hive和HBase;
(2)将数据从Hadoop系统里抽取并导出到关系型数据库中,如MySQL、Oracle。
Sqoop会把输入的命令转换成MapReduce任务,可以并行计算,因此性能非常好。
一个最简单的MySQL数据导入到Hive的例子:
sqoop import \
--connect jdbc:mysql://127.0.0.1:3306/test \
--username root \
--password '123456' \
--table employee \
--hive-import \
--fields-terminated-by '\001' \ # 指定字段分隔符
--create-hive-table \
--hive-database test \
--hive-table employee \
-m 1
如果数据中本身就存在分隔符(\001)或换行符(\n、\r),那么使用这种方式导入Hive就会存在数据错位的问题。
网上查找出的解决办法几乎都是通过添加参数来解决:
可以使用--hive-drop-import-delims选项在导入时删除这些字符,或者使用--hive-delims-replacement选项在导入时将这些字符替换为自定义的字符串,以保证数据与Hive的文本数据格式兼容。
--hive-drop-import-delims# 导入到Hive时,从字符串字段中删除\n、\r和\001

最低0.47元/天 解锁文章
2671

被折叠的 条评论
为什么被折叠?



