linux中sqoop实现hive数据导入到mysql

上一篇文章我们简单的介绍《 linux中sqoop实现hive数据导入到mysql》,本文将简单介绍如何通过sqoop把hive数据导入到mysql。

一. 前期准备

实践本文内容,默认您已经安装和部署了hadoop,mysql,hive,sqoop等环境。如相关安装和部署有问题,可以参考《 linux中sqoop实现hive数据导入到mysql》。

二. sqoop实现hdfs文件导出

2.1 hive中插入数据

insert into hivetest.t_user values(7,'dlm666','dlm6'),(8,'dlm777','dlm7');
select * from hivetest.t_user;

2.2 全表导出

sqoop export --connect jdbc:mysql://192.168.32.128:3306/hive  --username root --password root --table  t_user --export-dir /usr/hive/warehouse/hivetest.t_user --input-fields-terminated-by '\001'


2.3 表部分字段导出

如果只需要导出id和name,可以设置参数--colums "id,name"
sqoop export --connect jdbc:mysql://192.168.32.128:3306/hive  --username root --password root --table  t_user --columns "id,name" --export-dir /usr/hive/warehouse/hivetest.t_user --input-fields-terminated-by '\001'

三. 异常坑处理

3.1 解析分隔符异常

Error: java.io.IOException: Can't export data, please check failed map task logs
        at org.apache.sqoop.mapreduce.TextExportMapper.map(TextExportMapper.java:112)
        at org.apache.sqoop.mapreduce.TextExportMapper.map(TextExportMapper.java:39)
        at org.apache.hadoop.mapreduce.Mapper.run(Mapper.java:145)
        at org.apache.sqoop.mapreduce.AutoProgressMapper.run(AutoProgressMapper.java:64)
        at org.apache.hadoop.mapred.MapTask.runNewMapper(MapTask.java:784)
        at org.apache.hadoop.mapred.MapTask.run(MapTask.java:341)
        at org.apache.hadoop.mapred.YarnChild$2.run(YarnChild.java:163)
        at java.security.AccessController.doPrivileged(Native Method)
        at javax.security.auth.Subject.doAs(Subject.java:415)
        at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1692)
        at org.apache.hadoop.mapred.YarnChild.main(YarnChild.java:158)
Caused by: java.lang.RuntimeException: Can't parse input data: '4dlm222dlm222'
        at t_user.__loadFromFields(t_user.java:292)
        at t_user.parse(t_user.java:230)
        at org.apache.sqoop.mapreduce.TextExportMapper.map(TextExportMapper.java:83)
        ... 10 more
Caused by: java.lang.NumberFormatException: For input string: "4dlm222dlm222"
        at java.lang.NumberFormatException.forInputString(NumberFormatException.java:65)
        at java.lang.Integer.parseInt(Integer.java:492)
        at java.lang.Integer.valueOf(Integer.java:582)
        at t_user.__loadFromFields(t_user.java:279)
        ... 12 more
原因:sqoop导出是根据分隔符去分隔字段值。hive默认的分隔符是‘\001’,sqoop默认的分隔符是','。
解决:在脚本中需要加入 --input-fields-terminated-by '\001' 参数。

3.2 --input-fields-terminated-by和-fields-teminated-by区别

官网:

解析:
--input-fields-terminated-by:表示用于hive或hdfs数据导出到外部存储分隔参数;
--fields-terminated-by:表示用于外面存储导入到hive或hdfs中需要实现字段分隔的参数;

3.3 mapreduce.job超时异常


原因:本次hive是基于hadoop mapreduce去处理计算的。其中mapreduce读取数据是通过job任务去完成,如果在该时间范围内,没有读到任何的数据,那么就抛出这个异常。
本异常不影响结果。
  • 0
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
sqoop是一种用于在Hadoop和关系型数据库之间传输数据的工具。要将Hive数据导入MySQL,可以使用以下步骤: 1. 确保已经安装了sqoopMySQL驱动程序。 2. 在Hive创建一个表,并将其导出为一个文件。例如,可以使用以下命令将Hive表导出为一个CSV文件: ``` hive -e 'SELECT * FROM my_table' | sed 's/[\t]/,/g' > my_table.csv ``` 3. 使用sqoop将CSV文件导入MySQL。例如,可以使用以下命令将CSV文件导入MySQL的一个表: ``` sqoop import --connect jdbc:mysql://localhost/my_database --username my_username --password my_password --table my_table --fields-terminated-by ',' --lines-terminated-by '\n' --input-null-string '\\N' --input-null-non-string '\\N' --delete-target-dir --target-dir /tmp/my_table --bindir /tmp/my_table/bin --outdir /tmp/my_table/out --input-fields-terminated-by ',' ``` 其,--connect指定MySQL连接字符串,--username和--password指定MySQL用户名和密码,--table指定要导入MySQL表名,--fields-terminated-by指定CSV文件字段之间的分隔符,--lines-terminated-by指定CSV文件行之间的分隔符,--input-null-string和--input-null-non-string指定CSV文件的空值表示方式,--delete-target-dir指定在导入之前删除目标目录,--target-dir指定HDFS的目标目录,--bindir、--outdir和--input-fields-terminated-by指定生成的Java类的位置和属性分隔符。 4. 确认数据已经成功导入MySQL的表
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值