hive 修改表字段类型_使用sqoop在MySQL、hadoop、hive间同步数据

d1549a18-cefa-45af-9e25-45f8cfdb9ed7

将 MySQL 的数据导入到 HDFS 中

/usr/local/service/sqoop/bin/sqoop-import --connect jdbc:mysql://$mysqlIP/test --username root -P --table sqoop_test -m 4 --target-dir /sqoop --fields-terminated-by ''
  • --connect 用于连接 MySQL 数据库
  • -P是指手动输出密码,可以用--password直接明文跟上密码
  • test是数据库名,-P表示之后需要输入密码
  • --table 为想要导出的表名,--target-dir 为导出到 HDFS 中的路径
  • /sqoop文件夹在执行命令之前并未创建,如果文件夹已经存在会出错。
  • --target-dir后还可以跟cos路径,直接导出到cos中,同样的,如果cos中的目录已经存在也会报错。
  • -m 4是指使用4个map并行来跑,对应的hdfs中会使用4个分区来存储这些数据
  • --split-by id是指通过id字段进行hash分片

将 HDFS 的数据导入到 MySQL 中

/usr/local/service/sqoop/bin/sqoop-export --connect jdbc:mysql://$mysqlIP/test --username root -P --table sqoop_test -m 4 --export-dir /sqoop --input-fields-terminated-by ''
  • 同上,--export-dir也支持跟cos路径。
  • --table对应的表必须存在。

增量 DB 数据到 HDFS

注意:增量模式入到hdfs中无法自动适配分区,会造成分区数据倾斜。应该尽量进行全量重新入库。

append

/usr/local/service/sqoop/bin/sqoop-export --connect jdbc:mysql://$mysqlIP/test --username root -P --table sqoop_test --check-column id  --incremental append --last-value 3 --export-dir /sqoop --input-fields-terminated-by ''

lastmodified

/usr/local/service/sqoop/bin/sqoop-export --connect jdbc:mysql://$mysqlIP/test --username root -P --table sqoop_test --check-column time  --incremental lastmodified --merge-key id --last-value '2020-10-21 16:02:29' --export-dir /sqoop --input-fields-terminated-by ''

将关系型数据库导入到 Hive 中

使用hive-import

/usr/local/service/sqoop/bin/sqoop-import --connect  jdbc:mysql://$mysqlIP/test --username root -P --table sqoop_test --hive-import --hive-database db_sqoop_test --hive-table sqoop_test

使用hcatalog(推荐使用此方式)

如果hive存储格式不是text,就必须用这种方式

/usr/local/service/sqoop/bin/sqoop-import --connect  jdbc:mysql://$mysqlIP/test --username root -P --table sqoop_test --hcatalog-database test_dlm --hcatalog-table table_name --hive-partition-key dt --hive-partition-value 201905

如果hive表有分区,就必须带上--hive-partition-key和--hive-partition-value参数

将 Hive 导出到关系型数据库中

MySQL 中的表字段名字和 Hive 中的表字段名字必须完全一致

使用 HDFS 中的 Hive 数据

使用hdfs文件的方式,需要保证分隔符能正确分割内容,否则会报错

/usr/local/service/sqoop/bin/sqoop-export --connect jdbc:mysql://$mysqlIP/test  --username root -P --table table_from_hive --export-dir /usr/hive/warehouse/hive_to_sqoop.db/hive_test

使用 Hcatalog 进行导出(推荐使用此方式)

/usr/local/service/sqoop/bin/sqoop-export --connect jdbc:mysql://$mysqlIP/test  --username root -P --table table_from_hive --hcatalog-database hive_to_sqoop --hcatalog-table hive_test--hive-partition-key dt --hive-partition-value 201905

常见异常报错处理

如果失败,可以到yarn manager resource上去看错误日志

格式不对

Error: java.io.IOException: Can't export data, please check failed map task logs at org.apache.sqoop.mapreduce.TextExportMapper.map(TextExportMapper.java:122) at org.apache.sqoop.mapreduce.TextExportMapper.map(TextExportMapper.java:39) at org.apache.hadoop.mapreduce.Mapper.run(Mapper.java:146) at org.apache.sqoop.mapreduce.AutoProgressMapper.run(AutoProgressMapper.java:64) at org.apache.hadoop.mapred.MapTask.runNewMapper(MapTask.java:787) at org.apache.hadoop.mapred.MapTask.run(MapTask.java:341) at org.apache.hadoop.mapred.YarnChild$2.run(YarnChild.java:175) at java.security.AccessController.doPrivileged(Native Method) at javax.security.auth.Subject.doAs(Subject.java:422) at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1844) at org.apache.hadoop.mapred.YarnChild.main(YarnChild.java:169) Caused by: java.lang.RuntimeException: Can't parse input data: '50.00' at bill_detail_song_201905_sqoop_cos.__loadFromFields(bill_detail_song_201905_sqoop_cos.java:2925) at bill_detail_song_201905_sqoop_cos.parse(bill_detail_song_201905_sqoop_cos.java:2410) at org.apache.sqoop.mapreduce.TextExportMapper.map(TextExportMapper.java:89) ... 10 more Caused by: java.lang.NumberFormatException: For input string: "50.00" at java.lang.NumberFormatException.forInputString(NumberFormatException.java:65) at java.lang.Long.parseLong(Long.java:589) at java.lang.Long.valueOf(Long.java:803) at bill_detail_song_201905_sqoop_cos.__loadFromFields(bill_detail_song_201905_sqoop_cos.java:2616) ... 12 more

检查后发现是bizkey字段含有,跟分隔符冲突,重新导入时指定分隔符即可。建议一般分隔符使用|,复杂的使用||,避免使用,;空格、制表符等常见分隔符。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值