sqoop常用指令

Sqoop常用指令

公共参数–connect指定连接的url 例如:jdbc:mysql://hadoop102:3306
–username指定登录账号
–password指定登录密码
–driver指定驱动类[可以通过url推断,可以不写]
import控制参数
–append指定是否将数据追加到指定目录
–as-textfile指定数据保存到hdfs上以text的文件格式保存
–as-parquetfile指定数据保存到hdfs上以Parquet(列式存储)的格式保存
–compress 【-z】指定是否使用压缩
–compression-codec指定压缩格式 【默认gzip】
–delete-target-dir是否删除目标路径(防止导入一部分失败后造成脏数据)
–fetch-size指定每个批次从MySQL拉取的数据大小
–num-mappers【-m】设置使用多少个maptask并行导入数据
–query 【-e】通过SQL语句指定从MySQL导出导入数据
–columns指定导入MySQL哪些列的数据
–table指定导出哪个表的数据
–where指定导入到MySQL的条件
–split-by设置按照哪个字段进行分配到MapTask
–target-dir指定保存在HDFS上的路径
–null-string当字符串列为null值时要以什么字符写入HDFS(hive中null值保存的是\N )
–null-non-string当非字符串列为null值时要以什么字符写入HDFS (例如:–null-non-string ‘\N’)
增量数据导入
–check-column指定通过哪个字段识别增量数据
–incremental {append/lastmodified}append:只导入新增数据,lastmodified导入新增,修改的数据(一般通过时间字段来确定是否修改)
–last-value指定上次导入的最大值,后续表中>该值就是增量数据
分割符
–fields-terminated-by指定导入到HDFS中的字段分隔符
–lines-terminated-by指定数据保存到HDFS上时行之间的分隔符
直接导入hive表中
–hive-import指定将数据直接导入到hive表
–hive-overwrite指定是否以覆盖的形式导入
–create-hive-table指定导入hive表中,若hive表不存在则自动创建,若存在则报错
–hive-table指定导入的hive的表名
–hive-partition-key指定数据导入hive表时分区字段名称
–hive-partition-value指定数据导入hive表时分区字段值
output
控制参数
–columns指定数据导入到mysql哪些列中
–num-mappers 【-m】指定mapper的个数
–table指定数据导入哪个mysql表
–export-dir指定HDFS中数据的路径
–update-key指定HDFS数据与MySQL数据通过哪一列判断是同一条数据
–update-mode {updateonly/allowinsert }updateonly:如果数据相同,只更新数据,allowinsert:相同更新数据,不同插入
–input-null-string指定HDFS中字符串列数据是null,在MySQL中存储的形式
–input-null-non-string指定HDFS中非字符串列数据是null,在MySQL中存储的形式
分割符
–input-fields-terminated-by指定HDFS中数据字段之间的分隔符
–input-lines-terminated-by指定HDFS中行字段之间的分隔符

表格下载
https://download.csdn.net/download/qq_38705144/14425591
在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值