Sqoop常用命令与参数

Sqoop常用命令

命令描述
import将数据导入到集群,HDFS,HIve,HBase
export将集群的数据导出到传统数据库中
job用来生成一个sqoop任务的,生成后,该任务不执行,等待使用命令执行
list-databases显示所有数据库名字
list-tables显示某个数据库下所有表的名字
codegen获取数据库某张表数据生java 并且打包成jar
import-all-tables将某一个数据库下的所有的表导入到集群
merge将HDFS下不同目录下的数据合并在一起,然后存放到指定目录
metastore记录sqoop job的元数据信息,如果不启动metastore实例,可以在sqoop-site.xml中配置相关路径
create-hive-table创建Hive表
eval查看SQL的运行结果
import-mainframe从其他服务器上导入数据到HDFS

参数详解

公用参数:数据库连接

命令描述
–connect连接数据库的URL
–connection-manager使用管理类
–driver手动指定要使用的JDBC驱动程序类
–hadoop-mapred-home覆盖$ HADOOP_MAPRED_HOME
–help打印使用说明
–password-file设置包含验证密码的文件的路径
-P从控制台读取密码
–password设置验证密码
–username设置认证用户名
–verbose工作时打印更多信息

公用参数:import

命令描述
–fields-terminated-by设定每个字段以什么样的符号结果,默认为逗号
–lines-terminated-by每一行以什么样的字符结束,默认为\n
–append将数据附加到HDFS中的现有数据集
–as-textfile以纯文本格式导入数据(默认)
–columns要从表导入的列
–delete-target-dir删除导入目标目录(如果存在)
–table要阅读的表格
–target-dirHDFS目的地目录
–where导入期间要使用的WHERE子句
-z,–compress启用压缩
–compression-codec使用Hadoop编解码器(默认gzip)
-m,–num-mappers使用n个 map任务并行导入
-e,–query导入结果statement。
–optionally-enclosed-by给有双引号或者单引号的字段前后加上指定的字符
–enclosed-by给字段的值前后加上指定的字符
–escaped-by对字段中的双引号加转义符

公用参数:export

命令描述
–input-fields-terminated-by导出数据中字段分隔符
–input-lines-terminated-by导出数据中行分隔符

公用参数:hive

命令描述
–hive-import将数据从传统数据库中导入到Hive表中
–hive-overwrite覆盖已存在的数据
–create-hive-tablemore是false,如果表已经存在,则会创建失败
–hive-tablehive中表的名字
–hive-partition-key创建分区,后面直接跟的就是分区名,类型默认为string
–hive-partition-value导入数据的时候,指定一下是哪个分区
  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值