sqoop的导入导出以及where条件过滤数据导出

35 篇文章 4 订阅
21 篇文章 0 订阅

一、sqoop的导入

sqoop可以实现传统数据库到hive数据的导入操作
关键字:import

sqoop import  
#指定JDBC的URL 其中database指的是(Mysql或者Oracle)中的数据库名
 --connect jdbc:mysql://ip:3306/databasename  
#要读取数据库database中的表名
 --table  tablename   
#用户名 
 --username root
#密码 
 --password  123456    
#指的是HDFS中导入表的存放目录(注意:是目录)
 --target-dir  /path  
#设定导入数据后每个字段的分隔符,默认;分隔
 --fields-terminated-by '\t'  
#设定导入数据后每行的分隔符
 --lines-terminated-by '\n'  
#并发的map数量1,如果不设置默认启动4个map task执行数据导入,则需要指定一个列来作为划分map task任务的依据
 --m 1  
#增量导入
 --incremental  append 
#指定增量导入时的参考列 
 --check-column:column_id 
#上一次导入column_id的最后一个值
 --last-value:num  
#导入的字段为空时,用指定的字符进行替换
 --null-string '' 

二、sqoop的导出

sqoop导出hive的数据到mysql、oracle等
关键字:export

 sqoop export
#指定JDBC的URL 其中database指的是(Mysql或者Oracle)中的数据库名
 --connect jdbs:mysql://ip:3600/库名 
#数据库的用户名
 --username用户名  
#数据库的密码
 --password密码  
#需要导入到数据库中的表名 
 --table表名     
#hdfs上的数据文件
 --export-dir导入数据的名称   
#HDFS中被导出的文件字段之间的分隔符
 --fields-terminated-by ‘\t’    
#设定导入数据后每行的分隔符
 --lines-terminated-by '\n'  
#并发的map数量1,如果不设置默认启动4个map task执行数据导入,则需要指定一个列来作为划分map task任务的依据
 --m 1 
#增量导入 
 --incremental  append  
#指定增量导入时的参考列
 --check-column:column_id  
#上一次导入column_id的最后一个值
 --last-value:num  
#导出的字段为空时,用指定的字符进行替换
 --null-string ''  

三、带where条件,过滤部分数据导出

用query参数,指定sql语句查询结果数据导出
格式:

sqoop export
--query 'select * from table where 1=1 and $CONTITONS'

注意:

$CONTITONS是linux系统的变量,query必须包含$CONDITIONS
  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

晓之以理的喵~~

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值