Sqoop1.99 从SQL Server导数据到HDFS

3 篇文章 0 订阅

一、创建link

1.创建mssql 的link

 启动sqoop2-shell

设置端口 set server --host master --port 12000 --webapp sqoop

创建连接 create link -c generic-jdbc-connector

Name: mssql
JDBC Driver Class: com.microsoft.sqlserver.jdbc.SQLServerDriver
JDBC Connection String:jdbc:sqlserver://1xxx.xxx:1433;databaseName=xxx
Username: sa
Password: ***********
JDBC Connection Properties: 
There are currently 0 values in the map:
entry# 

端口号可以通过执行exec sys.sp_readerrorlog 0, 1, 'listening'来查看,或者在wind的cmd里面通过netstat -ano配合tasklist |findstr ""来查看

2.创建hdfs的link

create link -c hdfs-connector

Name: hdfs
HDFS cluster
URI: hdfs://192.168.116.10:9000
Conf directory: /usr/local/src/hadoop-2.6.1/etc/hadoop

二、创建job

create job -f mssql -t hdfs

Name: mssqltohdfs

From database configuration

Schema name: dbo      #这里填dbo
Table name: xxxx
Table SQL statement: 
Table column names: 
Partition column name: xxxx
Null value allowed for the partition column: 
Boundary query: 

ToJob configuration

Output format: 
  0 : TEXT_FILE
  1 : SEQUENCE_FILE
Choose: 0
Compression format: 
  0 : NONE
  1 : DEFAULT
  2 : DEFLATE
  3 : GZIP
  4 : BZIP2
  5 : LZO
  6 : LZ4
  7 : SNAPPY
  8 : CUSTOM
Choose: 3        #这里选择gzip压缩,可以被hive直接识别
Custom compression format: 
Output directory: /sqoop/hdfs

Throttling resources

Extractors:           #这两个相当于map 和reduce的个数
Loaders: 

三、开启任务

 start job -n mssqltohdfs

查看进度 status job -n mssqltohdfs

设置查看报错信息set option --name verbose --value true

可以看http://192.168.116.10:8088/cluster查看看进度

或者到http://192.168.116.10:19888/jobhistory/查看日志情况,可以看到任务执行完成了

到hdfs里面查看一下是否成功导入数据了:hdfs dfs -ls /sqoop/hdfs

可以看到有很多gz文件,已经成功导入了。

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值