Sqoop概念及安装配置

1、sqoop在hadoop中应用较多,由于spark有外部数据源的概念,故spark中不太使用sqoop。

      sqoop是一个数据采集与数据交换的工具,用来处理RDBMS和hadoop (hive/hbase/hdfs/....      基于hadoop 之上的存储都可以)之间的数据的导入导出。

      sqoop底层就是一系列简单的读取操作。

 

2、  Sqoop1:  1.4.x   

        只有map,没有reduce。文件输出数取决于map数
Sqoop2: 1.99.x

        有map,有reduce 

        两个版本彼此之间不兼容

 

3、sqoop 中的map数量如何设置呢?设置依据是?

100个count   10个map

一个map10个count,map 依据表主键拆分count

若表没有主键,则需要导入导出是需要主动指定一个column为主键(--split-by emp.name)

若没有主键且不指定一个column为主键,则报错

 

4、数据从RDBMS到hadoop叫导入 数据从hadoop到RDBMS叫导出

 

5、sqoop1 架构图分析

版本号为1.4.x为sqoop1 

在架构上:sqoop1使用sqoop客户端直接提交的方式 
访问方式:CLI控制台方式进行访问 
安全性:命令或脚本中指定用户数据库名及密码

 

6、sqoop2架构图分析

版本号为1.99.x为sqoop2 

在架构上:sqoop2引入了sqoop server,对connector实现了集中的管理 
访问方式:REST API、 JavaAPI、 WEB UI以及CLI控制台方式进行访问 
CLI方式访问,会通过交互过程界面,输入的密码信息不被看到,同时Sqoop2引入基于角色的安全机制,Sqoop2比Sqoop1多了一个Server端。

 

7、sqoop1与sqoop2优缺点及对比

sqoop1:

支持数据从 RDBMS 传输至 Hive 或 HBase

支持数据从 Hive 或 HBase 传输至 RDBMS

 

sqoop2:

不支持数据从 RDBMS 传输至 Hive 或 HBase
解决办法:将数据从 RDBMS 导入 HDFS ,在 Hive 中使用相应的工具和命令(例如   LOAD DATA   语句),手动将数据载入 Hive 或 HBase

不支持数据从 Hive 或 HBase 传输至 RDBMS

解决办法:从 Hive 或 HBase 将数据提取至 HDFS (作为文本或 Avro 文件)使用 Sqoop 将上一步的输出导出至 RDBMS

 

sqoop1与sqoop2优缺点比较 : 

sqoop1:

sqoop1的架构,仅仅使用一个sqoop客户端

sqoop1优点架构部署简单

sqoop1的缺点命令行方式容易出错,格式紧耦合,无法支持所有数据类型,安全机制不够完善,例如密码暴漏,  
安装需要root权限,connector必须符合JDBC模型  

sqoop2:

 sqoop2的架构,引入了sqoop server集中化管理connector,以及rest api,web,UI,并引入权限安全机制。

 sqoop2的优点多种交互方式,命令行,web UI,rest API,conncetor集中化管理,所有的链接安装在sqoop server上,完善权限管理机制,connector规范化,仅仅负责数据的读写。  
    sqoop2的缺点,架构稍复杂,配置部署更繁琐。

在生产上,sqoop1占到绝大多数

 

安装配置sqoop1

1、下载安装

下载与hadoop版本对应的sqoop安装包,如本机hadoop版本为hadoop-*-cdh5.7.0.tar.gz,对应下载的sqoop为sqoop-1.4.*-cdh5.7.0.tar.gz,在将其解压到对应目录即可(注意解压后文件的属主与属组)

sqoop-1.4.*-cdh5.7.0为该版本对应的文档

 

2、配置文件

cp sqoop-env-template.sh sqoop-env.sh

vi sqoop-env.sh

 

#Set path to where bin/hadoop is available
export HADOOP_COMMON_HOME=/home/hadoop/apps/hadoop
配置hadoop的家目录

#Set path to where hadoop-*-core.jar is available
export HADOOP_MAPRED_HOME=/home/hadoop/apps/hadoop
配置hadoop的家目录

#set the path to where bin/hbase is available
export HBASE_HOME=


#Set the path to where bin/hive is available
export HIVE_HOME=/home/hadoop/apps/hive
配置hive的家目录

#Set the path for where zookeper config dir is
#export ZOOCFGDIR=

 

sqoop-site.xml暂时就不配了,目前够用了

 

3、将sqoop家目录加入系统环境变量

vi /etc/profile

 

export SQOOP_HOME=/home/hadoop/apps/sqoop-1.4.6-cdh5.7.0

export PATH=$SQOOP_HOME/bin:$PATH

 

 

 

 若泽数据交流群:707635769 

【来自@若泽大数据】

 

 

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

二百四十九先森

你的打赏是我努力的最大动力~

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值