sqoop的安装使用

介绍

大数据Hadoop框架生态系统中一员

只有map阶段,没有reduce阶段

作用

Sqoop可以理解为一个桥梁

可以将hadoop中的hdfs文件系统中的文件导入到RDBMS中

也可以将RDBMS中表以文件的形式导入到hdfs文件系统中

同样,也可以将hive中的表导出到RDBMS中,也可以将hive中的表导入到RDBMS中

安装

安装要求:在hadoop的基础上安装,可以设置hive路径与HBase路径

配置环境变量即可

首先修改文件名:

mv sqoop-env-template.sh sqoop-env.sh
 
 

然后配置配置文件:

 这样就配置好了Sqoop

使用

将hdfs中的数据信息导入到mysql中

注意:mysql中必须要有对应的表,才可以导入数据

此处可能会出错误,是因为少了一个,或者mysql 的驱动包,导入lib中即可

 


 
 
  1. #数据导入到mysql
  2. bin/sqoop export
  3. 1--connect jdbc:mysql: //bigdata-hpsk01.huadian.com/test \
  4. 2--username root --password 123456 \
  5. 3--table tb_emp --columns empno,ename,job,mgr,hiredate,sal,comm,deptno \
  6. 4-- export-dir /user/hive/warehouse/db_practise.db/tb_emp \
  7. 5--num-mappers 2 \
  8. 6--input-fields-terminated-by '\t'
  9. 1:设置连接的mysql数据库
  10. 2:输入用户名 输入密码
  11. 3:要导入的表与字段信息
  12. 4:导入数据文件的位置
  13. 5:设置map任务数量
  14. 6:输入数据文件字段的分割方式

把数据导入到hdfs


 
 
  1. bin/sqoop import \
  2. 1: --connect jdbc:mysql://bigdata-hpsk01.huadian.com/test \
  3. 2: --username root --password 123456 \
  4. 3: --table tb_emp \
  5. 4: --columns empno,ename,job,mgr,hiredate,sal,comm,deptno \
  6. 5: --target-dir /user/huadian/sqoop/emp-import \
  7. 6: --num-mappers 1 \
  8. 7: --fields-terminated-by '\t' \
  9. 8: --delete-target-dir
  10. 1234连接数据库,设置登录名密码,选择导出表与字段
  11. 5:选择导出文件的目录
  12. 6:map数量
  13. 7:字段分割方式
  14. 8:如果目标目录存在,删除

将RDBMS表中数据导入到HIve表中

导出执行过程:数据库->表 ->HDFS ->Hive

首先要做如下配置

SQOOP:依赖Hadoop和Hive,hive相关Jar包没有加载到SQOOP的运行环境上

export HADOOP_CLASSPATH=${HADOOP_CLASSPATH}:/opt/cdh5.7.6/hive-1.1.0-cdh5.7.6/lib/*

 
 

 需要hive-site.xml放到Hadoop/etc/haddop/下面

 ln -s /opt/cdh5.7.6/hive-1.1.0-cdh5.7.6/conf/hive-site.xml /opt/cdh5.7.6/hadoop-2.6.0-cdh5.7.6/etc/hadoop
 
 

 
 
  1. bin/sqoop import \
  2. 1: --connect jdbc:mysql://bigdata-hpsk01.huadian.com/test \
  3. 2: --username root \
  4. 3: --password 123456 \
  5. 4: --table tb_emp \
  6. 5: --columns empno,ename,job,mgr,hiredate,sal,comm,deptno \
  7. 6: --hive-import \
  8. 7: --hive-database default \
  9. 8: --create-hive-table \
  10. 9: --hive-table ht_emp \
  11. 10: --fields-terminated-by ',' \
  12. 11: --num-mappers 1 \
  13. 12: --hive-overwrite \
  14. 13: --delete-target-dir
  15. 6:导入到hive中
  16. 7:选择hive中的数据看
  17. 8:建立hive表
  18. 9:hive中的表名
  19. 10:字段分割方式
  20. 11:map数量
  21. 12:覆盖原hvie表中数据
  22. 13:删除目标目录,如果存在

 

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值