sqoop之import入门案例汇总

一、前置工作


  • 需要安装MySQL并启动服务,本文MySQL版本为5.7
  • 需要安装Hadoop并启动服务,本文基于Hadoop伪分布式环境
  • 需要安装sqoop,本文sqoop版本为1.4.7

二、需求说明


  • 需要利用sqoop的import命令将MySQL中表的数据导入到hdfs中

三、测试数据


  • MySQL中表t_test_user:
    在这里插入图片描述
    创表语句:
    CREATE TABLE `t_test_user` (
      `id` int(11) NOT NULL AUTO_INCREMENT COMMENT '主键',
      `name` varchar(50) COLLATE utf8mb4_unicode_ci NOT NULL COMMENT '姓名',
      `age` tinyint(4) NOT NULL COMMENT '年龄',
      PRIMARY KEY (`id`)
    ) ENGINE=InnoDB AUTO_INCREMENT=5 DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_unicode_ci
    

四、案例说明


  1. 案例一:将t_test_user表数据导入到hdfs中,默认方式

    命令如下:

    sqoop import \
    --connect jdbc:mysql://192.168.76.1:3306/itcollege \
    --username root \
    --password 123456 \
    --table t_test_user
    

    注意:不指定--target-dir,默认使用表的名称作为在HDFS上存储的目录名称,默认的存储路径为当前sqoop安装用户目录下,如下图所示:
    在这里插入图片描述

    默认的map task数量为4,如下图所示:
    在这里插入图片描述

  2. 案例二:将t_test_user表数据导入到hdfs中,指定--target-dir方式
    命令如下:

    sqoop import \
    --connect jdbc:mysql://192.168.76.1:3306/itcollege \
    --username root \
    --password 123456 \
    --table t_test_user \
    --target-dir /mysql/user/
    

    结果如下图:
    在这里插入图片描述

  3. 案例三: 通过-m指定map task数量将t_test_user表数据导入到hdfs中

    sqoop import \
    --connect jdbc:mysql://192.168.76.1:3306/itcollege \
    --username root \
    --password 123456 \
    --table t_test_user \
    --target-dir /mysql/user01/ \
    -m 1
    

    注意: sqoop中的import命令默认会启动多个map task(4个)来加速导入数据到hdfs中,但是我们也可以指定map task个数,即-m 1 代表指定一个map task。如下图:
    在这里插入图片描述

  4. 案例四: 通过--split-by id 指定sqoop按照id进行分割,将t_test_user表数据导入到hdfs中

    sqoop import \
    --connect jdbc:mysql://192.168.76.1:3306/itcollege \
    --username root \
    --password 123456 \
    --split-by id \
    --table t_test_user \
    --target-dir /mysql/user02/ 
    

    注意: --split-by id 指定sqoop按照id进行分割,id为数值类型的

  5. 案例五: 通过--columns id,name 指定导入当前表的两列数据到hdfs上

    sqoop import \
    --connect jdbc:mysql://192.168.76.1:3306/itcollege \
    --username root \
    --password 123456 \
    --split-by id \
    --columns id,name \
    --table t_test_user \
    --target-dir /mysql/user03/ 
    

    注意: --columns id,name 指定导入当前表的两列数据到hdfs上

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

若兰幽竹

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值