Sqoop文件传输

本文详细介绍了如何使用Sqoop工具在Hadoop与MySQL之间进行数据的导入和导出操作,包括全量导入、增量导入、导出到MySQL以及建立脚本调度数据传输任务的方法。
摘要由CSDN通过智能技术生成

sqoop是数据传输工具,一般用于Hadoop系统与数据库之间的结构化数据的双向传输。

一、导入

从非大数据集群(RDBMS,mysql等常用数据库)导入大数据集群(Hadoop、hive、hbase)

1、mysql库表导入HDFS
  • 全部导入
[root@Hadoop01 sqoop]# bin/sqoop import \
> --connect jdbc:mysql://hadoop01:3306/test \
> --username 账号 \
> --password 密码 \
> --table company \
> --target-dir /data/data_sqoop \
> --delete-target-dir \
> --num-mappers 1 \
> --fields-terminated-by "\t" \
> --mapreduce-job-name company

–delete-target-dir 若目标路径存在则删除,开发环境慎用
–num-mappers 1 mapper的个数,默认为4,产生4个数据块
–mapreduce-job-name company 指定java文件名
(执行关系型数据库导入HDFS时默认会在执行目录下产生一个xx.java文件)

在这里插入图片描述
查看导入的文件

[root@Hadoop01 sqoop]# hadoop fs -ls /data/data_sqoop
Found 2 items
-rw-r--r--   1 root supergroup          0 2021-03-24 22:00 /data/data_sqoop/_SUCCESS
-rw-r--r--   1 root supergroup         24 2021-03-24 22:00 /data/data_sqoop/part-m-00000

[root@Hadoop01 sqoop]# hadoop fs -cat /data/data_sqoop/part-m-00000
1	bai	female
2	xue	male

在这里插入图片描述

  • 查询导入
[root@Hadoop01 sqoop]# bin/sqoop import \
> --connect jdbc:mysql://hadoop01:3306/test \
> --username 账号 \
> --password 密码 \
> --target-dir /data/data_sqoop \
> --delete-target-dir \
> --num
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值