大数据系列—数据迁移(Sqoop,Flume,DataX)对比学习(stage3)

本文由大数据开发工程师Jinsuo.Shi分享,重点介绍大数据stage3中的数据迁移组件——Sqoop、Flume和DataX的安装与使用。通过实例展示了如何进行数据的导入和导出,包括从MYSQL到HDFS/Hive的全量、查询和指定列导入,以及Hive/HDFS到MySQL的导出。同时,讲解了Flume实时采集日志到HDFS和DataX在MySQL与HDFS之间的数据迁移。下期将聚焦存储层组件的学习。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Boys,Grils,Friends! My name is Jinsuo.Shi. 一个不正经的大数据开发工程师,目前从事在公司主要进行CDP平台的数据接入、数据的ETL、数据的融合与事件的展开工作。
个人大数据技术栈:DataX,Sqoop,Hadoop,Hive,Spark,Flink,Hbase,Kafka,Kettle,Azkaban,Airflow,Tableau…
个人在学习领域:Python,Pandas数据分析,PowerBI数据可视化,机器学习,算法等…
个人兴趣爱好:广泛阅读,旅游远行,运动健身,王者农药…

【今日重点:大数据学习第二阶段stage3:组件学习-数据迁移组件的学习,看完不会都能用起来!】

总览图

在这里插入图片描述

1.Sqoop

1.1 安装

在这里插入图片描述

1.2 使用

在这里插入图片描述

  1. 导入数据(MYSQL->HDFS/Hive)
  • 全量导入
sqoop import \
--connect jdbc:mysql://hadoop1:3306/xxx\
--username root \
--password 000000 \
--table xxx\
--target-dir /xxx/xxx\
--delete-target-dir \
--num-mappers 1 \
--fields-terminated-by "
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

道-闇影

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值