Boys,Grils,Friends! My name is Jinsuo.Shi. 一个不正经的大数据开发工程师,目前从事在公司主要进行CDP平台的数据接入、数据的ETL、数据的融合与事件的展开工作。
个人大数据技术栈:DataX,Sqoop,Hadoop,Hive,Spark,Flink,Hbase,Kafka,Kettle,Azkaban,Airflow,Tableau…
个人在学习领域:Python,Pandas数据分析,PowerBI数据可视化,机器学习,算法等…
个人兴趣爱好:广泛阅读,旅游远行,运动健身,王者农药…
【今日重点:大数据学习第二阶段stage3:组件学习-数据迁移组件的学习,看完不会都能用起来!】
总览图
1.Sqoop
1.1 安装
1.2 使用
- 导入数据(MYSQL->HDFS/Hive)
- 全量导入
sqoop import \
--connect jdbc:mysql://hadoop1:3306/xxx\
--username root \
--password 000000 \
--table xxx\
--target-dir /xxx/xxx\
--delete-target-dir \
--num-mappers 1 \
--fields-terminated-by "