sqpoop
导入
sqoop import
--connect jdbc:mysql://node1:3306/database
--username
--password
--table 连接表名 || --query sql语句
导入到hdfs
--target-dir 指定导入路径
--delete-target-dir 路径存在删
导入表
--import-hive 声明导入到hive表
--import-overwrite 不写为追加
--hive-table 指定表名
使用hcatalog
--hcatalog-database 库名 \
--hcatalog-table 表名 \
-m 1
--fields-terminated-by 分隔符
hcatalog
可以导入ORC或parquet存储格式的表
spqrkSQL不能直接创建ORC格式的表,使用hive创建
saprk-SQL无法创建orc数据,借助hive创建orc格式数据
创建后使用hcatalog导入数据hive中创建的orc格式表格中
sqoop的使用(一般在ODS层导入数据使用)
于 2022-08-18 10:40:10 首次发布
该博客介绍了如何使用Sqoop将MySQL数据导入HDFS,并通过Hcatalog创建和导入ORC格式的Hive表。强调了Sqoop的导入选项,如`--query`、`--target-dir`、`--import-hive`等,以及Hcatalog在处理ORC存储格式中的作用。同时指出,虽然Spark SQL无法直接创建ORC表,但可以通过Hive来实现。
摘要由CSDN通过智能技术生成