sqoop的使用(一般在ODS层导入数据使用)

该博客介绍了如何使用Sqoop将MySQL数据导入HDFS,并通过Hcatalog创建和导入ORC格式的Hive表。强调了Sqoop的导入选项,如`--query`、`--target-dir`、`--import-hive`等,以及Hcatalog在处理ORC存储格式中的作用。同时指出,虽然Spark SQL无法直接创建ORC表,但可以通过Hive来实现。
摘要由CSDN通过智能技术生成

sqpoop    
    导入
        sqoop import
            --connect    jdbc:mysql://node1:3306/database 
            --username    
            --password    
            --table 连接表名 || --query  sql语句
            
        导入到hdfs
            --target-dir  指定导入路径
            --delete-target-dir 路径存在删    
            
        导入表
            --import-hive  声明导入到hive表
            --import-overwrite  不写为追加
            --hive-table    指定表名    
            
        使用hcatalog    
            --hcatalog-database  库名 \
            --hcatalog-table 表名 \            
            
            -m 1 
            --fields-terminated-by  分隔符
            
        hcatalog    
            可以导入ORC或parquet存储格式的表
            spqrkSQL不能直接创建ORC格式的表,使用hive创建
            saprk-SQL无法创建orc数据,借助hive创建orc格式数据
            创建后使用hcatalog导入数据hive中创建的orc格式表格中

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值