hive取mysql数据oracle数据_hive元数据从mysql迁移到oracle

Source Code

Stop Hive MetaStore and Hive Server

sudo service hive-metastore stop

sudo service hive-server2 stop

Dump myql数据

执行脚本 : sh mysql_export.sh,

导出结果文件为data2.sql

数据灌入Oracle

拷贝data2.sql文件到oracle导入目录,执行数据导入程序

sqlplus meta_store/paic1234@JZTEST @load.sql

修改hive metastore为oracle

/etc/hive/conf/ hive-site.xml

javax.jdo.option.ConnectionURL

jdbc:oracle:thin:@10.20.19.78:1521:jztest

the URL of the MySQL database

javax.jdo.option.ConnectionDriverName

oracle.jdbc.driver.OracleDriver

javax.jdo.option.ConnectionUserName

META_STORE

javax.jdo.option.ConnectionPassword

paic1234

Start Hive MetaStore and Hive Server

sudo service hive-metastore start

sudo service hive-server2 start

Database data check

mysql 数据查询

mysql -u hive -phive -h datanode3 –database=metastore -e “select ‘CDS’,COUNT(1) from CDS t UNION ALL

select ‘SDS’,COUNT(1) from SDS t UNION ALL

select ‘TBLS’,COUNT(1) from TBLS t UNION ALL

select ‘PARTITIONS’,COUNT(1) from PARTITIONS t UNION ALL

select ‘FUNCS’,COUNT(1) from FUNCS t”

oracle数据查询

进入sqlplus,查询

select ‘CDS’,COUNT(1) from CDS t UNION ALL

select ‘SDS’,COUNT(1) from SDS t UNION ALL

select ‘TBLS’,COUNT(1) from TBLS t UNION ALL

select ‘PARTITIONS’,COUNT(1) from PARTITIONS t UNION ALL

select ‘FUNCS’,COUNT(1) from FUNCS t

Schema备注

HIVE-7018 在HIVE-7018中,mysql的schema中,TBLS表和PARTITIONS表的字段会有LINK_TARGET_ID NUMBERLINK_TARGET_ID NUMBER字段,hive没有使用这两个字段,这个在oracle等其他数据库的元数据库中没有,而且,后期mysql的元数据升级的时候会直接删除这两个字段。

https://github.com/apache/hive/blob/master/metastore/scripts/upgrade/mysql/021-HIVE-7018.mysql.sql

SDS表中字段 IS_STOREDASSUBDIRECTORIES NUMBER(1) NOT NULL CHECK (IS_STOREDASSUBDIRECTORIES IN (1,0))在表中顺序在mysql schema和oracle schema不同,在迁移数据的时候需要特殊处理。

说明

在迁移过程中,mysql metastore会停止,dba如果支持的话,是否可以考虑设置为只读模式。

数据导入Oracle的过程还是很慢,使用了Append,Nologging,PL/SQL等技术优化,看dba支持吧。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
数据Oracle数据迁移Hive中可以采用以下步骤: 1.安装Hive,配置Hive环境变量 2.安装Sqoop,配置Sqoop环境变量 3.创建Hive表结构 4.使用Sqoop将Oracle数据导入到Hive中 具体步骤如下: 1.安装Hive,配置Hive环境变量 需要下载并安装Hive,然后配置Hive环境变量。可以参考Hive的官方文档进行安装和配置。 2.安装Sqoop,配置Sqoop环境变量 需要下载并安装Sqoop,然后配置Sqoop环境变量。可以参考Sqoop的官方文档进行安装和配置。 3.创建Hive表结构 需要先在Hive中创建表结构,以便后续将Oracle数据导入到Hive中。可以使用Hive的DDL语句进行创建表结构,例如: ``` CREATE TABLE employee ( id INT, name STRING, age INT, gender STRING ) ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' STORED AS TEXTFILE; ``` 4.使用Sqoop将Oracle数据导入到Hive中 使用Sqoop将Oracle数据导入到Hive中,可以使用以下命令: ``` sqoop import \ --connect jdbc:oracle:thin:@//hostname:port/service_name \ --username username \ --password password \ --table oracle_table_name \ --hive-import \ --hive-table hive_table_name \ --fields-terminated-by ',' \ --lines-terminated-by '\n' ``` 其中,`--connect`指定Oracle数据库的连接信息,`--username`和`--password`指定Oracle数据库的用户名和密码,`--table`指定要导入的Oracle表名,`--hive-import`指定要将数据导入到Hive中,`--hive-table`指定要导入到的Hive表名,`--fields-terminated-by`指定Oracle表中字段之间的分隔符,`--lines-terminated-by`指定Oracle表中行之间的分隔符。 例如,如果要将Oracle数据库中的`employee`表导入到Hive中的`employee`表中,可以使用以下命令: ``` sqoop import \ --connect jdbc:oracle:thin:@//localhost:1521/orcl \ --username scott \ --password tiger \ --table employee \ --hive-import \ --hive-table employee \ --fields-terminated-by ',' \ --lines-terminated-by '\n' ``` 这样就可以将Oracle数据成功导入到Hive中了。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值