hive mysql本地配置文件_mysql表数据以本地文件方式导入Hive

1、mysql生成数据 1)创建数据库和数据表,脚本如下: SET @OLD_UNIQUE_CHECKS=@@UNIQUE_CHECKS, UNIQUE_CHECKS=0; SET @OLD_FOREIGN_KEY_CHECKS=@@FOREIGN_KEY_CHECKS, FOREIGN_KEY_CHECKS=0; SET @OLD_SQL_MODE=@@SQL_MODE, SQL_MODE='TRADITIONAL'; CREATE SCHEMA IF NOT EXISTS `auditdb` DEFAULT CHARACTER SET utf8 COLLATE utf8_general_ci ; USE `auditdb` ; -- ----------------------------------------------------- -- Table `auditdb`.`t_evninfo1` -- ----------------------------------------------------- DROP TABLE IF EXISTS `auditdb`.`t_evninfo1` ; CREATE  TABLE IF NOT EXISTS `auditdb`.`t_evninfo1` (   `server_ip` VARCHAR(20) NOT NULL ,   `client_ip` VARCHAR(20) NOT NULL ,   `ip_protocol` TINYINT NOT NULL ,   `db_protocol` VARCHAR(20) NULL ,   `statement` VARCHAR(1000) NOT NULL     ) ENGINE = InnoDB; 2)存储过程插入数据 mysql-> DELIMITER //  create procedure analog()  begin  declare i int;  set i=0; while i<2000000 do  INSERT INTO t_evninfo1(server_ip,client_ip,ip_protocol,db_protocol,statement) VALUES ('10.18.18.1','10.18.18.101',1,'tns','select * from tables');  set i = i+1; end while; end; //  mysql->call analog; 生成200万条记录。 3)导出表数据 mysql->mysqldump -u root -p auditdb t_evninfo1 > info.sql info.db文件大小120M。 二、hive本地文件导入 1)hive建表: hive>CREATE TABLE t_evninfo2(server_ip STRING,client_ip STRING,ip_protocol INT,db_protocol STRING,statement STRING) ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t' STORED AS TEXTFILE;   注意info.sql的分隔符,最好将导出的info.sql本地简单加工下。 2)本地文件导入 hive>LOAD DATA LOCAL INPATH '/home/hadoop/info.sql' INTO TABLE t_evninfo2; 3)查看导入记录 hive>select * from t_evninfo2 limit 10; 当然也可以通过sqoop迁移来实现mysql数据移植到hadoop平台。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值