Sqoop数据导入 第3关:Mysql导入数据至Hive中

本文介绍了如何解决Sqoop从Mysql导入数据到Hive时的错误,包括缺失包的问题以及如何处理已存在的输出文件。首先,通过直接导入方式,解决Hive报错并进行数据传输。其次,探讨了通过HDFS作为中间步骤,先将MySQL数据导入HDFS,再由Hive读取的方法。最后,提出了编程要求,即筛选学生年龄大于20的数据并导入到Hive的test2表中。
摘要由CSDN通过智能技术生成

注意!如果重置了代码仓库请用以下步骤:

start-all.sh

schematool -dbType mysql -initSchema

重置之后mysql数据库里数据没了,所以重新输入就行。

mysql -uroot -p123123 -h127.0.0.1

create database hdfsdb;

use hdfsdb;

create table student(stu_no int primary key, stu_name varchar(20), stu_age int);

insert into student values(202001,"zhangsan",18);

insert into student values(202002,"lisi",19);

insert into student values(202003,"wangwu",20);

exit;

hive

create table test2(stu_no int,stu_name string,stu_age int)

row format delimited

fields terminated by ",";

exit;

sqoop import --connect jdbc:mysql://127.0.0.1:3306/hdfsdb --username root --password 123123 --query 'select stu_no, stu_name,stu_age from student where stu_age>=20 and $CONDITIONS' --target-dir /user/root/hdfsdb6   --fields-terminated-by ',' -m 1 

hive

load data inpath '/user/root/hdfsdb6/part-m-00000' into table test2;
Sqoop 是 Apache Hadoop 生态系统的一个工具,用于在 Hadoop 和结构化数据存储之间进行数据传输。Sqoop 可以将结构化数据(如系型数据数据导入Hadoop 的 HDFS 或 Hive ,也可以将数据Hadoop 导出到结构化数据存储。使用 Sqoop 进行数据导入导出的步骤如下: 1. 安装 Sqoop:下载 Sqoop 的安装包并解压,配置环境变量。 2. 连接到数据源:Sqoop 支持连接到多种数据源,如 MySQL、Oracle、PostgreSQL 等。 3. 导入数据:使用 Sqoop 的 import 命令将数据数据导入Hadoop 的 HDFS 或 Hive 。 4. 导出数据:使用 Sqoop 的 export 命令将数据Hadoop 导出到数据Hive 是基于 Hadoop数据仓库工具,它提供了类 SQL 的查询语言 HQL,可以将结构化的数据文件映射成一张数据库表,并提供了丰富的数据分析功能。使用 Hive 进行数据处理和分析的步骤如下: 1. 安装 Hive:下载 Hive 的安装包并解压,配置环境变量。 2. 创建数据库:使用 Hive 的 create database 命令创建数据库。 3. 创建表:使用 Hive 的 create table 命令创建表,可以指定表的列名、数据类型等属性。 4. 加载数据:使用 Hive 的 load data 命令将数据加载到表。 5. 执行查询:使用 Hive 的 select 命令执行查询操作,可以对表进行聚合、排序、过滤等操作。 6. 保存查询结果:使用 Hive 的 insert 命令将查询结果保存到表或导出到文件
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值