sqoop到数据到HDFS中

intsmaze-刘洋

本科,软件工程专业,计算机技术与软件专业技术资格:程序员,软件设计师。从事java服务端开发,大数据开发,分布式技术开发,关注区块链技术动态。 合作微信:intsmaze

sqoop关系型数据迁移原理以及map端内存为何不会爆掉窥探

 

  序:map客户端使用jdbc向数据库发送查询语句,将会拿到所有数据到map的客户端,安装jdbc的原理,数据全部缓存在内存中,但是内存没有出现爆掉情况,这是因为1.3以后,对jdbc进行了优化,改进jdbc内部原理,将数据写入磁盘存储了。

原文和作者一起讨论: http://www.cnblogs.com/intsmaze/p/6775034.html

微信:intsmaze

避免微信回复重复咨询问题,技术咨询请博客留言。

  Sqoop是apache旗下一款“Hadoop和关系数据库服务器之间传送数据”的工具。Sqoop架构非常简单,其整合了Hive、Hbase和Oozie,通过map-reduce任务来传输数据,从而提供并发特性和容错

导入数据:MySQL,Oracle导入数据到Hadoop的HDFS、HIVE、HBASE等数据存储系统。

导出数据:从Hadoop的文件系统中导出数据到关系数据库mysql等。

 

工作机制

将导入或导出命令翻译成mapreduce程序来实现,在翻译出的mapreduce中主要是对inputformat和outputformat进行定制。

Sqoop的数据导入

  从RDBMS导入单个表到HDFS。表中的每一行被视为HDFS的记录。所有记录都存储为文本文件的文本数据(或者Avro、sequence文件等二进制数据) 

表数据:在mysql中有一个库test中intsmaze表。


导入intsmaze
表数据到HDFS

复制代码
bin/sqoop import \
--connect jdbc:mysql://192.168.19.131:3306/test \
--username root \
--password hadoop \
--table intsmaze \
--m 1
复制代码

如果成功执行,那么会得到下面的输出。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
17/04/25 03:15:06 INFO mapreduce.Job: Running job: job_1490356790522_0018
17/04/25 03:15:52 INFO mapreduce.Job: Job job_1490356790522_0018 running in uber mode : false
17/04/25 03:15:52 INFO mapreduce.Job: map 0% reduce 0%
17/04/25 03:16:13 INFO mapreduce.Job: map 100% reduce 0%
17/04/25 03:16:14 INFO mapreduce.Job: Job job_1490356790522_0018 completed successfully
17/04/25 03:16:15 INFO mapreduce.Job: Counters: 30
File System Counters......
Job Counters ......
Map-Reduce Framework......
File Input Format Counters
Bytes Read=0
File Output Format Counters
Bytes Written=22
17/04/25 03:16:15 INFO mapreduce.ImportJobBase: Transferred 22 bytes in 98.332 seconds (0.2237 bytes/sec)
17/04/25 03:16:15 INFO mapreduce.ImportJobBase: Retrieved 3 records.

原理解析:

    Sqoop的import工具会运行一个MapReduce作业,该作业会连接MySql数据库并读取表中的数据。默认情况下,该作业会并行使用4个map任务来加速导入过程,每个任务都会将其所导入的数据写到一个单独的文件,但所有4个文件都位于同一个目录中。这里我们只使用一个map(-m 1),这样我们只得到一个保存在hdfs中的文件。

查看HDFS导入的数据,intsmaze表的数据和字段之间用逗号(,)表示。

1
2
3
1,2,22
2,3,33
3,ad,12

       默认情况下,Sqoop会将我们导入的数据保存为逗号分隔的文本文件。如果导入数据的字段内容存在逗号分隔符,我们可以另外指定分隔符,字段包围字符和转义字符。使用命令行参数可以指定分隔符,文件格式,压缩等。支持文本文件(--as-textfile)、avro(--as-avrodatafile)、SequenceFiles(--as-sequencefile)。默认为文本。

   Sqoop启动的mapreduce作业会用到一个InputFormat,它可以通过JDBC从一个数据库表中读取部分内容。Hadoop提供的DataDrivenDBInputFormat能够为几个map任务对查询结果进行划分。

  使用一个简单的查询通常就可以读取一张表的内容

1
select col1,col2,... form tablename

    但是为了更好的导入性能,可以将查询划分到多个节点上执行。查询时根据一个划分列(确定根据哪一个列划分)来进行划分。根据表中的元数据,Sqoop会选择一个合适的列作为划分列(通常是表的主键)。主键列中的最小值和最大值会被读出,与目标任务数一起来确定每个map任务要执行的查询。当然用户也可以使用split-by参数自己指定一个列作为划分列。

  例如:person表中有10000条记录,其id列值为0~9999。在导入这张表时,Sqoop会判断出id是表的主键列。启动MapReduce作业时,用来执行导入的DataDrivenDBInputFormat便会发出一条类似于select min(id),max(id) form intsmaze的查询语句。假设我们制定运行5个map任务(使用-m 5),这样便可以确认每个map任务要执行的查询分别为select id,name,... form intsmaze where id>=0 and id<2000,select id,name,... form intsmaze where id>=2000 and id<4000,...,依次类推。

  注意:划分列的选择是影响并行执行效率的重要因素。如果id列的值不是均匀分布的(比如id值从2000到4000的范围是没有记录的),那么有一部分map任务可能只有很少或没有工作要做,而其他任务则有很多工作要做。

  严重注意:在1.3之前,map的并行度一定要设置好,因为map客户端会向数据库发送查询语句,将会拿到所有数据到map的客户端缓存到,然后在执行map()方法一条一条处理,所有如果设置不好,一个map拿到的表数据过大就会内存溢出,毕竟里面是用jdbc去获取的,所有数据都装在jdbc的对象中,爆是必然的。在1.3以后改写jdbc的内部原理,拿到一条数据就写入硬盘中,就没有内存溢出了

增量导入

  Sqoop不需要每次都导入整张表。例如,可以指定仅导入表的部分列。用户也可以在查询中加入where子句,来限定需要导入的记录。例如,如果上个月已经将id为0~9999的记录导入,而本月新增了1000条记录,那么在导入时的查询语句中加入子句where id>=10000,来实现只导入所有新增的记录。

它需要添加incremental,check-column,和last-value选项来执行增量导入。

下面的语法用于Sqoop导入命令增量选项。

--incremental <mode>
--check-column <column name>
--last value <last check column value>

假设新添加的数据转换成intsmaze表如下:

 

下面的命令用于在intsmaze表执行增量导入。

1
2
3
4
5
6
bin/sqoop import --connect jdbc:mysql://192.168.19.131:3306/test --username root --password hadoop \
--table person \
--m 1 \
--incremental append \
--check-column id \
--last-value 3

执行增量导入时,则会在hdfs上默认路径下新增一个文件来存储导入的新增数据,如上面的part-m-00001。

part-m-00001文件的数据内容为:

4,aa,4
5,bb,5
6,cc,6
    注意:如果不是增量导入,也没有指定路径,再次执行bin/sqoop import --connect jdbc:mysql://192.168.19.131:3306/test --username root --password hadoop --table intsmaze --m2 则会报该路径下的目录已经存在错误,即无法执行成功。
导入到HDFS指定目录

在使用Sqoop导入表数据到HDFS,我们可以指定目标目录。

--target-dir <new or exist directory in HDFS>

下面的命令是用来导入emp_add表数据到'/queryresult'目录。

复制代码
bin/sqoop import \
--connect jdbc:mysql://192.168.19.131:3306/test \
--username root \
--password hadoop \
--target-dir /queryresult \
--table intsmaze \
--m 1
复制代码

  实际场景的分析:我一开始担心在导入增量数据时,数据文件的位置等问题,想过通过每次执行增量导入时来根据时间作为文件名来指定每一次导入时文件存储在hdfs上的路径来解决。现在看来不需要担心这个问题了。但是考虑这样一种情况:关系库中的某张表每天增量导入到hdfs上,然后使用hive对导入的数据加载进hive表时,我们不应该每次都情况hive表再进行全局导入hive,这样太耗费效率了。当然可以根据文件的生成时间来确定每次把那个文件导入到hive中,但是不便于维护,可以直接根据目录名来导入该目录下的数据到hive中,且导入到hive中的数据可以按天设置分区,每次导入的数据进入一个新的分区。   

  有些业务场景只需要对hive表中每天新增的那些数据进行etl即可,完全没有必要每次都是将整个hive表进行清理,那么可以结合hive的分区,按天进行分区,这样每次进行etl处理就处理那一个分区数据即可。当然有些数据比如两表的join操作,则必须对全表进行处理,那么在join时不限制分区即可,数据倒入时仍然时间分区装载数据。

导入关系表到HIVE
bin/sqoop import --connect jdbc:mysql://192.168.19.131:3306/test --username root --password root --table intsmaze --hive-import --m 1
绝对可以向hive增量导入数据的,只是不知道内部原理即从hdfs到hive这一过程。
sqoop import --connect jdbc:mysql://192.168.19.131:3306/hive --username root --password admin --table intsmaze --fields-terminated-by '\t' --null-string '**' -m 1 --append --hive-import --check-column 'TBL_ID' --incremental append --last-value 6
导入表数据子集

Sqoop导入"where"子句的一个子集。它执行在各自的数据库服务器相应的SQL查询,并将结果存储在HDFS的目标目录。

where子句的语法如下。

--where <condition>

导入intsmaze表数据的子集。子集查询检所有列但是居住城市为:sec-bad

复制代码
bin/sqoop import \
--connect jdbc:mysql://192.168.19.131:3306/test \
--username root \
--password root \
--where "city ='sec-bad'" \
--target-dir /wherequery \
--table intsmaze --m 1
复制代码

按需导入

复制代码
bin/sqoop import \
--connect jdbc:mysql://192.168.19.131:3306/test \
--username root \
--password root \
--target-dir /wherequery2 \
--query 'select id,name,deg from intsmaze WHERE  id>1207 and $CONDITIONS' \
--split-by id \
--fields-terminated-by '\t' \
--m 1
复制代码

$CONDITIONS参数是固定的,必须要写上。

支持将关系数据库中的数据导入到Hive(--hive-import)、HBase(--hbase-table)

   数据导入Hive分三步:1)导入数据到HDFS  2)Hive建表  3)使用“LOAD DATA INPAHT”将数据LOAD到表中

   数据导入HBase分二部:1)导入数据到HDFS 2)调用HBase put操作逐行将数据写入表

导入表数据由于字段存在空字符串或null导致的问题
增量添加数据进hdfs
复制代码
 bin/sqoop import --connect jdbc:mysql://192.168.19.131:3306/test --username root --password hadoop \
--table intsmaze \
--m 1 \
--incremental append \
--check-column id \
--last-value 6
复制代码

我们查看hdfs上的数据

7,null,7
8,null,8

MySQL(或者别的RDBMS)导入数据到hdfs后会发现原来在mysql中字段值明明是NULL, 到Hive查询后 where field is null 会没有结果呢,然后通过检查一看,NULL值都变成了字段串'null'。其实你在导入的时候加上以下两个参数就可以解决了,

--null-string '\\N' 
--null-non-string '\\N' 

  这里要注意一点。在hive里面。NULL是用\N来表示的。你可以自己做个实验 insert overwrite table tb select NULL from tb1 limit 1;然后在去查看原文件就可以发现了。多提一点,如果在导入后发现数据错位了,或者有好多原来有值的字段都变成了NULL, 这是因为你原表varchar类型的字段中可能含有\n\r等一些特殊字符。可以加上 --hive-drop-import-delims

老铁,你的--->推荐,--->关注,--->评论--->是我继续写作的动力。
合作微信号:intsmaze(非诚勿扰)
避免微信回复重复咨询问题,技术咨询请博客留言。
由于博主能力有限,文中可能存在描述不正确,欢迎指正、补充!
本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,否则保留追究法律责任的权利。
 
分类:  sqoop数据迁移
 
好文要顶  关注我  收藏该文   
0
0
 
 
 
« 上一篇: MapReduce中一次reduce方法的调用中key的值不断变化分析及源码解析
» 下一篇: redis持久化快速回忆手册
posted @  2017-04-27 16:48 猥琐发育的码农 阅读(1851) 评论(1) 编辑 收藏
 

 
   回复引用
#1楼   2017-04-27 17:38 xingoo  
数字这个很好理解,直接范围除以并行度就可以了。博主有时间可以研究下字符串id的切分...那里我之前也没怎么看懂。
 
 
 

转载于:https://www.cnblogs.com/loveItLoveFaimly/p/7474789.html

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: sqoop是一个用于在Hadoop和关系型数据库之间传输数据的工具。以下是将MySQL数据导入HDFS的步骤: 1. 首先,需要安装sqoop并配置好MySQL的连接信息。 2. 然后,使用以下命令将MySQL表导入HDFSsqoop import --connect jdbc:mysql://localhost:3306/mydatabase --username myuser --password mypassword --table mytable --target-dir /myhdfsdir 其,mydatabase是MySQL数据库名称,myuser和mypassword是MySQL登录用户名和密码,mytable是要导入的MySQL表名,/myhdfsdir是HDFS上的目标目录。 3. 执行命令后,sqoop将会自动创建一个HDFS目录,并将MySQL表的数据导入到该目录。 4. 如果需要将MySQL表的数据导入到Hive,可以使用以下命令: sqoop import --connect jdbc:mysql://localhost:3306/mydatabase --username myuser --password mypassword --table mytable --hive-import --hive-table myhivetable 其,myhivetable是要创建的Hive表名。 5. 执行命令后,sqoop将会自动创建一个Hive表,并将MySQL表的数据导入到该表。 以上就是使用sqoop将MySQL数据导入HDFS的步骤。 ### 回答2: SqoopHadoop非常实用的工具集之一,它的主要功能是在Hadoop进行结构化的数据转移,它有两个核心组件:导入和导出。本文将讨论Sqoop如何将Mysql数据数据导入到Hadoop分布式文件系统HDFS。 在开始Sqoop导入MySQL数据HDFS之前,您需要确保已安装好Sqoop以及Hadoop集群和MySQL数据库。如果您没有安装,请首先安装这些工具。 以下是使用Sqoop导入MySQL数据HDFS的步骤: 1.设置MySQL数据库用户和密码: 在导入数据之前,必须设置MySQL的用户名和密码。可使用以下命令创建一个授权用户: create user 'username'@'localhost' identified by 'password'; grant all privileges on *.* to 'username'@'localhost' with grant option; 2.运行Sqoop: 启动Sqoop的命令如下: sqoop-import --connect jdbc:mysql://localhost:3306/test --username username --password password --table tablename --target-dir /path/to/hdfs/directory -m 1 其,--connect是指定数据库的连接URL,--username和--password是指定数据库的用户名和密码,--table是指定要导入的表名称,--target-dir是指定将数据导入到的HDFS目录,-m是指定使用的MapReduce任务的数量。 3.执行导入任务: 在运行Sqoop命令后,Sqoop将执行导入任务,并将MySQL数据数据导入到HDFS目录。您可以使用以下命令来查看导入的数据hadoop fs -cat /path/to/hdfs/directory/part-m-00000 在本文,我们介绍了如何使用Sqoop将MySQL数据数据导入到HDFSSqoopHadoop生态系统非常实用的工具,可以帮助用户快速地从各种数据导入结构化数据,并将其转换为Hadoop所需的格式。无论您是在进行数据分析、数据挖掘还是其他用途,都可以使用Sqoop来实现您的需求。 ### 回答3: Sqoop是一个用于在Apache Hadoop和关系型数据库之间传输数据的工具,可以将关系型数据数据导入到Hadoop分布式文件系统HDFS或将HDFS数据导出到关系型数据。 对于将MySQL数据导入到HDFS的流程,首先需要安装好Sqoop和MySQL数据库,并保证它们可以正常工作。接下来,可以按照下面的步骤进行操作: 1. 首先,需要创建一个导入任务,可以使用Sqoop Import语法来创建任务。例如,sqoop import -connect jdbc:mysql://localhost/test -username root -password xxxx -table students -target-dir /user/hadoop/students可以将MySQL的students表数据导入到HDFS的/user/hadoop/students目录。 2. 在运行Sqoop之前,还需要确保在Hadoop集群创建了目标目录。可以使用以下命令创建目录:hadoop fs -mkdir /user/hadoop/students。 3. 接下来,运行Sqoop命令以从MySQL数据提取数据并将其写入HDFS的目标目录。在这个过程Sqoop会使用Java数据库连接(JDBC)来读取MySQL数据并将其转换为适合HDFS存储的格式。 4. Sqoop还可以支持将数据进行压缩并将其导入到HDFS。根据需要,可以使用如下命令实现数据压缩:sqoop import -connect jdbc:mysql://localhost/test -username root -password xxxx -table students --compression-codec org.apache.hadoop.io.compress.GzipCodec -m 1 --target-dir /user/hadoop/students/gzip。 5. 最后,可以使用HDFS命令hadoop fs -ls /user/hadoop/students来验证数据已经成功导入HDFS。 总之,使用Sqoop将MySQL数据导入到HDFS的过程比较简单,只需要遵循上述步骤即可。使用Sqoop可以大大简化数据传输的过程,并且支持许多可配置选项,以便根据数据的不同需要进行灵活的设置。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值