大数据环境部署8:Sqoop1部署安装



一、Sqoop的安装

1、下载sqoop并解压: 也可用wge命令下载

sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz    对应hadoop 2.x http://psg.mtu.edu/pub/apache/sqoop/1.4.6/sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz

解压:tar zxf    sqoop-1.4.4.bin__hadoop-2.0.4-alpha.tar.gz

2、下载并解压MySQL Connectors

http://dev.mysql.com/get/Downloads/Connector-J/mysql-connector-java-5.1.36.tar.gz

解压mysql-connector-java-5.1.36.tar.gz,将mysql-connector-java-5.1.36-bin.jar复制到:$SQOOP_HOME/lib

3、复制sqoop包到hadoop集群节点Master上。

$ scp -rsqoop-1.4.6.bin__hadoop-2.0.4-alpha spark@Master:/home/hadoop/ sqoop-1.4.6

4、设置环境变量

Vi ~/.bash_profile

#forhadoop2.6.0

exportJAVA_HOME=/usr/lib/jvm/java-1.7.0-openjdk-1.7.0.91.x86_64

exportJRE_HOME=$JAVA_HOME/jre

exportCLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH

exportHADOOP_HOME=/home/spark/opt/hadoop-2.6.0

exportPATH=.:$HADOOP_HOME/bin:$JAVA_HOME/bin:$JRE_HOME/bin:$JAVA_HOME/bin:$PATH

 

#forzookeeper

exportZOOKEEPER_HOME=/home/spark/opt/zookeeper-3.4.6

exportPATH=$PATH:$ZOOKEEPER_HOME/bin:$ZOOKEEPER_HOME/conf

 

#forhbase

exportHBASE_HOME=/home/spark/opt/hbase-1.0.1.1

exportPATH=$PATH:$HBASE_HOME/bin

 

#for sqoop1.4.6

exportSQOOP_HOME=/home/spark/opt/sqoop-1.4.6.bin__hadoop-2.0.4-alpha

export PATH=$PATH:$SQOOP_HOME/bin

 

source ~/.bash_profile

5、修改配置文件

$SQOOP_HOME/conf    目录下拷贝sqoop-env-template.sh改名为sqoop-env.sh.

cp sqoop-env-template.shsqoop-env.sh

#Setpath to where bin/hadoop is available

exportHADOOP_COMMON_HOME=/home/spark/opt/hadoop-2.6.0

 

#Setpath to where hadoop-*-core.jar is available

#exportHADOOP_MAPRED_HOME=/home/spark/opt/hadoop-2.6.0

 

#setthe path to where bin/hbase is available

exportHBASE_HOME=/home/spark/opt/hbase-1.0.1.1

 

#Setthe path to where bin/hive is available

#exportHIVE_HOME=/home/spark/opt/hive-1.2.1

 

#Setthe path for where zookeper config dir is

exportZOOCFGDIR=/home/spark/opt/zookeeper-3.4.6

 

修改$SQOOP_HOME/bin/configure-sqoop(实际未作修改)

二、运行测试

启动sqoopSqoop1作为客户端模式,并没有服务端需要启动。

列出数据库:

sqoop list-databases--connectjdbc:mysql://172.16.247.140:3306/ --username hive --password 123456

列出表:

sqoop list-tables --connectjdbc:mysql://172.16.247.140:3306/sqoop--username hive --password 123456

mysql中表tb1导入到hdfs

sqoop import--connectjdbc:mysql://172.16.247.140:3306/sqoop --username hive --password123456--table tb1 -m 1

 

其他的一些例子:

sqoop list-databases --connect jdbc:mysql://xx.xx.xx.xx:3306/ --username xxxxxx --password xxxxxx  
sqoop list-tables --connect jdbc:mysql://192.168.56.204:3306/mysql --username root --password root  
sqoop list-databases -connect jdbc:mysql://xx.xx.xx.xx:3306/ -username xxxxxx -password xxxxxx
sqoop create-hive-table --connect jdbc:mysql://xx.xx.xx.xx:3306/datahouse --table base_dorm --username xxxxxx --password xxxxxx --hive-table base_dorm
sqoop list-tables --connect jdbc:mysql://xx.xx.xx.xx:3306/datahouse --username xxxxxx --password xxxxxx
sqoop import --connect jdbc:mysql://xx.xx.xx.xx:3306/datahouse --username xxxxxx --password xxxxxx --table base_dorm -m 9999999
sqoop create-hive-table --connect jdbc:mysql://xx.xx.xx.xx:3306/datahouse --table base_dorm --username xxxxxx --password xxxxxx --hive-table base_dorm
sqoop import --connect jdbc:mysql://xx.xx.xx.xx:3306/datahouse --username xxxxxx --password xxxxxx --table base_dorm --hive-table base_dorm --hive-import
sqoop import --connect jdbc:mysql://xx.xx.xx.xx:3306/datahouse --username xxxxxx --password xxxxxx --table h_59_dormentrydorm --hive-table h_59_dormentrydorm --hive-import
sqoop import --connect jdbc:mysql://xx.xx.xx.xx:3306/datahouse --username xxxxxx --password xxxxxx --table base_dorm_sal --hive-table base_dorm_sal --hive-import -m 1
sqoop import --connect jdbc:mysql://xx.xx.xx.xx:3306/datahouse --username xxxxxx --password xxxxxx --table base_dorm_pur_trace --hive-table base_dorm_pur_trace --hive-import  --split-by dorm_id,rid
sqoop import --connect jdbc:mysql://xx.xx.xx.xx:3306/datahouse --username xxxxxx --password xxxxxx --query 'select a.order_id,a.order_mo,a.order_amount,a.order_date,a.city_desc,a.city_staff_name,a.dorm_name,b.dorm_price from base_order a left join base_food b on a.order_id=b.order_id  WHERE $CONDITIONS'  --target-dir /alidata/query1 --split-by a.order_id

3、说明

sqoop1sqoop2区别

这两个版本是完全不兼容的,其具体的版本号区别为1.4.xsqoop11.99xsqoop2sqoop1sqoop2在架构和用法上已经完全不同。

在架构上,sqoop2引入了sqoop server(具体服务器为tomcat),对connector实现了集中的管理。其访问方式也变得多样化了,其可以通过REST APIJAVA APIWEBUI以及CLI控制台方式进行访问。另外,其在安全性能方面也有一定的改善,在sqoop1中我们经常用脚本的方式将HDFS中的数据导入到mysql中,或者反过来将mysql数据导入到HDFS中,其中在脚本里边都要显示指定mysql数据库的用户名和密码的,安全性做的不是太完善。在sqoop2中,如果是通过CLI方式访问的话,会有一个交互过程界面,你输入的密码信息不被看到。

本次安装的是Sqoop1,与Sqoop2比起来安装上都差不多,使Sqoop2使用起来不太习惯。

 

 

参考:

http://f.dataguru.cn/thread-523804-1-1.html

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
### 回答1: sqoop 是一种用于将关系型数据库中的数据导入到 Hadoop 生态系统中的工具。在第一关中,我们将使用 sqoop 将数据从关系型数据库中导入到 HBase 中。HBase 是一个分布式的、面向列的 NoSQL 数据库,它可以处理大量的结构化数据。通过将数据从关系型数据库导入到 HBase 中,我们可以更好地利用 Hadoop 生态系统的强大功能来处理和分析数据。 ### 回答2: 被称为“水管工”的Sqoop是一个用于将关系型数据库与Hadoop用例一起使用的工具。Sqoop是一个开源的命令行工具,可提供对大规模数据的高效传输的支持。HBase是一个可伸缩的分布式非关系型数据库,可以承载大量的结构化数据。在本文中,我们将讨论如何使用Sqoop工具将关系型数据源导入到HBase中。 第一步是安装和配置Sqoop和HBase。 在Sqoop官方文档中,有包含安装和配置的详细指南,可以参考使用。同时,也需要在HBase中创建表来存储数据。 第二步是使用Sqoop命令将数据源的数据导入到HBase。 在这里我们可以使用以下命令: sqoop import \ --connect jdbc:mysql://localhost/sampledb \ --username root \ --password root \ --table employees \ --hbase-create-table \ --hbase-table employee_data \ --column-family personal_data \ --hbase-row-key emp_id \ --split-by emp_id \ --m 5 让我们来看看每个参数的含义: -connect: 指定连接到MySQL数据库的URL -username: MySQL数据库的用户名 -password: MySQL数据库的密码 -table: 希望从中导入数据的表 -hbase-create-table: 在HBase中创建一张表 -hbase-table: 在HBase中创建的表的名称 -column-family: 在HBase中创建的列族的名称 -hbase-row-key: 指定在HBase中用作行键的列的名称 -split-by: 数据的划分依据 -m: 同时进行的Map任务数 在Sqoop导入命令执行之后,会将数据导入到HBase的表中。因此,可以使用HBase Shell工具或用于Java的HBase API来访问导入的数据。 需要注意的是,Sqoop在导入数据时会根据--split-by参数自动进行数据划分,进而生成多个MapReduce任务。使用多个任务旨在加快数据导入的速度并提高效率,同时保持数据的完整性。 总之,Sqoop是一种灵活的工具,可以帮助我们将关系型数据库中的数据导入到HBase中,从而使我们能够更好地利用Hadoop大数据平台的优势。 但需要注意,Sqoop在导入数据时,需要加入一定的参数来保证数据的正常导入。 ### 回答3: Sqoop是一款开源的数据传输工具,可以将关系型数据库中的数据导入到Hadoop生态系统中的HDFS、Hive和HBase等组件中。在本题中,我们将使用Sqoop将MySQL数据库中的数据导入到HBase中。 首先,我们需要确保本地安装Sqoop。如果还没有安装,可以从Apache Sqoop的官方网站上下载并按照官方文档进行配置和安装安装Sqoop之后,我们就可以开始导入数据到HBase了。 在此之前,我们需要将MySQL中的数据表进行扫描,并创建一个与该表结构相同的HBase表。可以使用以下命令创建HBase表: ``` create 'tableName', 'columnFamily' ``` 其中,`tableName`是表名,`columnFamily`是列簇名。 接下来,我们可以使用Sqoop进行数据导入。以下是一个简单的Sqoop命令示例: ``` sqoop import --connect jdbc:mysql://localhost/mydb --username myusername --password mypassword --table tableName --hbase-table hbaseTableName --column-family columnFamily --hbase-row-key rowKeyName --split-by columnName ``` 解释一下上述命令中各个参数的含义: - `--connect`:指定连接到的MySQL数据库的URL。 - `--username`:指定连接MySQL数据库所需要的用户名。 - `--password`:指定连接MySQL数据库所需要的密码。 - `--table`:指定需要导入的MySQL数据表名。 - `--hbase-table`:指定需要创建的HBase表名。 - `--column-family`:指定需要创建的HBase表中的列簇名。 - `--hbase-row-key`:指定HBase表中的行键名。 - `--split-by`:指定用于分割数据的列名。 在执行完上述命令之后,Sqoop会自动将MySQL中的数据表数据导入到HBase表中。在查询HBase表中的数据时,可以使用HBase的shell工具进行查询和操作。 在实际应用中,Sqoop可支持多种数据源或传输方式,例如可以从Oracle、SQL Server等关系型数据库、FTP服务器、网络协议等数据源中获取数据,并能导入到Hadoop中的不同组件或是其他存储平台。因此,对于数据的导入和导出,Sqoop为我们提供了很大的便利性和灵活性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值