Sqoop安装
安装Sqoop的前提是已经具备Java和Hadoop的环境。
下载并解压
- 最新版下载地址:http://mirrors.hust.edu.cn/apache/sqoop/
- 上传安装包sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz到虚拟机中,如我的上传目录是:
/opt/software - 解压sqoop安装包到指定目录
$ tar -zxvf sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz -C /opt/module/
修改配置文件
在sqoop根目录下的conf目录中。
1) 重命名配置文件
$ cp sqoop-env-template.sh sqoop-env.sh
$ cp sqoop-site-template.xml sqoop-site.xml
2) 修改配置文件
sqoop-env.sh
export HADOOP_COMMON_HOME=/opt/module/hadoop-2.7.2
export HADOOP_MAPRED_HOME=/opt/module/hadoop-2.7.2
export HIVE_HOME=/opt/module/apache-hive-1.2.2-bin
#export HBASE_HOME=/opt/module/hbase
#export ZOOCFGDIR=/opt/module/zookeeper-3.4.10/conf
拷贝JDBC驱动
拷贝jdbc驱动到sqoop的lib目录下
$ cp mysql-connector-java-5.1.27-bin.jar /opt/module/sqoop-1.4.6.bin__hadoop-2.0.4-alpha/lib/
验证Sqoop
我们可以通过某一个command来验证sqoop配置是否正确:
$ bin/sqoop help
出现一些Warning警告(警告信息已省略),并伴随着帮助命令的输出:
Available commands:
codegen Generate code to interact with database records
create-hive-table Import a table definition into Hive
eval Evaluate a SQL statement and display the results
export Export an HDFS directory to a database table
help List available commands
import Import a table from a database to HDFS
import-all-tables Import tables from a database to HDFS
import-mainframe Import datasets from a mainframe server to HDFS
job Work with saved jobs
list-databases List available databases on a server
list-tables List available tables in a database
merge Merge results of incremental imports
metastore Run a standalone Sqoop metastore
version Display version information
如果现在任何路径下使用命令
需要在/etc/profile文件中配置Sqoop的环境变量,并添加到PATH上
测试Sqoop是否能够成功连接数据库
$ bin/sqoop list-databases --connect jdbc:mysql://hadoop102:3306/ --username root --password 000000
出现如下输出:
information_schema
metastore
mysql
performance_schema