Spark项目之环境搭建(单机)四 sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz 安装

上传解压 sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz,重命名

tar -zxf sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz
mv sqoop-1.4.7.bin__hadoop-2.6.0 sqoop

进入sqoop下的conf目录:cd /home/sqoop/conf,然后将sqoop-env-template.sh 拷贝一份命名为 sqoop-env.sh

cd /home/sqoop/conf
cp sqoop-env-template.sh sqoop-env.sh

然后编辑:vi sqoop-env.sh,  HBASE_HOME这个我没有,所以可以不填,运行时说找不到HBASE_HOME的也是没有关系的。

#Set path to where bin/hadoop is available
export HADOOP_COMMON_HOME=/home/hadoop

#Set path to where hadoop-*-core.jar is available
export HADOOP_MAPRED_HOME=/home/hadoop

#set the path to where bin/hbase is available
#export HBASE_HOME=

#Set the path to where bin/hive is available
export HIVE_HOME=/home/hive

加入mysql的jdbc驱动包,因为我们在安装hive的时候,在hive下的lib下添加过mysql的驱动包,那我们直接拷贝过来就好,

cp /home/hive/lib/mysql-connector-java-5.1.44.jar /home/sqoop/lib

 然后验证sqoop是否安装成功,进入sqoop/bin,然后输入 sqoop-version

sqoop-version

 安装成功

验证sqoop和mysql的联通性

./sqoop-list-databases --connect jdbc:mysql://localhost:3306 --username root --password root

 成功如下:

 从数据库导入hdfs:不指定位置,默认在/user/root目录下面

bin/sqoop import --connect jdbc:mysql://192.168.131.155:3306/hadoop --username root --password root --table shadowsocks_log --m 1

从数据库导入hdfs:指定位置

bin/sqoop import --connect jdbc:mysql://192.168.131.155:3306/hadoop --username root  --password root --table shadowsocks_log --target-dir /sqoop/mysql/hadoop/shadowsocks_log --m 1

从数据库导入hive:

bin/sqoop import --connect jdbc:mysql://192.168.131.155:3306/hadoop --username root --password root --table shadowsocks_log --fields-terminated-by ',' --delete-target-dir --num-mappers 1 --hive-import --hive-table shadowsocks_log

项目地址:https://github.com/LX1309244704/sparkDemo

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值