(3) Sqoop安装配置

下载

http://sqoop.apache.org/

把mysql驱动复制到Sqoop的lib目录下

# cp mysql-connector-java-5.1.25.jar  /root/sqoop-1.4.7.bin__hadoop-2.6.0/lib

配置环境 

# cd /home/sqoop/conf
# cp sqoop-env-template.sh sqoop-env.sh
# vi sqoop-env.sh

 vi sqoop-env.sh:

#Set path to where bin/hadoop is available
export HADOOP_COMMON_HOME=/home/hadoop/hadoop-3.1.4

#Set path to where hadoop-*-core.jar is available
export HADOOP_MAPRED_HOME=/home/hadoop/hadoop-3.1.4

更改环境变量

vi /etc/profile

export SQOOP_HOME=/home/sqoop
export PATH=.:${JAVA_HOME}/bin:${HADOOP_HOME}/bin:$PATH:$HIVE_HOME/bin:$SQOOP_HOME/bin

source /etc/profile

配置执行文件

import            //使用import工具
--connect         //指定连接的目标数据库
jdbc:mysql://192.168.10.2:3306/ds0
--username        //数据库用户名
root
--password        //数据库密码
root
--table           //要导入的表名
user
--columns         //要导入的列
id,name,age
--where           //查询条件
id>0
 
//导入到HDFS的路径,mycluster是hadoop下/etc/hadoop/hdfs-site.xml配置的dfs.nameservices,如果不是配置hadoop高可用的话可以直接写namenode所在主机的ip或主机映射名
--target-dir
hdfs://192.168.10.11:9000/sqoop1
 
--delete-target-dir    //若目标目录已存在则删除
-m
1
--as-textfile          //导入的数据以文本格式存放在HDFS上
 
//如果只导入到hdfs可以不用下面内容
--hive-import        //向hive中导入数据
--hive-overwrite     //数据存在则覆盖
--create-hive-table  //创建Hive表
--hive-table         //指定表名
t_user
--hive-partition-key //指定分区字段
id
--hive-partition-value  指定分区名
'2020-10-10'

执行Sqoop

sqoop --options-file /home/sqoop/sqoopconf/conf1

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值