centos安装数据库同步工具sqoop并导入数据,导出数据,添加定时任务

目录

1.安装jdk

1.1上传jdk安装包到/opt目录下并解压

1.2解压

1.3配置环境变量

2.安装hadoop

2.1.下载hadoop

2.2.解压hadoop

2.3配置环境变量 

3.安装sqoop

3.1下载

3.2解压

3.3下载依赖包并复制到指定位置

3.3.1下载commons-lang-2.6-bin.tar.gz

3.3.2将mysql-connector-j-8.3.0.jar上传到sqoop的lib目录

3.4配置环境 

4.使用

4.1导出mysql数据到hadoop

4.2将hadoop数据导入到mysql

4.3创建任务

4.4执行任务

4.5删除任务

4.6整个库导出


1.安装jdk

1.1上传jdk安装包到/opt目录下并解压

1.2解压

解压示例

cd /opt
tar -zxvf jdk-8u381-linux-x64.tar.gz

1.3配置环境变量

JAVA_HOME=/opt/jdk1.8.0_381
CLASSPATH=.:$JAVA_HOME/lib.tools.jar
PATH=$JAVA_HOME/bin:$PATH
export JAVA_HOME CLASSPATH PATH

2.安装hadoop

2.1.下载hadoop

csdn资源不知道怎么贴下载链接,直接打开就可以下载,也可以从互联网找下hadoop资源

https://download.csdn.net/download/wangwenzhe222/89530521?spm=1001.2014.3001.5501

cd /opt

然后将hadoop包上传到该目录

2.2.解压hadoop

tar -xvf hadoop-2.8.5.tar.gz

2.3配置环境变量 

vim /etc/profile

增加如下内容

export HADOOP_COMMON_HOME=/opt/hadoop-2.8.5
export PATH=$HADOOP_COMMON_HOME/bin:$PATH

export HADOOP_MAPRED_HOME=/opt/hadoop-2.8.5
export PATH=$HADOOP_MAPRED_HOME/bin:$PATH

使环境生效

source /etc/profile

3.安装sqoop

3.1下载

cd /opt
wget https://archive.apache.org/dist/sqoop/1.4.7/sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz

3.2解压

cd /opt
tar -xvf sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz

3.3下载依赖包并复制到指定位置

3.3.1下载commons-lang-2.6-bin.tar.gz

cd /opt
wget https://mirrors.tuna.tsinghua.edu.cn/apache/commons/lang/binaries/commons-lang-2.6-bin.tar.gz

 解压后得到文件commons-lang-2.6.jar

tar -zxvf commons-lang-2.6-bin.tar.gz

将文件commons-lang-2.6.jar复制到sqoop的lib目录

cp /opt/commons-lang-2.6-bin/commons-lang-2.6/commons-lang-2.6.jar /opt/sqoop/lib

3.3.2将mysql-connector-j-8.3.0.jar上传到sqoop的lib目录

由于本地有mysql-connector-j-8.3.0.jar直接上传该jar到sqoop的lib目录

处理完示例

3.4配置环境 

vim /etc/profile

 增加如下内容

export SQOOP_HOME=/opt/sqoop
export CLASSPATH=$CLASSPASS:$SQOOP_HOME/lib
export PATH=$SQOOP_HOME/bin:$PATH

使环境生效

source /etc/profile

4.使用

4.1导出mysql数据到hadoop

将数据库mysql://192.168.168.76:3306/test表kq_check_detail 的数据导出到/opt/test2 

注意:/opt/test2 必须不存在


sqoop import \
--connect jdbc:mysql://192.168.168.76:3306/test \
--username test \
--password 123456 \
--target-dir /opt/test2 \
--query 'SELECT * FROM kq_check_detail WHERE id!=5 AND $CONDITIONS' \
--num-mappers 1 \
--bindir /opt/sqoop/lib

4.2将hadoop数据导入到mysql

 /opt/test2导入到数据库mysql://192.168.168.76:3306/test2的表kq_check_detail 中

sqoop export \
--connect jdbc:mysql://192.168.168.76:3306/test2 \
--driver com.mysql.jdbc.Driver \
--username test \
--password 123456 \
--table kq_check_detail \
--export-dir /opt/test2 \
-m 1 

4.3创建任务

sqoop job \
 --create test\
 -- import \
 --connect jdbc:mysql://192.168.168.76:3306/test \
 --table kq_check_detail \
 --username root \
 --password 123456 \
 --incremental append \
 --check-column update_time \
 --last-value '2024-07-10 00:00:00' \
 --target-dir /data/test/kq_check_detail \
 --m 3 

4.4执行任务

 sqoop job --exec test

4.5删除任务

sqoop job \
 --delete test \
 -- import \
 --connect jdbc:mysql://192.168.168.76:3306/test \
 --table kq_check_detail \
 --username test \
 --password 123456\
 --incremental append \
 --check-column update_time \
 --last-value '2024-07-10 00:00:00' \
 --target-dir /data/test/kq_check_detail \
 --m 3

4.6整个库导出

导出后会以表名称创建目录(/opt/all_tables下创建)

sqoop import-all-tables "-Dorg.apache.sqoop.splitter.allow_text_splitter=true" \
--connect jdbc:mysql://192.168.168.76:3306/test \
--username root\
--password 123456 \
--warehouse-dir /opt/all_tables

评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值