【sqoop】Linux环境下使用一个脚本将hive数据导出到mysql

文件名:sqoop_export_emp.sh,内容如下:

#!/bin/sh

queueName=
job_name=

#mysql
mysql_name=system
mysql_passwd=111111
mysql_conn=jdbc:mysql://192.168.1.120:3306/mtest

#目的表名:mysql表名
export_table_name=emp_t;

#目的表列名:mysql表列名
export_table_columns="id,name,deg,salary,dept"

#导出到mysql的临时文件名
sqoop_export_data_filename=${export_table_name};

#删除目的数据库的数据
sqoop eval --connect ${mysql_conn}          \
--username ${mysql_name}                    \
--password ${mysql_passwd}                  \
-query "
        delete from ${export_table_name} where 1=1
"

#需要导出到mysql的数据临时文件目录
sqoop_export_data_dir=/user/hive/warehouse/htest/export/${sqoop_export_data_filename};

#删除临时目录,支持二次运行
hadoop dfs -rmr ${sqoop_export_data_dir}

hive -v -e "
use htest;
insert overwrite directory '${sqoop_export_data_dir}'
select id
      ,name
      ,deg
      ,salary
      ,dept
  from htest.emp;
";

##set mapred.job.queue.name=${queueName};
##set mapred.job.name=${job_name}_1;

#再导出数据到目的库(mysql)
sqoop export                                \
--connect ${mysql_conn}                     \
--username ${mysql_name}                    \
--password ${mysql_passwd}                  \
--export-dir ${sqoop_export_data_dir}       \
--verbose                                   \
--num-mappers 3                             \
--table ${export_table_name}                \
--columns ${export_table_columns}           \
--input-fields-terminated-by '\001'         \
--input-lines-terminated-by '\n'            \
--input-null-string '\\N'                   \
--input-null-non-string '\\N';

##########
#-Dmapred.job.queue.name=${queueName}
#
##########

然后执行脚本

sh

sqoop_export_emp.sh

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值