sqoop脚本

sqoop导出脚本(不同库)

#!/bin/sh
source ExitCodeCheck.sh
 
 
opts=$@
 
 
getparam(){
arg=$1
echo $opts |xargs -n1 |cut -b 2- |awk -F'=' '{if($1=="'"$arg"'") print $2}'
}
 
 
IncStart=`getparam inc_start`
IncEnd=`getparam inc_end`
oracle_connection=`getparam jdbc_str`
oracle_username=`getparam db_user`
oracle_password=`getparam db_psw`
dataName=`getparam db_sid`
queueName=`getparam hdp_queue`
hdfshostname=`getparam hdfs_host`
 
 
IncStartYear=`echo ${IncStart:0:4}`;
IncStartMonth=`echo ${IncStart:4:2}`;
IncStartDay=`echo ${IncStart:6:2}`;
IncStartAll=${IncStartYear}"-"${IncStartMonth}"-"${IncStartDay}" 00:00:00.0";
 
 
IncStartAllFormat=${IncStartYear}"-"${IncStartMonth}"-"${IncStartDay};
 
 
IncEndYear=`echo ${IncEnd:0:4}`;
IncEndMonth=`echo ${IncEnd:4:2}`;
IncEndDay=`echo ${IncEnd:6:2}`;
IncEndAll=${IncEndYear}"-"${IncEndMonth}"-"${IncEndDay}" 00:00:00.0";
 
 
twoDayAgo=`date -d "$IncStart 2 days ago  " +%Y%m%d  `;
twoDayAgoYear=`echo ${twoDayAgo:0:4}`;
twoDayAgoMonth=`echo ${twoDayAgo:4:2}`;
twoDayAgoDay=`echo ${twoDayAgo:6:2}`;
twoDayAgoAll=${twoDayAgoYear}"-"${twoDayAgoMonth}"-"${twoDayAgoDay}" 00:00:00.0";
twoDayAgoAllFormat=${twoDayAgoYear}"-"${twoDayAgoMonth}"-"${twoDayAgoDay};
 
 
job_name=$0
 
 
#需要导出的数据oracle表名
export_table_name=NCHRMS_ORGANIZATION_INTF;
 
 
#需要导出到oracle的数据的临时文件名
sqoop_export_data_filename=${export_table_name};
 
 
#需要导出的数据oracle列名
export_table_columns=ORG_ID,PARENT_ORG_ID,ORG_CODE,ORG_EN_NAME,ORG_CH_NAME,ORG_TAG,EFFECTIVE_DATE,LAPSED_DATE,PLACE_CODE,ORG_BIZ_CODE,IS_ACTIVE,ORG_LEVEL,ORG_SERIES,CREATED_BY,CREATED_DATE,UPDATED_BY,UPDATED_DATE
 
 
#需要导出到oracle的数据的临时文件目录
sqoop_export_data_dir=/apps-data/hduser0101/sx_360_safe/export/${sqoop_export_data_filename};
 
 
 
 
 
hadoop dfs -rmr ${sqoop_export_data_dir};
 
 
#创建用于导出到oracle的临时数据
hive -v -e "set mapred.job.queue.name=${queueName}; 
set mapred.job.name=${job_name}_1;
use an_pafc_safe;
insert overwrite directory '${sqoop_export_data_dir}' 
select 
ORG_ID,
PARENT_ORG_ID,
ORG_CODE,
ORG_EN_NAME,
ORG_CH_NAME,
ORG_TAG,
EFFECTIVE_DATE,
LAPSED_DATE,
PLACE_CODE,
ORG_BIZ_CODE,
IS_ACTIVE,
ORG_LEVEL,
ORG_SERIES,
CREATED_BY,
CREATED_DATE,
UPDATED_BY,
UPDATED_DATE
from lnc_cris_safe.nchrms_organization_intf ;";
exitCodeCheck $?
 
 
#先删除目的数据库的数据2天前数
sqoop eval -Dmapred.job.queue.name=${queueName} \
--connect ${oracle_connection} \
--username ${oracle_username} \
--password ${oracle_password} \
--verbose \
--query  "delete from ${export_table_name}";
exitCodeCheck $?
 
 
#先删除目的数据库的数据,支持二次运行
sqoop eval -Dmapred.job.queue.name=${queueName} \
--connect ${oracle_connection} \
--username ${oracle_username} \
--password ${oracle_password} \
--verbose \
--query  "delete from ${export_table_name}";
exitCodeCheck $?
 
 
#再导出数据
sqoop export -D mapred.job.name=${job_name}_2 -D sqoop.export.statements.per.transaction=4500 -D mapreduce.map.tasks=1 -D mapred.map.max.attempts=1 -D mapred.reduce.max.attempts=1 -D mapreduce.map.maxattempts=1 -D mapreduce.reduce.maxattempts=1 -D mapred.job.queue.name=${queueName} \
--connect ${oracle_connection} \
--username ${oracle_username} \
--password ${oracle_password} \
--export-dir ${sqoop_export_data_dir} \
--verbose \
--num-mappers 1 \
--table ${export_table_name} \
--columns ${export_table_columns} \
--input-fields-terminated-by '\001'  \
--input-lines-terminated-by '\n'  \
--input-null-string '\\N'  \
--input-null-non-string '\\N';
exitCodeCheck $?
 

sqoop导出脚本

#!/bin/sh
source ExitCodeCheck.sh
 
 
opts=$@
 
 
getparam(){
arg=$1
echo $opts |xargs -n1 |cut -b 2- |awk -F'=' '{if($1=="'"$arg"'") print $2}'
}
 
 
IncStart=`getparam inc_start`
IncEnd=`getparam inc_end`
pg_connection=`getparam jdbc_str`
pg_username=`getparam db_user`
pg_password=`getparam db_psw`
dataName=`getparam db_sid`
queueName=`getparam hdp_queue`
hdfshostname=`getparam hdfs_host`
 
 
IncStartYear=`echo ${IncStart:0:4}`;
IncStartMonth=`echo ${IncStart:4:2}`;
IncStartDay=`echo ${IncStart:6:2}`;
IncStartAll=${IncStartYear}"-"${IncStartMonth}"-"${IncStartDay}" 00:00:00.0";
 
 
IncStartAllFormat=${IncStartYear}"-"${IncStartMonth}"-"${IncStartDay};
 
 
IncEndYear=`echo ${IncEnd:0:4}`;
IncEndMonth=`echo ${IncEnd:4:2}`;
IncEndDay=`echo ${IncEnd:6:2}`;
IncEndAll=${IncEndYear}"-"${IncEndMonth}"-"${IncEndDay}" 00:00:00.0";
 
 
twoDayAgo=`date -d "$IncStart 2 days ago  " +%Y%m%d  `;
twoDayAgoYear=`echo ${twoDayAgo:0:4}`;
twoDayAgoMonth=`echo ${twoDayAgo:4:2}`;
twoDayAgoDay=`echo ${twoDayAgo:6:2}`;
twoDayAgoAll=${twoDayAgoYear}"-"${twoDayAgoMonth}"-"${twoDayAgoDay}" 00:00:00.0";
twoDayAgoAllFormat=${twoDayAgoYear}"-"${twoDayAgoMonth}"-"${twoDayAgoDay};
 
 
job_name=$0
 
 
#需要导出的数据pg表名
export_table_name=n_par_life_hrm_org;
 
 
#需要导出到pg的数据的临时文件名
sqoop_export_data_filename=${export_table_name};
 
 
#需要导出的数据pg列名
export_table_columns=statis_date,um_num,um_name,group_id,group_name,department_id,department_name,center_id,center_name
 
 
#需要导出到pg的数据的临时文件目录
sqoop_export_data_dir=/apps-data/hduser0101/an_pafc_safe/export/${sqoop_export_data_filename};
 
 
 
 
 
hadoop dfs -rmr ${sqoop_export_data_dir};
 
 
#创建用于导出到pg的临时数据
hive -v -e "set mapred.job.queue.name=${queueName}; 
set mapred.job.name=${job_name}_1;
use an_pafc_safe;
insert overwrite directory '${sqoop_export_data_dir}' 
select 
'${IncStartAllFormat}'  as  statis_date,
um_num,
um_name,
group_id,
group_name,
department_id,
department_name,
center_id,
center_name 
from lnc_hdw_safe.n_par_life_hrm_org ;";
exitCodeCheck $?
 
 
#先删除目的数据库的数据2天前数
sqoop eval -Dmapred.job.queue.name=${queueName} \
--connect ${pg_connection} \
--username ${pg_username} \
--password ${pg_password} \
-query  "delete from ${export_table_name} A where a.statis_date=date('${twoDayAgoAllFormat}')";
exitCodeCheck $?
 
 
#先删除目的数据库的数据,支持二次运行
sqoop eval -Dmapred.job.queue.name=${queueName} \
--connect ${pg_connection} \
--username ${pg_username} \
--password ${pg_password} \
-query  "delete from ${export_table_name} A where a.statis_date=date('${IncStartAllFormat}')";
exitCodeCheck $?
 
 
#再导出数据
sqoop export -D mapred.job.name=${job_name}_2 -D sqoop.export.statements.per.transaction=4500 -D mapreduce.map.tasks=1 -D mapred.map.max.attempts=1 -D mapred.reduce.max.attempts=1 -D mapreduce.map.maxattempts=1 -D mapreduce.reduce.maxattempts=1 -D mapred.job.queue.name=${queueName} \
--connect ${pg_connection} \
--username ${pg_username} \
--password ${pg_password} \
--export-dir ${sqoop_export_data_dir} \
--verbose \
--num-mappers 1 \
--table ${export_table_name} \
--columns ${export_table_columns} \
--input-fields-terminated-by '\001'  \
--input-lines-terminated-by '\n'  \
--input-null-string '\\N'  \
--input-null-non-string '\\N';
exitCodeCheck $?

sqoop导入脚本

#!/bin/sh
source ExitCodeCheck.sh
 
 
opts=$@
 
 
getparam(){
arg=$1
echo $opts |xargs -n1 |cut -b 2- |awk -F'=' '{if($1=="'"$arg"'") print $2}'
}
 
 
IncStart=`getparam inc_start`
IncEnd=`getparam inc_end`
oracle_connection=`getparam jdbc_str`
oracle_username=`getparam db_user`
oracle_password=`getparam db_psw`
dataName=`getparam db_sid`
queueName=`getparam hdp_queue`
hdfshostname=`getparam hdfs_host`;
 
 
IncStartYear=`echo ${IncStart:0:4}`;
IncStartMonth=`echo ${IncStart:4:2}`;
IncStartDay=`echo ${IncStart:6:2}`;
IncStartAll=${IncStartYear}"-"${IncStartMonth}"-"${IncStartDay}" 00:00:00.0";
IncStartAllFormat=${IncStartYear}"-"${IncStartMonth}"-"${IncStartDay};
IncEndYear=`echo ${IncEnd:0:4}`;
IncEndMonth=`echo ${IncEnd:4:2}`;
IncEndDay=`echo ${IncEnd:6:2}`;
IncEndAll=${IncEndYear}"-"${IncEndMonth}"-"${IncEndDay}" 00:00:00.0";
IncEndAllFormat=${IncEndYear}"-"${IncEndMonth}"-"${IncEndDay};
 
 
OneDayAgo=`date -d "$IncStart 1 days ago  " +%Y%m%d  `;
OneDayAgoYear=`echo ${OneDayAgo:0:4}`;
OneDayAgoMonth=`echo ${OneDayAgo:4:2}`;
OneDayAgoDay=`echo ${OneDayAgo:6:2}`;
OneDayAgoAll=${OneDayAgoYear}"-"${OneDayAgoMonth}"-"${OneDayAgoDay}" 00:00:00.0";
OneDayAgoAllFormat=${OneDayAgoYear}"-"${OneDayAgoMonth}"-"${OneDayAgoDay};
 
 
#任务名取脚本名
job_name=$0
 
 
#任务名取脚本名
job_name=$0
 
 
#目标表名
hive_table=AGG_MOBILE_HR_DEPT_ALL
 
 
#临时目录
target_dir=/apps-data/hduser0101/an_pafc_safe/import/${hive_table} 
 
 
#删除临时目录,支持二次运行
hadoop dfs -rmr ${target_dir} 
 
 
 
sqoop import -D mapred.job.queue.name=${queueName}   -D mapred.job.name=${job_name} \
--connect ${oracle_connection} \
--username ${oracle_username} \
--password ${oracle_password} \
--query "SELECT                             \
PARENT_DEPARTMENT_CODE                                 \
,DEPARTMENT_CODE                                \
,DEPARTMENT_NAME                                \
,DEPARTMENT_LEVEL                                \
,OPTION_ITEM                               \
,CR_MONTH                           \
,CR_YEAR                           \
,COMP_LY                           \
,COMP_YEAR_END                           \
,TLL_MONTH                           \
,TLL_MONTH_NUM                           \
,TLL_YEAR                                 \
,TLL_YEAR_NUM                               \
,ZYL_MONTH                                 \
,ZYL_MONTH_NUM                               \
,ZYL_YEAR                                   \
,ZYL_YEAR_NUM                                   \
,PLAN_DATA_M                                   \
,PLAN_DATA_Y                                   \
,C_PLAN_DATA_M                                   \
,C_PLAN_DATA_Y                                   \
,CR_MONTH_LY                                   \
,CR_YEAR_LY                                   \
,CREATED_BY                                   \
,DATE_CREATED                                   \
,UPDATED_BY                                   \
,DATE_UPDATED                                   \
,ORDER_NO                                   \
,ZY_Y_CUR                                   \
,TL_Y_CUR                                   \
,LM_HR                                   \
,ZY_M_LY                                   \
,ZY_Y_LY                                   \
,TL_M_LY                                   \
,TL_Y_LY                                   \
FROM   AGG_MOBILE_HR_DEPT_ALL                  \
WHERE  CANC_DATE = to_date('${IncStart}','yyyymmdd')         \
and     \$CONDITIONS   "                    \
-m 1 \
--hive-table an_pafc_safe.${hive_table}   \
--hive-drop-import-delims                   \
--fetch-size 5000                           \
--hive-partition-key CANC_DATE                              \
--hive-partition-value ${IncStartAllFormat}               \
--target-dir "${target_dir}"   \
--hive-overwrite         \
--null-string '\\N'      \
--null-non-string '\\N'  \
--hive-import;
exitCodeCheck $?

sqoop脚本(导入到pg库)

#!/bin/sh
source ExitCodeCheck.sh
 
 
opts=$@
 
 
getparam(){
arg=$1
echo $opts |xargs -n1 |cut -b 2- |awk -F'=' '{if($1=="'"$arg"'") print $2}'
}
 
 
IncStart=`getparam inc_start`
IncEnd=`getparam inc_end`
pg_connection=`getparam jdbc_str`
pg_username=`getparam db_user`
pg_password=`getparam db_psw`
dataName=`getparam db_sid`
queueName=`getparam hdp_queue`
hdfshostname=`getparam hdfs_host`
 
 
IncStartYear=`echo ${IncStart:0:4}`;
IncStartMonth=`echo ${IncStart:4:2}`;
IncStartDay=`echo ${IncStart:6:2}`;
IncStartAll=${IncStartYear}"-"${IncStartMonth}"-"${IncStartDay}" 00:00:00.0";
 
 
IncStartAllFormat=${IncStartYear}"-"${IncStartMonth}"-"${IncStartDay};
 
 
IncEndYear=`echo ${IncEnd:0:4}`;
IncEndMonth=`echo ${IncEnd:4:2}`;
IncEndDay=`echo ${IncEnd:6:2}`;
IncEndAll=${IncEndYear}"-"${IncEndMonth}"-"${IncEndDay}" 00:00:00.0";
 
 
twoDayAgo=`date -d "$IncStart 2 days ago  " +%Y%m%d  `;
twoDayAgoYear=`echo ${twoDayAgo:0:4}`;
twoDayAgoMonth=`echo ${twoDayAgo:4:2}`;
twoDayAgoDay=`echo ${twoDayAgo:6:2}`;
twoDayAgoAll=${twoDayAgoYear}"-"${twoDayAgoMonth}"-"${twoDayAgoDay}" 00:00:00.0";
twoDayAgoAllFormat=${twoDayAgoYear}"-"${twoDayAgoMonth}"-"${twoDayAgoDay};
 
 
job_name=$0
 
 
#需要导出的数据pg表名
export_table_name=n_par_life_hrm_org_excelude_camp;
 
 
#需要导出到pg的数据的临时文件名
sqoop_export_data_filename=${export_table_name};
 
 
#需要导出的数据pg列名
export_table_columns=statis_date,um_num,um_name,group_id,group_name,department_id,department_name,center_id,center_name
 
 
#需要导出到pg的数据的临时文件目录
sqoop_export_data_dir=/apps-data/hduser0101/an_pafc_safe/export/${sqoop_export_data_filename};
 
 
 
 
 
hadoop dfs -rmr ${sqoop_export_data_dir};
 
 
#创建用于导出到pg的临时数据
hive -v -e "set mapred.job.queue.name=${queueName}; 
set mapred.job.name=${job_name}_1;
use an_pafc_safe;
insert overwrite directory '${sqoop_export_data_dir}' 
select 
'${IncStartAllFormat}'  as  statis_date,
um_num,
um_name,
group_id,
group_name,
department_id,
department_name,
center_id,
center_name 
from sx_360_safe.n_par_life_hrm_org_excelude_camp ;";
exitCodeCheck $?
 
 
 
#先删除目的数据库的数据2天前数
sqoop eval -Dmapred.job.queue.name=${queueName} \
--connect ${pg_connection} \
--username ${pg_username} \
--password ${pg_password} \
--verbose \
--query  "delete from ${export_table_name} A where a.statis_date=date('${twoDayAgoAllFormat}')";
exitCodeCheck $?
 
 
#先删除目的数据库的数据,支持二次运行
sqoop eval -Dmapred.job.queue.name=${queueName} \
--connect ${pg_connection} \
--username ${pg_username} \
--password ${pg_password} \
--verbose \
--query  "delete from ${export_table_name} A where a.statis_date=date('${IncStartAllFormat}')";
exitCodeCheck $?
 
 
#再导出数据
sqoop export -D mapred.job.name=${job_name}_2 -D sqoop.export.statements.per.transaction=4500 -D mapreduce.map.tasks=1 -D mapred.map.max.attempts=1 -D mapred.reduce.max.attempts=1 -D mapreduce.map.maxattempts=1 -D mapreduce.reduce.maxattempts=1 -D mapred.job.queue.name=${queueName} \
--connect ${pg_connection} \
--username ${pg_username} \
--password ${pg_password} \
--export-dir ${sqoop_export_data_dir} \
--verbose \
--num-mappers 1 \
--table ${export_table_name} \
--columns ${export_table_columns} \
--input-fields-terminated-by '\001'  \
--input-lines-terminated-by '\n'  \
--input-null-string '\\N'  \
--input-null-non-string '\\N';
 
exitCodeCheck $?

sqoop脚本(Oracle到hive)

#!/bin/sh
source ExitCodeCheck.sh
 
opts=$@
 
getparam(){
arg=$1
echo $opts |xargs -n1 |cut -b 2- |awk -F'=' '{if($1=="'"$arg"'") print $2}'
}
 
IncStart=`getparam inc_start`
IncEnd=`getparam inc_end`
oracle_connection=`getparam jdbc_str`
oracle_username=`getparam db_user`
oracle_password=`getparam db_psw`
dataName=`getparam db_sid`
queueName=`getparam hdp_queue`
hdfshostname=`getparam hdfs_host`;
 
IncStartYear=`echo ${IncStart:0:4}`;
IncStartMonth=`echo ${IncStart:4:2}`;
IncStartDay=`echo ${IncStart:6:2}`;
IncStartAll=${IncStartYear}"-"${IncStartMonth}"-"${IncStartDay}" 00:00:00.0";
IncStartAllFormat=${IncStartYear}"-"${IncStartMonth}"-"${IncStartDay};
IncEndYear=`echo ${IncEnd:0:4}`;
IncEndMonth=`echo ${IncEnd:4:2}`;
IncEndDay=`echo ${IncEnd:6:2}`;
IncEndAll=${IncEndYear}"-"${IncEndMonth}"-"${IncEndDay}" 00:00:00.0";
IncEndAllFormat=${IncEndYear}"-"${IncEndMonth}"-"${IncEndDay};
 
OneDayAgo=`date -d "$IncStart 1 days ago  " +%Y%m%d  `;
OneDayAgoYear=`echo ${OneDayAgo:0:4}`;
OneDayAgoMonth=`echo ${OneDayAgo:4:2}`;
OneDayAgoDay=`echo ${OneDayAgo:6:2}`;
OneDayAgoAll=${OneDayAgoYear}"-"${OneDayAgoMonth}"-"${OneDayAgoDay}" 00:00:00.0";
OneDayAgoAllFormat=${OneDayAgoYear}"-"${OneDayAgoMonth}"-"${OneDayAgoDay};
 
#任务名取脚本名
job_name=$0
 
#任务名取脚本名
job_name=$0
 
#目标表名
hive_table=AGG_MOBILE_BUSSINESS_DEPT_ALL
 
#临时目录
target_dir=/apps-data/hduser0101/an_pafc_safe/import/${hive_table} 
 
#删除临时目录,支持二次运行
hadoop dfs -rmr ${target_dir} 
 
sqoop import -D mapred.job.queue.name=${queueName}   -D mapred.job.name=${job_name} \
--connect ${oracle_connection} \
--username ${oracle_username} \
--password ${oracle_password} \
--query "SELECT                                                    \
PARENT_CODE                                \
,DEPARTMENT_CODE                                \
,DEPARTMENT_NAME                                \
,DEPARTMENT_LEVEL                                \
,MEASURES_CODE                                \
,SUM_DATA_DAY                                \
,SUM_DATA_MONTH                                \
,SUM_DATA_YEAR                                \
,MONTH_COMPLE                                \
,YEAR_COMPLE                                \
,YEACC_COMPLE                                \
,MONTH_INC                                \
,YEAR_INC                                \
,DATA_LASTYEAR_D                                \
,DATA_LASTYEAR_M                                \
,DATA_LASTYEAR_Y                                \
,OPTION_ITEM                                \
,CREATED_BY                                \
,DATE_CREATED                                \
,UPDATED_BY                               \
,DATE_UPDATED                                \
,ORDER_NO                                      \
,DAY_INC                                       \
FROM   AGG_MOBILE_BUSSINESS_DEPT_ALL            \
WHERE  CANC_DATE = to_date('${IncStart}','yyyymmdd')         \
and     \$CONDITIONS   "                                           \
-m 1 \
--hive-table an_pafc_safe.${hive_table}   \
--hive-drop-import-delims                                        \
--fetch-size 5000                                                \
--hive-partition-key CANC_DATE                              \
--hive-partition-value ${IncStartAllFormat}               \
--target-dir "${target_dir}"   \
--hive-overwrite         \
--null-string '\\N'      \
--null-non-string '\\N'  \
--hive-import;
 
exitCodeCheck $?
 

导数执行的语句
1。测试取下来(jar包)

cd /tmp/hduser0101                 
hadoop fs -get /apps/hduser0101/an_pafc_safe/lib/spark2phoenix.jar 

2、开发put上去(jar包)

hadoop fs -put -f  /appcom/tmp/spark2phoenix.jar /apps/hduser0101/an_pafc_safe/lib/spark2phoenix.jar

3、进入hive,使用对应的数据集市:

use an_pafc_safe;                               //使用的数据库
set mapred.queue.names=root.queue_0101_01;      //使用队列
set mapreduce.job.queuename=root.queue_0101_01;

//spark执行SQL语句

spark-sql  --master yarn-client  --queue root.queue_0101_01

txt文件导入到hive表中的命令:

load data local inpath '/appcom/tmp/zeb/sx_ela_bp_info.txt' into table an_pafc_safe.sx_ela_bp_info;

txt文件导入到hive表中的命令:

load data local inpath '/appcom/tmp/zeb/sx_ela_bp_info.txt' into table an_pafc_safe.sx_ela_bp_info;

#执行第一个脚本所要传入的参数:

./hive_cgi_idld_lcdm_mit_client_group_info.sh -inc_start=20170701 -inc_end=20170801 -jdbc_str=jdbc:oracle:thin:@10.20.131.82:1526:srvp_d0mbi_paeye-mbi-life_1 -db_user=mbidata -db_psw=pa12ic34 -db_sid=LUSH0 -hdp_queue=root.queue_0101_01 -hdfs_host=hdfs://hdp-hdfs01

#第一个脚本存放的目录:

/apps/hduser0101/an_pafc_safe/hive_cgi

#第二个脚本以及之后的脚本的存放=目录:

/apps/hduser0101/sx_360_safe/spark_cgi

#sqoop脚本执行命令:

./sqoop_import_liferpt_agg_mobile_bussiness_dept_all.sh -inc_start=20170206 -inc_end=20170207 -jdbc_str=jdbc:oracle:thin:@d0lifrt.dbdev.paic.com.cn:1526:d0lifrt -db_user=LOLAPDATA -db_psw=patst2012 -db_sid=LUSH0 -hdp_queue=root.queue_0101_01 -hdfs_host=hdfs://hdp-hdfs01

#hive脚本执行命令:

./hive_mbi_epcis_life_plan.sh -hdp_queue=root.queue_0101_01 -hdfs_host=hdfs://hdp-hdfs01

————————————————
版权声明:本文为CSDN博主「Small-Apple」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/qq_36732988/article/details/78778756
以防走丢,若侵权请联系删除。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Sqoop是一个用于在Hadoop和关系型数据库之间进行数据传输的工具。它可以将数据从关系型数据库(如MySQL)导入到Hadoop生态系统中的HDFS(Hadoop分布式文件系统)或Hive中,也可以将数据从HDFS或Hive导出到关系型数据库。 要使用Sqoop将数据从MySQL导入到MySQL,你可以编写一个Sqoop脚本,其中包含Sqoop命令和相关参数。以下是一个示例脚本: ``` sqoop import \ --connect jdbc:mysql://source_mysql_host:port/source_database \ --username source_username \ --password source_password \ --table source_table \ --target-dir /path/to/hdfs/directory \ --fields-terminated-by ',' sqoop export \ --connect jdbc:mysql://target_mysql_host:port/target_database \ --username target_username \ --password target_password \ --table target_table \ --export-dir /path/to/hdfs/directory \ --input-fields-terminated-by ',' ``` 上述脚本中的`source_mysql_host`、`port`、`source_database`、`source_username`、`source_password`、`source_table`分别表示源MySQL数据库的主机名、端口、数据库名、用户名、密码和表名。同样,`target_mysql_host`、`port`、`target_database`、`target_username`、`target_password`、`target_table`表示目标MySQL数据库的相关信息。 在脚本中,首先使用`sqoop import`命令将数据从源MySQL数据库导入到HDFS中的指定目录。然后,使用`sqoop export`命令将数据从HDFS导出到目标MySQL数据库的指定表中。 请注意,你需要根据实际情况修改脚本中的参数和路径。另外,确保在运行Sqoop脚本之前,已经在Hadoop集群上安装和配置了Sqoop

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值