sqoop hive to mysql_使用Sqoop将Hive结果迁移至Mysql(四)

package com.yc.elm.utils;

import org.apache.sqoop.client.SqoopClient;

import org.apache.sqoop.model.MDriverConfig;

import org.apache.sqoop.model.MFromConfig;

import org.apache.sqoop.model.MJob;

import org.apache.sqoop.model.MLink;

import org.apache.sqoop.model.MLinkConfig;

import org.apache.sqoop.model.MToConfig;

import org.apache.sqoop.validation.Status;

public class DataToMysql {

public static SqoopClient client = new SqoopClient("http://master:12000/sqoop/");

public static void main(String[] args) {

System.setProperty("user.name", "hadoop");

createJDBC();

createHDFS();

doHdfs2Mysql();

}

public static MJob doHdfs2Mysql() {

MJob job = client.createJob("elmHdfs", "elmJdbc"); // 创建一个作业对象

job.setName("elmJob");

job.setCreationUser("hadoop");

MFromConfig from = job.getFromJobConfig(); // 获取到这个来源连接配置对象

from.getStringInput("fromJobConfig.inputDirectory").setValue("/elm/rating");

MToConfig to = job.getToJobConfig(); // 获取到这个目的地的连接对象

to.getStringInput("toJobConfig.schemaName").setValue("hive");

to.getStringInput("toJobConfig.tableName").setValue("elm_rating"); // mysql中的表名

MDriverConfig driverConfig = job.getDriverConfig(); // 获取到数据迁移处理驱动对象

driverConfig.getIntegerInput("throttlingConfig.numExtractors").setValue(3);

driverConfig.getIntegerInput("throttlingConfig.numLoaders").setValue(1);

Status status = client.saveJob(job);

if (status.canProceed()) {

return job;

} else {

throw new RuntimeException("创建 hdfs to hdfs 工作失败!!!");

}

}

public static MLink createJDBC() {

MLink mLink = client.createLink("generic-jdbc-connector");// 创建一个sqoop对象

mLink.setName("elmJdbc"); // 给连接指定一个名称

mLink.setCreationUser("hadoop");

MLinkConfig linkConfig = mLink.getConnectorLinkConfig();

linkConfig.getStringInput("linkConfig.jdbcDriver").setValue("com.mysql.jdbc.Driver");

linkConfig.getStringInput("linkConfig.connectionString")

.setValue("jdbc:mysql://master:3306/hive?useSSL=false&useUnicode=true&characterEncoding=utf-8");

linkConfig.getStringInput("linkConfig.username").setValue("hive");

linkConfig.getStringInput("linkConfig.password").setValue("a");

linkConfig.getStringInput("dialect.identifierEnclose").setValue(" ");

Status status = client.saveLink(mLink);

if (status.canProceed()) {

return mLink;

} else {

throw new RuntimeException("创建jdbc连接失败!!!");

}

}

public static MLink createHDFS() {

MLink mLink = client.createLink("hdfs-connector");

mLink.setName("elmHdfs"); // 给连接制定一个名称

MLinkConfig linkConfig = mLink.getConnectorLinkConfig();

linkConfig.getStringInput("linkConfig.uri").setValue("hdfs://master:9000");

Status status = client.saveLink(mLink);

if (status.canProceed()) {

return mLink;

} else {

throw new RuntimeException("创建hdfs连接失败!!!");

}

}

}

2. 在mysql中创建表

create table elm_rating ( id int, name varchar(50), rating double)

3. Sqoop中启动job

在启动作业之前最好开启日志(主机从机都要开启)

mr-jobhistory-daemon.sh start historyserver

在sqoop中跟踪进程

set option -n verbose -v true

启动作业

start job -n jobname -s

4.mysql中查看结果

0818b9ca8b590ca3270a3433284dd417.png

5. 问题总结

a. ssl报错

0818b9ca8b590ca3270a3433284dd417.png

解决办法:在创建jdbc连接时带上参数 useSSL=false

b. Hive中中文正常,迁移到mysql出乱码

解决办法:

在创建jdbc连接时带上参数 useUnicode=true&characterEncoding=utf-8 。

还没解决的话,检查mysql编码集,删除表,重新创建表时带上编码集。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值