sqoop出现java.lang.ClassNotFoundException: Class Job_fill not found解决办法

根据网上教程的安装和将MySQL的数据导入到hive里面一直出现说java.lang.ClassNotFoundException: Class Job_fill not found

我的导入语句开始是这样的:

bin/sqoop import \
--connect jdbc:mysql://namenode:3306/test \
--username root \
--password 远程连接密码 \
--table Job_fill \
--num-mappers 1 \
--hive-import \
--hive-overwrite \
--fields-terminated-by ','  \
--hive-database test \
--hive-table 'Job_fill'  

但上面的语句在sqoop执行一直会报

java.lang.Exception: java.lang.RuntimeException: java.lang.ClassNotFoundException: Class Job_fill not found
        at org.apache.hadoop.mapred.LocalJobRunner$Job.runTasks(LocalJobRunner.java:492)
        at org.apache.hadoop.mapred.LocalJobRunner$Job.run(LocalJobRunner.java:552)
Caused by: java.lang.RuntimeException: java.lang.ClassNotFoundException: Class Job_fill not found
        at org.apache.hadoop.conf.Configuration.getClass(Configuration.java:2638)
        at org.apache.sqoop.mapreduce.db.DBConfiguration.getInputClass(DBConfiguration.java:403)
        at org.apache.sqoop.mapreduce.db.DataDrivenDBInputFormat.createDBRecordReader(DataDrivenDBInputFormat.java:237)
        at org.apache.sqoop.mapreduce.db.DBInputFormat.createRecordReader(DBInputFormat.java:263)
        at org.apache.hadoop.mapred.MapTask$NewTrackingRecordReader.<init>(MapTask.java:527)
        at org.apache.hadoop.mapred.MapTask.runNewMapper(MapTask.java:770)
        at org.apache.hadoop.mapred.MapTask.run(MapTask.java:347)
        at org.apache.hadoop.mapred.LocalJobRunner$Job$MapTaskRunnable.run(LocalJobRunner.java:271)
        at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:511)
        at java.util.concurrent.FutureTask.run(FutureTask.java:266)
        at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149)
        at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624)
        at java.lang.Thread.run(Thread.java:748)
Caused by: java.lang.ClassNotFoundException: Class Job_fill not found
        at org.apache.hadoop.conf.Configuration.getClassByName(Configuration.java:2542)
        at org.apache.hadoop.conf.Configuration.getClass(Configuration.java:2636)
        ... 12 more

后面我找到解决办法是将机器名改成我们安装sqoop的机器的IP地址,这样就可以很好的解决这个问题,我认为出现这个问题原因是sqoop可以读取mysql文件也能保存到hdfs上作为临时文件,但连接hive可能会有问题,hive不能直接识别机器名称,要用机器的IP地址才能精确的识别到,当然这个也是我的猜测,改的语句如下:

bin/sqoop import \
--connect jdbc:mysql://192.168.**.***:3306/test \
--username root \
--password 自己MySQL远程连接密码\
--table Job_fill \
--num-mappers 1 \
--hive-import \
--hive-overwrite \
--fields-terminated-by ','  \
--hive-database test \
--hive-table 'Job_fill'  
如果你出现以上问题用我这个方法还不能解决可以留言看看是什么问题

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值