问题解决:java运行HiveQL,报错:java(1)

at org.apache.hive.jdbc.HiveConnection.<init>(HiveConnection.java:163)
at org.apache.hive.jdbc.HiveDriver.connect(HiveDriver.java:105)
at java.sql.DriverManager.getConnection(DriverManager.java:664)
at java.sql.DriverManager.getConnection(DriverManager.java:247)
。。。
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142)
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617)
at java.lang.Thread.run(Thread.java:745)

Caused by: java.lang.ClassNotFoundException: org.apache.hadoop.conf.Configuration
at java.net.URLClassLoader.findClass(URLClassLoader.java:381)
at java.lang.ClassLoader.loadClass(ClassLoader.java:424)
at org.springframework.boot.loader.LaunchedURLClassLoader.loadClass(LaunchedURLClassLoader.java:93)
at java.lang.ClassLoader.loadClass(ClassLoader.java:357)
… 11 common frames omitted


## 问题环境




| 软件 | 版本 |
| --- | --- |
| JDK | 1.8 |
| Hive | 1.1.0 |
| hive-jdbc | 1.1.0 |
| Hadoop | 2.6.5 |


## 问题原因


问题提示关键点在于:`java.lang.NoClassDefFoundError: org/apache/hadoop/conf/Configuration`。而`NoClassDefFoundError`错误的出现,**主要是在编译过程中,没有出现问题;在运行过程中,发现缺失类或者有重复类就会导致这个报错。**  
 ![在这里插入图片描述](https://img-blog.csdnimg.cn/20200617233020257.png#pic_center)  
 我们首先在全局搜索这个类:`org.apache.hadoop.conf.Configuration`,因为我这里是`idea`,所以是直接双击`shift`键,然后输入对应的类路径,结果如下:  
 ![在这里插入图片描述](https://img-blog.csdnimg.cn/20200617135815975.png#pic_center)  
 很显然,我们本地是没有`org.apache.hadoop.conf.Configuration`这个类的。  
 ![在这里插入图片描述](https://img-blog.csdnimg.cn/20200617233039391.png#pic_center)


## 解决方案


![在这里插入图片描述](https://img-blog.csdnimg.cn/20200617233059235.png#pic_center)  
 既然是类缺失,那么就引入对应的jar包即可。如果大家是使用idea+maven进行开发的话,可以到pom.xml文件,点击`alt+insert`快捷键,选择第一个`Dependency`,如下图:  
 ![在这里插入图片描述](https://img-blog.csdnimg.cn/20200617140820218.png#pic_center)  
 在`Search for class`点击输入`org.apache.hadoop.conf.Configuration`,结果如下:  
 ![在这里插入图片描述](https://img-blog.csdnimg.cn/2020061714065688.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3UwMTMwODQyNjY=,size_16,color_FFFFFF,t_70#pic_center)  
 这里,我们需要根据现网的Hadoop版本,选择对应的依赖包。因为博主这边的环境是`Hadoop 2.6.5`,所以这里的`hadoop-common`选择为`2.6.5`版本。


## 结果


引入依赖之后,重跑没有报错,顺利执行完毕!!!  
 ![在这里插入图片描述](https://img-blog.csdnimg.cn/20200617233156749.png#pic_center)


## 总结


在解决问题的过程中,阐述说明问题发生的原因,并给出解决方案。在学习的过程中中,可以学到很多知识点。即使知识点比较少,但是积少成多,技术就会慢慢精进!!!  
 ![在这里插入图片描述](https://img-blog.csdnimg.cn/20200617233351536.png#pic_center)


## 随缘求赞




![img](https://img-blog.csdnimg.cn/img_convert/e82ab208430479eef7c328c3d606d770.png)
![img](https://img-blog.csdnimg.cn/img_convert/355ff4e39bd27c8e0c1edc7427c9db42.png)
![img](https://img-blog.csdnimg.cn/img_convert/837043b8ee77c066105bf0fa1dcb71c9.png)

**既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!**

**由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新**

**[需要这份系统化资料的朋友,可以戳这里获取](https://bbs.csdn.net/topics/618545628)**

后续会持续更新**

**[需要这份系统化资料的朋友,可以戳这里获取](https://bbs.csdn.net/topics/618545628)**

  • 3
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值