at org.apache.hive.jdbc.HiveConnection.<init>(HiveConnection.java:163)
at org.apache.hive.jdbc.HiveDriver.connect(HiveDriver.java:105)
at java.sql.DriverManager.getConnection(DriverManager.java:664)
at java.sql.DriverManager.getConnection(DriverManager.java:247)
。。。
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142)
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617)
at java.lang.Thread.run(Thread.java:745)
Caused by: java.lang.ClassNotFoundException: org.apache.hadoop.conf.Configuration
at java.net.URLClassLoader.findClass(URLClassLoader.java:381)
at java.lang.ClassLoader.loadClass(ClassLoader.java:424)
at org.springframework.boot.loader.LaunchedURLClassLoader.loadClass(LaunchedURLClassLoader.java:93)
at java.lang.ClassLoader.loadClass(ClassLoader.java:357)
… 11 common frames omitted
## 问题环境
| 软件 | 版本 |
| --- | --- |
| JDK | 1.8 |
| Hive | 1.1.0 |
| hive-jdbc | 1.1.0 |
| Hadoop | 2.6.5 |
## 问题原因
问题提示关键点在于:`java.lang.NoClassDefFoundError: org/apache/hadoop/conf/Configuration`。而`NoClassDefFoundError`错误的出现,**主要是在编译过程中,没有出现问题;在运行过程中,发现缺失类或者有重复类就会导致这个报错。**
![在这里插入图片描述](https://img-blog.csdnimg.cn/20200617233020257.png#pic_center)
我们首先在全局搜索这个类:`org.apache.hadoop.conf.Configuration`,因为我这里是`idea`,所以是直接双击`shift`键,然后输入对应的类路径,结果如下:
![在这里插入图片描述](https://img-blog.csdnimg.cn/20200617135815975.png#pic_center)
很显然,我们本地是没有`org.apache.hadoop.conf.Configuration`这个类的。
![在这里插入图片描述](https://img-blog.csdnimg.cn/20200617233039391.png#pic_center)
## 解决方案
![在这里插入图片描述](https://img-blog.csdnimg.cn/20200617233059235.png#pic_center)
既然是类缺失,那么就引入对应的jar包即可。如果大家是使用idea+maven进行开发的话,可以到pom.xml文件,点击`alt+insert`快捷键,选择第一个`Dependency`,如下图:
![在这里插入图片描述](https://img-blog.csdnimg.cn/20200617140820218.png#pic_center)
在`Search for class`点击输入`org.apache.hadoop.conf.Configuration`,结果如下:
![在这里插入图片描述](https://img-blog.csdnimg.cn/2020061714065688.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3UwMTMwODQyNjY=,size_16,color_FFFFFF,t_70#pic_center)
这里,我们需要根据现网的Hadoop版本,选择对应的依赖包。因为博主这边的环境是`Hadoop 2.6.5`,所以这里的`hadoop-common`选择为`2.6.5`版本。
## 结果
引入依赖之后,重跑没有报错,顺利执行完毕!!!
![在这里插入图片描述](https://img-blog.csdnimg.cn/20200617233156749.png#pic_center)
## 总结
在解决问题的过程中,阐述说明问题发生的原因,并给出解决方案。在学习的过程中中,可以学到很多知识点。即使知识点比较少,但是积少成多,技术就会慢慢精进!!!
![在这里插入图片描述](https://img-blog.csdnimg.cn/20200617233351536.png#pic_center)
## 随缘求赞
![img](https://img-blog.csdnimg.cn/img_convert/e82ab208430479eef7c328c3d606d770.png)
![img](https://img-blog.csdnimg.cn/img_convert/355ff4e39bd27c8e0c1edc7427c9db42.png)
![img](https://img-blog.csdnimg.cn/img_convert/837043b8ee77c066105bf0fa1dcb71c9.png)
**既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!**
**由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新**
**[需要这份系统化资料的朋友,可以戳这里获取](https://bbs.csdn.net/topics/618545628)**
后续会持续更新**
**[需要这份系统化资料的朋友,可以戳这里获取](https://bbs.csdn.net/topics/618545628)**