hive报错 java.lang.NoClassDefFoundError: org/apache/hadoop/hive/conf/HiveConf

启动Hive时报错如下:

wamdm@WAMDM5:~/hive/build/dist/bin$ ./hive

Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/hadoop/hive/conf/HiveConf

        at java.lang.Class.forName0(Native Method)

        at java.lang.Class.forName(Class.java:247)

        at org.apache.hadoop.util.RunJar.main(RunJar.java:149)

Caused by: java.lang.ClassNotFoundException: org.apache.hadoop.hive.conf.HiveConf

        at java.net.URLClassLoader$1.run(URLClassLoader.java:200)

        at java.security.AccessController.doPrivileged(Native Method)

        at java.net.URLClassLoader.findClass(URLClassLoader.java:188)

        at java.lang.ClassLoader.loadClass(ClassLoader.java:307)

        at java.lang.ClassLoader.loadClass(ClassLoader.java:252)

        at java.lang.ClassLoader.loadClassInternal(ClassLoader.java:320)

解决方法:

export HBASE_HOME=/data/hbase  
export HADOOP_CLASSPATH=$HBASE_HOME/lib/

hadoop-env.sh里面被增加了HADOOP_CLASSPATH的设置,如下:

export HADOOP_CLASSPATH=$HBASE_HOME/lib/

将其修改为:

export HBASE_HOME=/data/hbase  
export HADOOP_CLASSPATH=$HADOOP_CLASSPATH:$HBASE_HOME/lib/

所以增加CLASSPATH时要记得把原来的也加上,而不是覆盖,否则会造成找不到路径。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
引用\[1\]:在你提供的引用中,出现了一个Java错误,即"java.lang.NoClassDefFoundError",这个错误通常是在编译过程中没有问题,但在运行过程中发现缺少类或者有重复类导致的。\[2\]根据错误提示中的关键点"org/apache/hadoop/conf/Configuration",我们可以看到缺少了这个类。解决这个问题的方法是修改pom.xml文件中的Spark依赖项的作用域(scope),将其从"provided"改为"compile"。\[3\]这样做可以确保在运行时能够正确加载所需的类。 #### 引用[.reference_title] - *1* *3* [spark 遇到NoClassDefFoundError解决方法: Apache Spark error on start: java.lang.NoClassDefFoundError:...](https://blog.csdn.net/a391000181/article/details/102221192)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [问题解决:java运行HiveQL,报错java.lang.NoClassDefFoundError: org/apache/hadoop/conf/Configuration](https://blog.csdn.net/u013084266/article/details/106805574)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值