Spark Hive使用中遇到的坑

当前使用的spark版本是1.0.2,spark-assenbly已经包含了hive,可以直接使用。

Spark hive通过把hive-site.xml加载到classpath中的方式来读取hive连接元数据,我这里通过java代码动态的把hive-site.xml加载到classpath里

String hiveConfDir = System.getenv( "HIVE_CONF_DIR" );
File hivePath = new File( hiveConfDir );
URLClassLoader classLoader = (URLClassLoader) ClassLoader.getSystemClassLoader();
Method add = URLClassLoader.class.getDeclaredMethod( "addURL", new Class[]{URL.class} );
add.setAccessible( true );
add.invoke( classLoader, hivePath.toURI().toURL() );

然后把spark-assenbly上传到hdfs上,通过sparkSubmit.main提交代码,local模式下运行正常,但是提交到yarn-clusters上执行的时候,

Caused by: org.datanucleus.exceptions.NucleusUserException: Persistence process has been specified to use a ClassLoaderResolver of name "datanucleus" yet this has not been found by the DataNucleus plugin mechanism. Please check your CLASSPATH and plugin specification.
	at org.datanucleus.NucleusContext.<init>(NucleusContext.java:280)
	at org.datanucleus.NucleusContext.<init>(NucleusContext.java:244)
	at org.datanucleus.NucleusContext.<init>(NucleusContext.java:222)
	at org.datanucleus.api.jdo.JDOPersistenceManagerFactory.<init>(JDOPersistenceManagerFactory.java:409)
	at org.datanucleus.api.jdo.JDOPersistenceManagerFactory.createPersistenceManagerFactory(JDOPersistenceManagerFactory.java:294)
	at org.datanucleus.api.jdo.JDOPersistenceManagerFactory.getPersistenceManagerFactory(JDOPersistenceManagerFactory.java:195)

仔细check了代码之后,感觉是datanucleus jar包加载的问题,把assenbly解开,发现里面有datanucleus-rdbms-3.2.1.jar,datanucleus-core-3.2.2.jar,datanucleus-api-jdo-3.2.1.jar 3个jar包,把这3个jar单独拿出来,放到classpath里面,用--jars作为本地jar重新提交代码,作业成功。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值