hive server2源码地址在哪_0510Spark应用访问Hive报错异常分析

温馨提示:如果使用电脑查看图片不清晰,可以使用手机打开文章单击文中的图片放大查看高清原图。

Fayson的github:

https://github.com/fayson/cdhproject

提示:代码块部分可以左右滑动查看噢

1

故障描述

  • 运行环境说明

1.RedHat7.2

2.CM和CDH版本为5.15.0

3.Spark1.6

  • 问题现象

在代码中使用HiveContext对象访问Hive表ods_user(该表为Parquet格式)时发现作业报错,异常如下:

in thread 

2edb51b04dced801005df3f954cfcb33.png

2

问题诊断分析

报找不到cdh01.fayson.com主机,Fayson在之前对集群做过几次变更:

  • 集群启用HA前,SparkStreaming作业使用saveAsTable在Hive中保存了ods_user表,可以正常查询及写入数据。

  • 集群启用HA并更新NameNode URL后,Hive和Spark作业依然能够访问ods_user表。

  • 修改集群的hostname,将cdh01.fayson.com主机名修改为cdh1.fayson.com后,Spark作业访问ods_user表失败。

1.检查Spark和Hive的配置文件,在配置文件中均为发现cdh01.fayson.com记录

f55f65b469350284301c129ea60caf17.png

经过检查集群中Spark和Hive的配置文件,未发现有cdh01.fayson.com的配置信息,排除配置文件导致的问题。

2.检查Spark作业的运行环境,也未发现相应的配置信息

d7532fc9d7fa5861e02bd26e918ecc4a.png

在Spark作业的运行环境中也未找到cdh01.fayson.com相关的配置信息,继续分析。

3.在作业日志中可以看到,Spark访问HiveMetastore服务是成功的

73c75e5e0d1905f1265fa66ff4c3aa01.png

既然可以正常的访问HiveMetastore服务,那再次证明Hive和Spark配置是没有问题的。

4.既然能够正常的访问HiveMetastore服务,Spark服务直接通过访问HiveMetastore服务获取ods_user的元数据信息,推测可能是ods_user表元数据存在问题,查看ods_user表建表语句确认

5bceb5daf7a0e8113c564ddc39adf3d6.png

检查ods_user的建表语句发现,存在配置信息为cdh01.fayson.com的信息,由此推断可能是由于ods_user表中该属性导致。

3

问题解决

Fayson很清晰的记得在SparkStreaming作业中创建的ods_user表,,并未在建表语句中指定Spark SQL相关的配置参数。通过Spark官网资料找到相关信息(

http://spark.apache.org/docs/1.6.0/sql-programming-guide.html#hive-metastore-parquet-table-conversion

),Spark在读取和写入Hive Metastore Parquet表时,会尝试使用自己的Parquet支持而不是使用Hive SerDe,从而获取更好的性能。此行为由spark.sql.hive.convertMetastoreParquet参数控制(默认为true)。那如果修改了Hive表的属性或其它外部变更(如:修改NameNode节点hostname,NameNode节点迁移等)均会导致Spark缓存的配置失效,因此这时需要手动的刷新表,以确保元数据信息一致。

1.修改ods_user表中SERDEPROPERTIES中的path属性为NameNode启用HA后的地址,命令如下;

ALTER 

5ade4a4e488944331d19dd0eeb804988.png

可以看到path已修改为最新的HDFS访问地址

80ef8e58975fd028aa43f22b5b66c851.png

2.再次验证可以正常的访问ods_user表的数据

1167624877d6595a9d5a709b45f7e6c1.png

4

总结

1.Spark在读取和写入Hive Metastore Parquet表时,会尝试使用自己的Parquet支持而不是使用Hive SerDe,从而获取更好的性能。所以在将spark数据写入一个不存在的hive表时会在建表语句中增加spark的一些属性配置。

2.特别要注意集群在未启用HA时使用Spark生成的Hive表,在集群启用HA后可能会到Spark无法访问该表,需要修改SERDEPROPERTIES中path属性。

3.如果只是通过hive或者其他外部方式修改了Hive表的元数据信息,可以通过如下方式刷新Spark缓存的表元数据

new org.apache.spark.sql.hive.HiveContext(sc)

提示:代码块部分可以左右滑动查看噢

为天地立心,为生民立命,为往圣继绝学,为万世开太平。

温馨提示:如果使用电脑查看图片不清晰,可以使用手机打开文章单击文中的图片放大查看高清原图。

推荐关注Hadoop实操,第一时间,分享更多Hadoop干货,欢迎转发和分享。

e415f54b5827f8043aff760b9360e708.gif

原创文章,欢迎转载,转载请注明:转载自微信公众号Hadoop实操

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值