Spark-sql 连接hive中遇到的问题

在使用Spark-SQL连接Hive时,遇到无法执行除`show tables`之外的操作。问题根源在于metadata服务未启动,启动metadata服务后,依然因找不到ns1而报错。解决方法是确保配置了hadoop的相关服务,特别是hdfs-site.xml,并通过指定classpath来避免使用Spark自带的Hadoop包。此外,还解决了HDFS操作权限问题,通过修改目录权限以确保程序正常运行。
摘要由CSDN通过智能技术生成

在使用spark-sql的时候发现,可以连接上hive并可以使用show tables的语句查询到表,但是后来尝试发现没法做其他更多的操作,

通过log信息发现,是metadata无法连接的问题,联想到前天在配置spark连接hive的时候见过一个启动metadata的命令

./hive --service metadata & 于是猜想是因为没有把这个服务给启动,于是spark-sql虽然可以通过配置文件找到metadata的目录但是并没法读取到真正

metadata的文件所以没法操作。  

后再启动metadata服务后,任然报背的错误,即ns1找不到,想到在配置的时候会寻找hadoop的相关服务,因为这些对hive的操作会在hdfs上进行

操作,所以需要hdfs-site.xml,靠背过去后运行无误。

在这种可以更直接的指定classpath的方式来制定hadoop运行的目录,而不用使用spark自带的hadoop的包



在写spark连接hive的程序是,

.config("hive.metastore.uris"<
  • 2
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值