关于sparksql无法对hive表查询或插入的问题

在腾讯云环境下,使用SparkSQL操作Hive表遇到连接拒绝问题,原因是Hive元数据库中记录的地址为内网地址。通过修改`core-site.xml`的`fs.defaultFS`端口配置无效。解决方案是更新`hive-site.xml`配置,确保Hive库的位置指向公网IP,从而解决查询和插入数据的超时问题。
摘要由CSDN通过智能技术生成

本人用的是腾讯云,安装hadoop时候,fs.defaultFS只能写内网地址,要不然无法启动。问题就来了,在用Idea开发sparksql操作hive表的时候,发现查询hive表或者插入数据报连接拒绝的问题

如图就是本地访问namenode节点超时问题,问题是代码中明明写的是公网ip对应的hostname

config("spark.sql.warehouse.dir", "hdfs://124.223.xx.xx:8020/user/hive/warehouse")

然后我花了两天时间一直在改hadoop配置问题,觉得是hadoop的defaultFs造成的问题,结果徒劳无功,然后偶然发现了这篇文章

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值