本人用的是腾讯云,安装hadoop时候,fs.defaultFS只能写内网地址,要不然无法启动。问题就来了,在用Idea开发sparksql操作hive表的时候,发现查询hive表或者插入数据报连接拒绝的问题
如图就是本地访问namenode节点超时问题,问题是代码中明明写的是公网ip对应的hostname
config("spark.sql.warehouse.dir", "hdfs://124.223.xx.xx:8020/user/hive/warehouse")
然后我花了两天时间一直在改hadoop配置问题,觉得是hadoop的defaultFs造成的问题,结果徒劳无功,然后偶然发现了这篇文章