自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 收藏
  • 关注

原创 搭建hive on spark持续报错解决办法

在配置hive on spark时,暂时不适用beeline启动,所以先不配置这几个参数。在配置hive-site.xml时,配置了元数据服务方式以及JDBC方式访问Hive。

2024-05-24 11:09:41 160 1

原创 在启动beeline是报错WARN jdbc.HiveConnection: Failed to connect to hadoop102:10000Could not open connectio

我的原因是配置的hive-site.xml文件并没有在hadoop中生效-- 原因是hive依赖hadoop,但是hadoop的环境变量却没有读到hive-site.xml。在 etc/profile.d/my_env.sh。其中$HIVE_HOME是你已经配置好的环境变量。再次启动beeline 问题解决。即环境变量的配置中加入。

2024-04-14 17:51:25 307 1

原创 hadoop启动namenode时报错INFO org.apache.hadoop.util.ExitUtil: Exiting with status 1: java.lang.IllegalArg

属性并将其值设置为相同的 NameNode 地址也是一个好主意,以确保配置的兼容性和一致性。在core-site.xml的configuration下添加如下代码。属性,并确保它的值正确指向您的 NameNode。属性,并且删除该属性导致节点无法启动,那么最好保留。属性是默认用于指定默认文件系统的属性,而。在对core-site.xml检查后发现。在 Hadoop 3.1.3 中,但我的Hadoop 集群依赖于。属性来指定默认文件系统。值正确,但仍无法启动.

2024-04-04 17:00:20 646 1

原创 hadoop设置SSH免密登录时,三台虚拟机啊hadoop102和hadoop104都能实现免密登录,但hadoop103不可以的解决办法.

第一个是确保你的 SSH 公钥已经正确添加到hadoop103的文件中。你可以登录到hadoop103上,手动检查文件,确保你的公钥已经添加到文件中。第二个就是权限设置不正确.

2024-04-03 23:07:11 234 1

原创 进行src传输时,报错ssh: Could not resolve hostname hadoop103: Name or service not known lost connection

说明hosts里没有相关的ip地址映射。通过上述代码把 映射地址写上去。

2024-04-02 10:53:22 531 1

原创 虚拟机克隆机无法连接Xshell的解决办法

遇见问题:在对模板机进行克隆后,无法解决其克隆机连接Xshell 的问题.

2024-04-01 11:28:06 472

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除