第一个是xshell连接不上虚拟机的问题,用hadoop102连接不上,但是使用192.168.10.102却可以连上的原因,
需要将Linux系统下的,etc/hosts 的前两行注释掉,不然后面配置了也读取不到,导致连接不上虚拟机
千万不要尝试再次复制虚拟机,从头来,这样没有解决根源问题
并且这样还可以解决在后续配置历史服务器无法跳转,web界面无法下载的问题
[lishuang@hadoop104 /]$ cat etc/hosts
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.10.100 hadoop100
192.168.10.101 hadoop101
192.168.10.102 hadoop102
192.168.10.103 hadoop103
192.168.10.104 hadoop104
192.168.10.105 hadoop105
192.168.10.106 hadoop106
192.168.10.107 hadoop107
192.168.10.108 hadoop108
第二个是运行wordcount失败的问题,这个需要自己去找百度上的方法,查看报错的类型
主要有两种,第一种是内存分配的问题,自己查,报错为code 143
如果遇到的是exitcode143,请参考下面这个博客。出问题原因可能是由于电脑内存8g所以单个服务器只给了2g内存导致的
在yarn-site.xml配置这个
<property>
<name>yarn.nodemanager.resource.memory
含泪写下hadoop环境在配置时,可能出现的错误——尚硅谷大数据hadoop入门阶段可能面对的错误2021.12.5-12.19
最新推荐文章于 2022-08-16 17:08:08 发布