前提环境:在Windows环境中的Eclipse连接Linux中的Hadoop
1.查看文件
双击当前的文件的时候当前的eclipse很卡,不能动,最后报错:不能打开文件解决办法:借鉴其中的权限的问题
2.关闭Hadoop的安全模式
hadoop dfsadmin -safemode leave
3.发现当前的用户的名称不是location的用户名称
修改当前文件的权限,就可以让当前电脑的账户使用
hadoop fs -chomd 777 /input
hadoop fs -chomd 777 /input/file*.txt
4.发现当前的上传的文件竟然只有0kb
经过查看原来是没有开启datanode端口,所以不能访问:参考:上传文件没有内容
开启datanode端口50010访问权限
//开放50010端口
firewall-cmd --zone=public --add-port=50010/tcp --permanent
//重启防火墙
systemctl restart firewalld.service
//重载配置文件
firewall-cmd --reload
5.再次查看
双击查看文本内容(有数据了):
6.上传文件并查看
这里也有内容不再是0kB
7.下载文件
8.总结
1.当当前的权限控制
还有文件的权限配置
以及当前的端口配置
完毕后,就会发现当前的eclipse再也不卡了,就是秒级速度很快!(出现了卡顿就是这些端口权限的问题)
2.当前的Linux中存在权限操作问题一定要注意当前的权限
(直接修改为777),不然当前的计算机用户无法访问
3.一定要注意开放端口的问题,没有datanode端口的开放
,就只能上传空文件,一直访问失败的结果
4.hdfs权限校验一定要关闭
,由于是windows用户
的操作,默认使用当前windows的用户去访问
,会造成没有权限
以上就是本人使用eclipe操作Linux中Hadoop中的文件所出现的坑,踩过这些坑就好了!