hdfs中有各种角色包含:
namenode , datanode,secondarynamenode,client
Client角色连接到namenode节点, 有两个条件,
(1),安装Hadoop程序;
(2),配置core-site.xml指定namenode的端口的地址 或者通过工具能够找到namenode
<property>
<name>fs.defaultFS</name>
<value>hdfs://node1:9000</value>
</property>
所以按了插件的eclipse就是模拟一个client端,需要指定windows上的hadoop客户端,然后指定远程的hadoop namenode节点
使用client连接HDFS共三种方式
1,使用Web客户端(浏览器)通过端口访问服务器,此模式就是传统的B/S架构
2,使用Linux命令行模式
(1)需要安装hadoop
(2)配置core-site.xml指定namenode的端口的地址
使用客户端命令如下:
hdfs dfs -ls / -----------展示出hdfs根目录
hdfs dfs -put 本地目录 hdfs目录 ---------从本地目录传输文件到hdfs上
3,eclipse中使用插件连接hdfs
(1)在D盘创建hadoop目录,解压hadoop-2.6.5.tar.gz到该目录下
(请忽略图中的lib和hadoop-2.6.5-sc目录)
(2)进入hadoop-2.6.5中把bin替换掉,因为解压后的bin是linux中的,没有办法在window中运行,下面是文件
链接:https://pan.baidu.com/s/18TC7Wnf742y984tPLBBpFA
提取码:data
(3)把替换后的bin中的hadoop.dll放到c盘下的windows/system32下,建立动态链接库
(4)配置hadoop的环境变量
创建HADOOP_HOME环境变量
在path中加入hadoop下的bin
创建默认的hadoop用户名字为root
(5)打开eclipse设置Hadoop客户端的路径
windows----preference
(6)添加mapreducelocation
选择map/reduce视图
添加hadoop的loctation
指定hdfs的远程路径,这个地址在namenode的coref-site.xml中指定
<property>
<name>fs.defaultFS</name>
<value>hdfs://node1:9000</value>
</property>
192.168.56.128为远程hdfs的地址
9000为namenode上配置的端口
(7)最后找到javaEE下的DFSLocations下的可以查看到hdfs上的东西