《HDFS 3》--IDE集成HDFS的搭建、客户端访问HDFS或读写数据的两种方式

【IDE集成HDFS的搭建】

   (1) IDE作为可视化客户端连接HDFS
        第一步:安装插件
               将hadoop-eclipse-plugin-2.7.3.jar放入eclipse的plugins目录下
        第二步:在窗口 map/reduce location下新建连接
            location name:就是昵称,随便填写。192.168.80.220
            Map/reduce master:
            host: HDFS的namenode所在的主机IP地址/主机名
            port:  HDFS的namenode的port+1
            DFS master:
            host: HDFS的namenode所在的主机IP地址/主机名
            port:  HDFS的namenode的port
            User name:使用集群的名称

  权限问题:
        在eclipse上不管是操作可视化界面还是api,都会碰到权限问题,
  原因:
        window系统的用户 与HDFS的用户 不是同一个。
        
  解决办法:
          1)将windows的用户改为与HDFS的用户名一致。
          2)修改HDFS的根目录及子目录的权限为777/757


   (2)使用java API接口操作HDFS    
     【API开发的运行环境配置】
           1)在Windows下解压Hadoop-2.7.3.tar.gz
           2)配置hadoop
                  在windows->preferences->Hadoop map/reduce里面,
          配置hadoop的安装路径(根目录)
           3)配置环境变量
                  HADOOP_HOME:  D:\hadoop-2.7.3\hadoop-2.7.3
              PATH:%HADOOP_HOME%\bin;%HADOOP_HOME%\sbin
           【注】新建项目myhadoop01后,需要使用hadoop的jar包及其依赖包,
                 因此在做开发时,需要导入Hadoop的jar包
     
            在写代码时,会出现Log4J警告:
                解决办法:将hadoop-2.7.3\etc\hadoop\
                      下的log4j.properties文件复制到src下
     
         如果出现异常:Could not locate executable %HADOOP_HOME%\bin\winutils.exe in the Hadoop binaries.
             解决办法:把winutils和hadoop.dll 复制到%HADOOP_HOME%\bin\里面
==========================================================================
==========================================================================
    


【API】

1)使用java.net.URL来访问HDFS
  static {
    URL.setURLStreamHandlerFactor

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值