Hadoop上路_06-在Ubuntu中使用eclipse操作HDFS

1.解压eclipse

         eclipse-SDK-4.2-linux-gtk.tar.gz
        (1)解压程序文件:

?
1
hm@hm-ubuntu: /usr $ sudo tar eclipse. tar .gz

          

           

        (2)在Ubuntu桌面点鼠标右键,创建启动器:   

             

        (3)在“命令”选择eclipse执行文件:

          

          

2.安装hadoop开发插件: 

        hadoop-eclipse-plugin-*.jar插件须符合此eclipse版本。    

        (1)手动制作hadoop-eclipse-plugin插件  

                见《Hadoop上路_01-手动制作hadoop-eclipse-plugin插件》 

        (2)把插件放入%eclipse%/dropins/hadoop/plugins目录  

                首先在%eclipse%/dropins/中创建hadoop/plugins层级目录  

3.执行快捷方式: 

          

        错误:   
               重新配置了环境变量中的jdk路径,eclipse不能检测到新路径 

                 

        解决: 
              更新环境变量后重启系统    

              
              

4.配置Hadoop视图:

        
        

        1window -> preferences -> Hadoop Map/Reduce,              

                配置任意hadoop解压目录(仅在创建Map/Reduce Project项目时供自动加载jar包用;如果创建Java Project可以置空):   

                  

                 错误: 
                        jdk版本错误
                        当前使用的hadoop-eclipse-plugin-1.1.2插件是基于JDK1.7制作的,而系统中安装的是JDK1.6

eclipse.buildId=M20130204-1200
java.version=1.6.0_24
java.vendor=Sun Microsystems Inc.
BootLoader constants: OS=linux, ARCH=x86, WS=gtk, NL=zh_CN
Command-line arguments:  -os linux -ws gtk -arch x86

Error
Sun May 19 09:10:21 CST 2013
Unable to create the selected preference page.

java.lang.UnsupportedClassVersionError: org/apache/hadoop/eclipse/preferences/MapReducePreferencePage : Unsupported major.minor version 51.0   

at java.lang.ClassLoader.defineClass1(Native Method)
at java.lang.ClassLoader.defineClassCond(ClassLoader.java:632)
at java.lang.ClassLoader.defineClass(ClassLoader.java:616)
at org.eclipse.osgi.internal.baseadaptor.DefaultClassLoader.defineClass(DefaultClassLoader.java:188)
at org.eclipse.osgi.baseadaptor.loader.ClasspathManager.defineClassHoldingLock(ClasspathManager.java:632)
... ... 
at org.eclipse.equinox.launcher.Main.run(Main.java:1438)   

                  
  

                解决:
                        升级当前系统的JDK版本到插件使用的1.7。    

        2)打开Hadoop视图,      

                  

        3)新建Hadoop Location连接,             

                

        4)配置主机、端口,          

                   

        5)完成:          

                    

                “local”下的目录即HDFS中的目录。可以直接在上面进行下载、创建、上传、删除等操作:

                   

                错误:
                        hadoop-eclipse-plugin-*.jar插件中jar包引用错误  

                          

An internal error occurred during: "Map/Reduce location status updater".  
org/codehaus/jackson/map/JsonMappingException            

              解决: 
                     在制作插件时%hadoop%/src/contrib/eclipse-plugin/META-INF/MANIFEST.MF中的Bundle-ClassPathjar的路径写错导致的,修改正确,重新制作。  

5.创建项目:

        在Map/Reduce视图中创建java project: 

          

- end

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值