运行hadoop jar 命令时,依赖第三方Jar包的解决方法

问题:将自己编写的MapReduce程序打包成jar后,如果要依赖第三方jar包,在运行 hadoop jar 命令时,提示 ClassNotFoundException ....

解决方法:

1.新建一个lib文件夹,将需要依赖的第三方jar包放到lib文件夹中;

2.将MapReduce程序打包后的jar包(如:test.jar)用WinRAR打开,然后装lib包拖到test.jar中即可。(亲测确定可行!)

注:

网上也有人说将依赖的Jar包添加到classpath下,但是我试过之后发现不可行(也许是环境或者RP问题)。

        也有人说将jar包放到${HADOOP_HOME}/conf路径下,我试过之后发现也不行。

还有人说放到JDK的 jre/lib/ext/路径下,试过之后发现也不行...

阅读更多
换一批

没有更多推荐了,返回首页