Ubantu下Spark独立应用程序编程的Java编程应用

首先需要安装maven

                         需要在maven官方下载,文件名为apache-maven-3.3.9-bin.zip

                         下载后选择安装在/usr/local/maven中:

                           先解压maven的包:

sudo unzip ~/下载/apache-maven-3.3.9-bin.zip -d /usr/local

                            然后将apache-maven-3.3.9的文件名改为maven,以及将maven改为hadoop用户权限

           JAVA的应用程序代码:

      先创建一个文件夹sparkapp作为应用程序的根目录                   

mkdir -p ./sparkapp2/src/main/java
      

               在 ./sparkapp/src/main/java 下建立一个名为 SimpleApp.java 的文件,并且加入相关代码:


  
  
  1. /*** SimpleApp.java ***/
  2. import org.apache.spark.api.java.*; //载入spark的相关API类
  3. import org.apache.spark.api.java.function.Function;
  4.  
  5. public class SimpleApp {
  6. public static void main(String[] args) {
  7. String logFile = "file:///usr/local/spark/README.md";
  8. JavaSparkContext sc = new JavaSparkContext("local", "Simple App","file:///usr/local/spark/", new String[]{"target/simple-project-1.0.jar"});
  9.   //初始化Spark程序
  10. JavaRDD<String> logData = sc.textFile(logFile).cache();
  11.  
  12. long numAs = logData.filter(new Function<String, Boolean>() {
  13. public Boolean call(String s) { return s.contains("a"); }
  14. }).count();
  15.  
  16. long numBs = logData.filter(new Function<String, Boolean>() {
  17. public Boolean call(String s) { return s.contains("b"); }
  18. }).count();
  19.  
  20. System.out.println("Lines with a: " + numAs + ", lines with b: " + numBs);
  21. }
  22. }

              

该程序依赖Spark Java API,因此我们需要通过Maven进行编译打包。

在./sparkapp2中新建文件pom.xml(vim ./sparkapp/pom.xml),添加内容如下

声明该独立应用程序的信息以及与Spark的依赖关系:

<project>
    <groupId>edu.berkeley</groupId>
    <artifactId>simple-project</artifactId>
    <modelVersion>4.0.0</modelVersion>
    <name>Simple Project</name>
    <packaging>jar</packaging>
    <version>1.0</version>
    <repositories>
        <repository>
            <id>Akka repository</id>
            <url>http://repo.akka.io/releases</url>
        </repository>
    </repositories>
    <dependencies>
        <dependency> <!-- Spark dependency -->
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-core_2.10</artifactId>
            <version>1.6.2</version>
        </dependency>
    </dependencies>
</project>

使用maven打包java程序:


找到当前项目目录,并进入当前目录下执行命令:


/usr/local/maven/bin/mvn package 



运行JAVA程序

在这里运用到spark-submit来运行打包的JAVA程序

/usr/local/spark/bin/spark-submit --class "SimpleApp" ~/sparkapp2/target/simple-project-1.0.jar




  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值