java本地运行spark代码示例

22 篇文章 0 订阅
2 篇文章 0 订阅
/* SimpleApp.java */

import org.apache.spark.api.java.function.FilterFunction;
import org.apache.spark.sql.Dataset;
import org.apache.spark.sql.SparkSession;

/**
 * 计算文件中分别包含a和b的行数
 */
public class SimpleApp {
    public static void main(String[] args) {
        /*
        local 本地单线程
        local[K] 本地多线程(指定K个内核)
        local[*] 本地多线程(指定所有可用内核)
        spark://HOST:PORT 连接到指定的  Spark standalone cluster master,需要指定端口。
        mesos://HOST:PORT 连接到指定的  Mesos 集群,需要指定端口。
        yarn-client客户端模式 连接到  YARN 集群。需要配置 HADOOP_CONF_DIR。
        yarn-cluster集群模式 连接到 YARN 集群。需要配置 HADOOP_CONF_DIR。
         */
        //本地运行要设置spark.master为local或在VM options中输入“-Dspark.master=local”
        System.setProperty("spark.master", "local");

        String logFile = "D:/git/sparkDemo/pom.xml"; // Should be some file on your system
        SparkSession spark = SparkSession.builder().appName("Simple Application").getOrCreate();
        Dataset<String> logData = spark.read().textFile(logFile).cache();

        long numAs = logData.filter((FilterFunction<String>) o -> o.toString().contains("a")).count();
        long numBs = logData.filter((FilterFunction<String>) o -> o.toString().contains("b")).count();

        System.out.println("Lines with a: " + numAs + ", lines with b: " + numBs);

        spark.stop();
    }
}

pom.xml

<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0"
         xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
         xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
    <groupId>edu.berkeley</groupId>
    <artifactId>simple-project</artifactId>
    <modelVersion>4.0.0</modelVersion>
    <name>Simple Project</name>
    <packaging>jar</packaging>
    <version>1.0</version>

    <properties>
        <maven.compiler.source>8</maven.compiler.source>
        <maven.compiler.target>8</maven.compiler.target>
    </properties>
    <dependencies>
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-sql_2.12</artifactId>
            <version>3.1.2</version>
<!--            <scope>provided</scope>-->
        </dependency>
    </dependencies>
</project>

https://spark.apache.org/docs/3.3.0/quick-start.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值