spark模拟密集型计算任务

一,场景:我们随机的产生两点,测试有多少个会落在单位圆内,多少落在外面。
二,函数解释:
1,parallelize()函数是指内部导入数据。
2,filter()函数功能是对元素进行过滤,对每个元素 应用f函数,返回值为true的元素在RDD中保留,返回值为false的元素将被过滤掉。
3,count()函数,返回整个RDD的元素个数。

代码展示:

import java.util.ArrayList;
import java.util.List;
import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.api.java.function.Function;
public class ComputIntensiveTasks2 {
    public static void main(String[] args) {
        SparkConf conf=new SparkConf();
        conf.set("spark.testing.memory", "2147480000");
        System.out.println("连接建立好了,准开始了"+conf);
        JavaSparkContext sc=new JavaSparkContext("local","ComputIntensinve",conf);
        int NUM_SAMPLES=5;
        List<Integer> l=new ArrayList<Integer>(NUM_SAMPLES);
        for(int i=0; i<NUM_SAMPLES;i++){
            l.add(i);
        }
        long count=sc.parallelize(l).filter(new Function<Integer,Boolean>(){
            public Boolean call(Integer arg0) throws Exception {
                double x=Math.random();
                double y=Math.random();
                return x*x+y*y<1;
            }}).count();
        System.out.println("Pi is roughly "+4.0*count/NUM_SAMPLES);
    }

}
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值