package example
import org.apache.spark.{SparkContext, SparkConf}
import scala.math.random
/**
* 利用spark进行圆周率的计算
* Created by 汪本成 on 2016/6/10.
*/
object SparkPai {
def main(args: Array[String]) {
val conf = new SparkConf().setAppName("SparkPai").setMaster("local[4]")
val sc = new SparkContext(conf)
//分片数
val slices = if (args.length > 0) args(0).toInt else 2
//为避免溢出,n不超过int的最大值
val n = math.min(10000L*slices, Int.MaxValue).toInt
//计数
val count = sc.parallelize(1 until n, slices).map{
lines =>
//小于1的随机数
val x = random*2 - 1
//小于1的随机数
val y = random*2 - 1
//点到圆心的的值,小于1计数一次,超出1就不计算
if (x*x + y*y < 1) 1 else 0
}.reduce(_+_) //汇总累加落入的圆中的次数
//count / n是概率,count落入圆中次的数,n是总次数;
println("Pai is roughly " + 4.0 * count / n)
sc.stop()
}
}
运行结果如下: