用概率的方法计算Pi值

项目github地址:bitcarmanlee easy-algorithm-interview-and-practice
欢迎大家star,留言,一起学习进步

精确计算Pi的值,从古至今都吸引了无数的数学家。迄今为止,科学家还没有计算得出精确的Pi值,也没有发现小数点后面的值有什么规律。
现在,我们用一种比较简单的概率的方式来近似计算Pi的值。
二话不说,直接上代码。

public class PiCaculate {

    public static double caculate() {
        Random r = new Random();
        //d1,d2都是从[0,1)的随机浮点数
        double d1 = r.nextDouble();
        double d2 = r.nextDouble();
        double result = Math.sqrt(d1*d1 + d2*d2);
        return result;
    }

    public static void main(String[] args) {
        int count = 0;
        int nums = 100000;
        for(int i=0; i<nums; i++) {
            double result = caculate();
            if(result <= 1.0) {
                count++;
            }
        }
        double pi = 4 * (float)count / (float)nums;
        System.out.println("Pi is: " + pi);
    }
}

将代码run起来:

Pi is: 3.14028000831604

稍微解释一下代码的思路:
现在假设有一个单位圆,圆点为中心,1为半径。d1,d2为两随机浮点数,取值范围均为[0,1]。假设d1为x坐标,d2为y坐标,如果 x 2 + y 2 < 1 x^2+y^2 < 1 x2+y2<1,那么该点在圆内;反之则在圆外。由对称性易知,落在圆内的概率为单位圆面积的四分之一,即为Pi/4。

spark中计算Pi值的demo,我们来看看spark中的源码

from __future__ import print_function

import sys
from random import random
from operator import add

from pyspark import SparkContext


if __name__ == "__main__":
    """
        Usage: pi [partitions]
    """
    sc = SparkContext(appName="PythonPi")
    partitions = int(sys.argv[1]) if len(sys.argv) > 1 else 2
    n = 100000 * partitions

    def f(_):
        x = random() * 2 - 1
        y = random() * 2 - 1
        return 1 if x ** 2 + y ** 2 < 1 else 0

    count = sc.parallelize(range(1, n + 1), partitions).map(f).reduce(add)
    print("Pi is roughly %f" % (4.0 * count / n))

    sc.stop()

可以看出,里面计算Pi的思路,跟我们之前的思路是一样滴!

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值