python 黎曼猜想_计算特定数字以下质数和的几种算法

第一次关注到这个问题是在做project euler第10题的时候,原题目是要求两百万以内质数的和,知乎的题目把这个数字调到了10亿,事实证明这个规模调整是决定性的,很多在小规模可用的算法在10亿这个规模都不可用了。和其它欧拉工程的题目类似,这个题目存在一个很明显的暴力解法,但也存在一些效率更高的算法。暴力解法要不是通过对N以下的每个奇数做素性测试,要不是通过埃拉托斯特尼筛或者其它线性与亚线性筛得到N以下的所有质数然后相加,如菜鱼ftfish所言,这种暴力算法存在素数个数决定的时间复杂度下限,所以肯定还存在更优的算法。可以优化的根本原因在于,要计算N以下所有质数的和并不需要知道N以下的所有质数。在此基础上,我们可以使用各种技巧来提升算法的表现。

这个答案下目前最快的算法应该就是菜鱼ftfish所列的Lucy Hedgehog给出的算法,这个算法d在两个方面让人好奇,第一是效率极高,在时间和空间复杂度上的表现都极为优异,甚至对于python这种较慢的脚本语言计算十亿内的质数和都可以在一秒内出结果,而我自己用python写的的暴力算法甚至完全无法处理这个数据规模。第二是算法中采用了动态规划的思路,给出了一个求解质数和的递推式,让人非常好奇作者是怎么想到的,以及这个递推式背后有没有更为一般和深刻的原理。可惜的是这个代码可能由于过度优化导致可读性变得很差,原作者在论坛里也没有做详细的解释,因此在好奇心驱使下,我仔细做了一点研究,读了一些相关文献,对不同的算法做了尝试,最终实现了四个不同的算法版本。我想知道自己能不能写出一个更快的算法,因为我自己的主力语言也是python,和Hedgehog使用的语言相同,在同种语言下的比较应该是相对公平的。事实表明仅有一个算法在小规模上数据上的表现比Hedgehog的算法要更好,但在大规模数据上,Hedgehog的算法仍然是最稳健的。下面列的是我的四个算法和Hedgehog算法的对比:

图中横轴表示数据规模的对数,纵轴表示运行时间的对数。在我写的这四个算法中,表现最好的是hedgehog_recursive这个算法,使用带备忘录的自上而下动态规划方法实现了Hedgehog算法中的原理,奇怪的是这个算法虽然只是直接翻译了菜鱼ftfish的数学推导,却在小数据规模上表现到如此之好,基本上耗时都在Hedgehog算法的3%以内,这不点我也不是很理解。其次表现类似的是sum_primes_sieve和legendre这两个算法,前面这个算法使用了一个改进的埃拉托斯特尼筛,而后者则是对法国数学家勒让德提出的一个计算N以下素数个数的递推式的推广,使其可以计算N以下素数的和,我猜测这也是Hedgehog使用的递推式的灵感来源。表现再次的是meissel这个算法,它依据的是德国天文学家对勒让德计算N以下素数个数算法的改进,并将其推广到可以计算素数的和,理论上这个算法应比勒让德的算法更优,但实际算法表现并没有更好,可能是我的算法实现的原因。

下面我具体介绍一下以上四种算法的基本原理和代码实现,我相信在代码上还有很多优化的空间,大家如果有什么改进意见敬请提出来。

一、改进的埃拉托斯特尼筛

要求N以下的所有质数的和,一个显而易见的原理是用N以下所有自然数的和减去所有合数的和,自然数的和可以直接用求和公式计算,问题在于筛选出所有合数并求和,显然这里可以先用埃拉托斯特尼筛筛选出$\sqrt{N}$以内的所有质数,才依次筛选出这些质数在N以下的倍数并求和,这里的问题是有些倍数被重复计算了,可以用某些欧拉筛来避免重复筛选,或者也可以用python的集合来去重,我这里使用的是后者,因为经过尝试我发现用集合去重比用算法来避免重复筛选效率更高。

以上的算法明显还可以继续改进,首先想到所有除二以外的质数都为奇数,所以只需在奇数中筛选即可,再用所有奇数的和减去奇合数的和即可。进一步的,我们知道所有大于三的素数都可以表示成为$6k\pm1$的形式,因此我们只需要列出所有$6k\pm1$形式的数,用求和公式计算其总和,再筛选其中的合数并求和(同样用集合来去重),两者相减即为N 以下所有质数的和。算法的代码实现比较简单,我这里就不多做解释了。

from sympy import primerange

from math import floor

def sum_primes_sieve(n=2e6):

primes = list(primerange(2,n**0.5+1))

j = floor(n/6)

total_sum = 6*j*(j+1)

res_set = set()

for p in primes[2:]:

k = p

while p*k < n:

res_set.add(p*k)

k += 4 if k%6==1 else 2

ans = total_sum - sum(res_set)

return ans+5

二、Hedgehog算法的递归版本

菜鱼ftfish解释了Hedgehog算法的基本原理,其核心是答案中所列的递推式,使得我们可以用动态规划来解决质数和的问题。Hedgehog算法中显然使用的是自下而上的动态规划,我好奇用自上而下的动态规划会如何表现。因此,我使用递归函数直接翻译了菜鱼ftfish对这个算法的解释,并使用python中functools模块中的lru_cache装饰器,实现算法的记忆化,这里免去自己写备忘录代码的麻烦。这个算法是我所花时间最短,但却是表现最好的算法,甚至在小规模数据上要好于Hedgehog的原始算法,这也是我感觉奇怪的地方。我猜测原因可能是在这里的动态规划中,有很多中间数据无需计算,自上而下的动态规划可以直接跳过这些数据,回到初始的边界条件,而自下而上的动态规划则必需一步步的计算,才能得到最终的计算结果。这个算法的最大问题在于处理大规模数据时递归深度过深的问题,根据这个算法,其递归树的深度约为$\sqrt{N}$,如果要计算十亿内质数的和,则递归深度要达到31622层,而在我的python版本允许的最大递归深度仅为3000层,虽然可以自己修改python允许的最大递归深度,但python仍然会报“超过最大递归深度”的错误,所以这个算法能够处理的最大问题规模大约就在两百万左右,再大就无法保证正确执行了。可能可以使用尾递归的方法来解决这个问题,但python对尾递归优化的支持并不好,我并没有尝试,如果有人尝试成功了,可以分享一下经验。

from functools import lru_cache

from sympy import isprime

from math import floor

@lru_cache(maxsize=32)

def s(v,p):

if v == 1:

return 0

if v == 2:

return 2

if p == 1:

return (2+v)*(v-1)/2

if p**2<=v and isprime(p):

return s(v,p-1)-p*(s(floor(v/p),p-1)-s(p-1,p-1))

else:

return s(v,p-1)

def hedgehog_recursive(n=2e6):

p = int(n**0.5) + 1

return s(n,p)

三、勒让德算法

计算N以下所有素数的和似乎在数论领域并不是一个重要的问题,我看了一些文献,只在部分文献里看过对这个质数和的渐进估计,但并没有看到给出确切的质数和的值的算法分析。但是计算N以下的所有素数的个数的问题则是数论中的热门话题了,相关文献连篇累牍,因为这个问题在数论领域有相当的重要性,甚至还有一个专门的函数$\pi(x)$表示小于等于$x$的所有素数的个数。高斯和勒让德通过经验统计的方式猜测$\pi(x)\approx x/ln(x)$,这个猜想在1896年得到证明成为素数定理,这是解析数论领域的最重要的成就之一。黎曼猜想也是在改进对$\pi(x)$的估计中被提出来的,现在应该是数论领域最重要的未被证明的猜想。除开解析数论的进路以外,很多数学家也在不断改进计算$\pi(x)$的确切值的算法,相关的研究进展大家可以参见这个维基页面,更深入的研究可以参见我在文末列出的参考文献。

我们对计算N以下素数和算法来源于对勒让德对计算N以下素数个数的算法的推广。在勒让德以前,数学家们计算$\pi(x)$的方法就是筛选出$x$以下的所有素数然后数个数,勒让德首次指出,为了计算$\pi(x)$,我们并不需要知道$x$以下的所有素数,只需要知道$\pi(\sqrt{x})$就可以了。它给出的算法基于容斥原理。我们设$\phi(x,a)$表示小于等于$x$的数中不能被$p_1,p_2\cdots p_a$整除的数的个数,其中$p_1,p_2\cdots p_a$表示前$a$个质数,如$p_1=2,p_2=3,p_3=5$等等。则有: $$ \phi(x,a)=[x]-\sum_{i=1}^{a}[\frac{x}{p_i}]+\sum_{i

勒让德算法的缺陷和第二个算法类似,都会在大规模数据上因为迭代深度的问题而无法计算,虽然勒让德算法已经大大减少了递归函数的递归深度,但减少的仍然不够。如要计算十亿以内的素数和,则勒让德算法的递归深度为$\pi(\sqrt{10^9}=\pi(31623)=3401$,仍然超过python允许的最大递归深度。因此我们需要进一步缩减递归深度,meissel算法就是一个有趣的深度。

勒让德算法的代码实现如下:

from sympy import primerange,isprime

from functools import lru_cache

def legendre(n=2e6):

primes = list(primerange(1,int(n**0.5)+1))

@lru_cache(maxsize=8192)

def sigma(x,a):

if a == 1:

return (x//2)**2 if x%2==0 else (x//2+1)**2

elif x <= primes[a-1]:

return 1

else:

return sigma(x,a-1) - primes[a-1]*sigma(x//primes[a-1],a-1)

a = len(primes)

res = sigma(n,a) + sum(primes) - 1

return res

四、meissel算法

19世纪晚期,德国天文学家E. Meissel以上提到的勒让德算法进行了改进,进一步提升了计算$\pi(x)$的效率,他使用自己改进的算法计算了$\pi(10^9)$,虽然比正确值小了56,不过考虑到他完全依靠手工计算,这个准确度已经非常惊人了。Meissel对勒让德算法的主要改进是加入了一个新项$P_2(x,a)$,从而使得算法的时间复杂度从勒让德算法的$O(x)$改进到$O(x/log^{3}x)$,空间复杂度从$O(\sqrt{x})$改进至$O(\sqrt{x}/log\ x)$。这里我们对Meissel的算法做了推广,使其可以计算N以下的质数和。首先我们对Meissel的算法做一个简单介绍:

定义$P_k(x,a)$表示$[1,x]$中恰好拥有$k$个素因子,且这$k$个素因子$p_i,p_j\cdots p_k$均大于$p_a$的数的个数,则我们有: $$ \phi(x,a)=\sum_{k=0}^{+\infty}P_k(x,a) $$ 这个公式我们可以这么理解:$\phi(x,a)$表示$[1,x]$中其最小素因子都大于$p_a$的数的个数,这些数里面包括只有一个大于$p_a$的素因子的数,实际上也就是大于$p_a$的素数;也包括恰好有两个素素因子且这两个素因子都大于$p_a$,也包括恰好有三个素素因子且这三个素因子都大于$p_a$,依次类推以至无穷就可以得到所有其最小素因子都大于$p_a$的数的个数,也就是$\phi(x,a)$。我们定义$P_0(x,a)=1$,而$P_1(x,a)$表示$[1,x]$中大于$p_a$的素数的个数,则$P_1(x,a)=\pi(x)-a$,据此我们展开上式有: $$ \phi(x,a)=1+\pi(x)-a+P_2(x,a)+P_3(x,a)+\cdots $$ 通过适当的选择$a$的数值,我们可以让$P_k(x,a)$及以后的项变为零。如我们选择$a=\pi(\sqrt{x})$,则有$p_{a+1}>\sqrt{x}$,此时$P_2(x,a)$及以后的变为零,上式变成之前提到的勒让德的公式,证明勒让德公式只是这个公式的一个特例。如我们选择$a=\pi(x^{1/3})$,则有$x^{1/3}

def meissel(n=2e6):

primes = list(primerange(1,int(n**(1/2))+1))

cr_primes = [x for x in primes if x

def prime_sum(n):

ps = list(primerange(1,n+1))

return sum(ps)

@lru_cache(maxsize=32)

def sigma(x,a):

if a == 1:

return (x//2)**2 if x%2==0 else (x//2+1)**2

else:

return sigma(x,a-1) - primes[a-1]*sigma(x//primes[a-1],a-1)

def total(x,a):

res,index = 0,a

for p in primes[a:]:

res += p * (prime_sum(x//p) - sum(primes[:index]))

index += 1

return res

a = len(cr_primes)

ans = sigma(n,a) + sum(cr_primes) - total(n,a) - 1

return ans

经过尝试,至少到我写这篇文章为止,我自己并没有能够实现一个在效率表现上和处理大规模问题上比Hedgehog算法更优的算法。但这种尝试仍是有意义的,至少可以让我更加清楚的理解Hedgehog算法的原理,并且对质数计数的各种算法和推广加深了了解。我相信这些算法仍有优化的空间,如果找到的话我再来做补充。

五、延伸阅读

前面已经提到,质数计数是数论中一个非常重要的问题,既有使用解析数论等方法对质数整体分布规律的研究,也有各种不断改进的计算$\pi(x)$的确切值的算法。在以上我提到的Meissel算法之后约半个世纪,Lehmer[5]对这个算法进行了进一步改进,他进一步计算了$P_3(x,a)$,并使用IBM 701计算机计算了$\pi(10^{10})$,他的计算结果只比正确结果大一,以上从勒让德到Lehmer的算法实质都是对勒让德最初提出算法的某种改进,统称为计算$\pi(x)$的组合方法(Combinatorial method)。之后在1987年,Lagarias and Odlyzko[4]提出了一种从从解析数论角度计算$\pi(x)$的方法,算法中需要用到黎曼Zeta函数的某些性质,并采用数值积分的方法,这种方法被称为计算$\pi(x)$的分析方法(见参考文献[1]),这个算法虽然具备更好的渐近性,它在性能上比不上作者们在1985年提出的对Meissel-Lehmer算法的改进(见[3])。上面几种算法的详细的时间与空间复杂度分析可以参见这篇文章,这里列一个简要的结果:

在此之后,Deleglise-Rivat以及Xavier Gourdon又对算法做出了改进。在github上作者Kim Walisch对以上算法做了实现,他的测试结果如下:

在2015年9月,他宣布利用自己的算法计算了$\pi(10^{27})$,计算花费了数年时间,最高峰时使用了235G的内存,之后他们又花了五个月时间进行重新计算验证,确认的结果是: $$ \pi(10^{27})=16,352,460,426,841,680,446,427,399 $$ 这是目前[维基页面](https://en.wikipedia.org/wiki/Prime-counting_function#Algorithms_for_evaluating_%CF%80(x)上列出的最大的$\pi(x)$值,至于是否有人算出了更大的$\pi(x)$值,我没有查到确切的信息。

以上计算$\pi(x)$的算法中自Lehmer以后都变得非常复杂,至少我已经无法理解。同时由于使用的方法越来越复杂,其代码实现也会变得更加麻烦。而且相关方法能否进行推广用来计算N以下的质数和也未可知,这些问题感兴趣的同学可以继续探索。

最后,参考文献[7],设$\pi(x)=n$,则$x$以下质数的和的渐进估计是: $$ \sum_{p

六、参考文献

Crandall, R., & Pomerance, C. B. (2006). Prime numbers: a computational perspective (Vol. 182). Springer Science & Business Media.

Deléglise, M., & Rivat, J. (1996). Computing 𝜋 (𝑥): the Meissel, Lehmer, Lagarias, Miller, Odlyzko method. Mathematics of Computation of the American Mathematical Society, 65(213), 235-245.

Lagarias, J. C., Miller, V. S., & Odlyzko, A. M. (1985). Computing 𝜋 (𝑥): the Meissel-Lehmer method. Mathematics of Computation, 44(170), 537-560.

Lagarias, J. C., & Odlyzko, A. M. (1987). Computing π (x): An analytic method. Journal of Algorithms, 8(2), 173-191.

Lehmer, D. H. (1959). On the exact number of primes less than a given limit. Illinois Journal of Mathematics, 3(3), 381-388.

Riesel, H. (2012). Prime numbers and computer methods for factorization (Vol. 126). Springer Science & Business Media.

Sinha, N. K. (2010). On the asymptotic expansion of the sum of the first n primes. arXiv preprint arXiv:1011.1667.

Xavier Gourdon, Computation of pi(x) : improvements to the Meissel, Lehmer, Lagarias, Miller, Odllyzko, Deléglise and Rivat method, February 15, 2001.

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值