Unladen Swallow的最后时光

unladen swallow尝试将LLVM优化引入到CPython运行时,但是去年却没有取得重大进展。现在,一篇回顾unladen swallow的文章已经确认了这个项目的死亡,不会再进行开发。

它的目标曾经是多么野心勃勃;引入LLVM运行时架构作为CPython的解释器,然后将其作为一个选项,能够在JIT编译的时候打开。LLVM被用在一些高端项目中,例如全新的Clang模块编译器以及LLDB调试器,这些都在Apple的Xcode4中被采用。这些高端用户案例看起来非常诱人:

最开始选择使用LLVM是因为那个时候我们都没用x86汇编语言的丰富经验,而我们又真的希望能够支持x86和x86_64,如 果可能的话,将来也希望支持ARM架构。我们也坚信LLVM是一个更加健壮的JIT,起码比现在看起来应该健壮很多。Apple就在其产品中使用了JIT 引擎,我们认为这是一个积极的信号,它表示LLVM也能够在我们的项目中很好工作。使用LLVM帮助我们很快地起步,但是它却很快成为了我们的负担,我们 不得不在修复大量的对JIT进行支持的bug中结束我们的工作。不过它也给我们提供了诸多特性的支持,我们不需要开发新特性,但是我们也需要时间来做这件 里程碑式的工作。

众所周知,编译器工具链是非常难以做到完美无bug的;最近有一篇论文的主题就是寻找和理解C编译器bug,它展示了一些在工具链不断开发和完善的过程中发现的非常著名的bug。不过,unladen swallow的这些问题却和这篇论文关系不大,它更多和例如Python这些解释性语言本身的性质相关,而不是单纯的代码问题:

不幸的是,从设计之初,LLVM就是被作为一个静态编译器,优化器以及后端。LLVM的代码生成和优化功能非常优秀,但是开销非 常昂贵。这些优化都是着力于类似于C这样的静态语言生成的中间表示。而大多数对Python的优化却需要更高层的知识,例如程序在前一个迭代中是如何执行 的,LLVM并不能在此发挥作用。

在JVMJIT中使用的很多优化技术都需要了解程序是如何运行的,这样才能更好地在数据收集之后执行后续JIT操作。这个功能的最大好处就是方 法调用的内联化;但是,我们也要明白JVM并不能够在程序执行前静态地完成这项工作,相反,一些其他的优化技术简化代码直到产生内联方法。例如运行一个基 于Python的JIT,那么将函数调用内联化将是一个加速性能的非常关键的技术,这些同样需要一些时间来将这个技术加入到LLVM架构中。

(值得提及的是,LLVM现在正在进行更强大的随机测试,这个消息是在2010年11月的LLVM开发者大会上宣布的)

但是,这些对unladen swallow都无济于事。也许问题可能出现在资助上;大多数Python的用户都不会在性能要求非常严格的任务中使用Python,所以优化并不会太 多。其次,CPython的关键开发者们对于LLVM和产生的结果兴趣寥寥,甚至有可能在默认选项中禁用并且在未来放弃这个功能。

VMKit的目的是在LLVM运行时上构建高层语言,它的特性包括对象支持,自动内存管理,不过这个工具是服务于Java或者.NET运行时。

unladen swallow小组现在将所有的精力转到PyPy上。 这个是另外一个Python运行时,它自定义了JIT以加速执行效率。Python提速需要考虑的问题之一便是并不是所有的代码都是“纯”Python; 有许多原生扩展是使用C编写,这就需要妥善处理。(使用Java实现的Python运行时,Jython就不直接支持CPython中利用C实现的特性, 而是会使用Java重新实现)但是和其他解释语言一样,也许最影响执行效率的便是全局解释锁,它阻碍了多线程Python代码的运行。很不幸的 是,PyPy或者unladen swallow都不能改变这个现实。

LLVM2.9预计于下周发布。不过这并不代表着其他的项目,例如Rubinius,将会使用LLVM作为运行时引擎。

查看英文原文:The Last Flight of the Unladen Swallow


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值