在新推出的Python 3.1版本中,我们用一组插件来实现一些具有统一接口的功能,我们使用Python来代替动态链接库形式的插件,他的重点与我这一专栏的观点有些相反,它提供了 Python 和 Lisp 之间非常好的常规比较。
同时在性能方面也有所改善。在上一篇中,我们为读者详细介绍了Python 3.1版本在标准程序库方面的变化,本文则要为读者介绍新版本在性能方面的改善。在Python 3.1的开发计划中,很大一部分都是关于性能的。
那么这一版本发布后,都是哪些性能得到改善呢?下面我们将一一加以介绍。Python 3.0曾以使用Python实现了一个新的I/O库而引以为豪,但是其性能大家可想而知——和您估计的一样,非常的低。
在Python 3.1版本中,人们利用C语言重新实现了此程序库,所以它的性能得到了极大的提升,大概快了2到20倍。为此。我们写了一段代码:向一个文件中写入5,000,000字节的内容,连续写入10次,然后计算其平均耗时。我们分别在Python 2.5、2.6、3.0和3.1下运行该代码,然后比较其结果。
看到这样的结果,是不是既让人感兴趣又让人很困惑呀:对于这个向文件逐字节写入的基本I/O任务,不同Python版本之间的性能差别是不是很明显呢?Python 3.0的性能有了很大的下降。
这是可以理解的,原因前面已经提过。不过,Python 2.6的性能比Python 2.5低了50%,而Python 3.1的性能有
几乎是Python 2.5的两倍。
从中我们可以了解到些什么呢?首先,对于该任务Python 3.0的性能是惨不忍睹的,它写入字符的耗时是写入字节的两倍,并且几乎比Python 3.1的性能地了二十倍。 Python 2.5、2.6和3.1所用的时间大体相当。
从Python 2.x升级到Python 3.0的时候,Unicode的处理有了明显的改善。以下程序将对一个存放在缓冲区的1,000,000个希伯来语单词“shalom”在UTF-8和UTF-16之间来回进行编码和解码处理。此缓冲区总大小为五百万字节。
from __future__ import with_statement
import sys
import time
def test_encode_decode():
shalom = ' \u05dd\u05d5\u05dc\u05e9'
text = shalom * 1000000
start = time.time()
texttext_utf8 = text.encode('utf-8')
texttext_utf16 = text.encode('utf-16')
assert text_utf8.decode() == text
assert text_utf16.decode('utf-16') == text
end = time.time() - start
print (shalom, end)
return end
test = test_encode_decode
if __name__=='__main__':
times = [test() for i in range(10)]
times.remove(max(times))
times.remove(min(times))
print('Average:', sum(times) / len(times))
- 1.
- 2.
- 3.
- 4.
- 5.
- 6.
- 7.
- 8.
- 9.
- 10.
- 11.
- 12.
- 13.
- 14.
- 15.
- 16.
- 17.
- 18.
- 19.
- 20.
- 21.
- 22.
- 23.
- 24.
- 25.
- 26.
- 27.
- 28.
- 29.
- 30.
- 31.
- 32.
- 33.
- 34.
- 35.
- 36.
- 37.
- 38.
- 39.
在Python 3.1版本下运行此程序的时候,两种的速度大体相当;然而,Python 3.0却要快得多(大约快了5-6倍),而Python 3.1则要比Python 2.x快了近八倍,比Python 3.0快40%左右。
【编辑推荐】