Python性能十分的强大,相关的技术为什么会如此的强大呢?下面我们就详细的看看相关技术问题。问题的提出是源于 这位兄弟的BLOG,在他的这个实现中,Python性能具有相当不错的性能,不但优于帖子中的C实现性能,也优于随后的跟贴中众多的C++实现的性能。#t#
在经过了多次尝试,我还是很难找出一个优于Python性能的实现。这不是一件正常的事情,Python性能注定不会优于C/C++,这是因为Python是解释执行的,解释的过程必然会消耗CPU时间,所以我查阅了Python的源码试图找出为何Python性能对于这个任务有如此好的性能的原因。
任务描述如下
对于一个78W行的文本文件,每一行是一个Email地址,文件中存在有重复的行,任务的要求是尽可能快的从这个文本文件生成一个无重复的Email的文本文件
有如下的问题需要注意
对于这种大量的字符串比较,直接使用字符串比较函数是严重妨碍性能的IO性能是要注意的尽可能的少使用占用内存在我的尝试中,发现重复调用ofstream::operator<< 是比较影响性能的,而使用 fprintf或使用copy 等 STL 算法输出到则性能好的多。使用一种好的Hash算法是影响程序性能的关键。任务中的EMail字符串总是具有[a-z]*[0-9]*@([a-z]*\.)+[a-z]* 的形式,例如 joson123@sina.com.cn joson72345@sina.com.cn 的格式。
在$PySrc/Objects/dictobject.c 中,对Python的Hash机制作了一些描述,总的来说,Python的Hash机制对于这种连续型的字符串有相当好的离散度,对于这个 78W 例子,python_hash() % 780000能够很均匀的分散到各个值,***的冲突数为 8。 以下是按照类似 Python的 Hash算法实现的 C++ 版本的结果
- E:\Workspace\Temp\Email>my
- 经过了1687.5000毫秒
- E:\Workspace\Temp\Email>my
- 经过了1718.7500毫秒
- E:\Workspace\Temp\Email>my
- 经过了1671.8750毫秒
- E:\Workspace\Temp\Email>my
- 经过了1656.2500毫秒
- E:\Workspace\Temp\Email>py_email.py
- 2.82014641526
- E:\Workspace\Temp\Email>py_email.py
- 2.74879181572
- E:\Workspace\Temp\Email>py_email.py
- 2.76348586203
- E:\Workspace\Temp\Email>dir *.txt
- 2006-03-28 13:09 19,388,869 email.txt
- 2006-03-29 22:51 17,779,266 email_new.txt (py_email.py 写出)
- 2006-03-29 22:50 17,779,266 email_new_my.txt (my.exe 写出)
以上就是对Python性能的详细介绍。