在粉丝群里面,我多次强调爬虫不要把网页源代码存入数据库,但还是有很多同学这样做。源代码动辄几十 KB 甚至几 MB,存放到数据库里面会严重拖慢性能。
如果你非要储存源代码,那么你可以使用 Hive 或者对象储存来存放。
如果你被逼无奈,必须用数据库来存放,那么你至少应该对HTML 进行压缩。平时我们常常听说使用 winrar/7zip/tar 这些压缩工具来压缩文件或者文件夹,那么我们如何压缩字符串呢?
Python 自带了两种压缩方式:zlib和gzip。
我们先来看看我的博客首页有多大:
- import requests
- html = requests.get('https://www.kingname.info').text
- with open('kingname.html', 'w') as f:
- f.write(html)
生成的kingname.html文件,有82KB,如下图所示:
现在,我们使用zlib来对 HTML 进行压缩,然后把压缩后的内容写到文件,我们来看看数据有多大:
- import zlib
- import requests
- html = requests.get('https://www.kingname.info').text
- html_compressed = zlib.compress(html.encode())
- with open('kingname_zlib', 'wb') as f:
- f.write(html_compressed)
生成的文件大小只有16KB,如下图所示:
压缩以后体积变成了原来的五分之一,节约了大量的磁盘空间。需要注意的是,zlib.compress的输入参数是bytes型的数据,输出也是bytes型的数据。并且,输出的数据是不能解码成字符串的,所以在写文件的时候,必须使用wb方式写入。如果你用的 MySQL 的话,需要把字段的类型设置成blob。
要解压缩也非常简单,使用zlib.decompress就可以了:
- import zlib
- with open('kingname_zlib', 'rb') as f:
- html_compressed = f.read()
- html = zlib.decompress(html_compressed).decode()
除了zlib外,我们还可以使用gzip这个自带的模块来压缩字符串。用法几乎一模一样:
- import gzip
- import requests
- html = requests.get('https://www.kingname.info').text
- html_compressed = gzip.compress(html.encode())
- with open('kingname_gzip', 'wb') as f:
- f.write(html_compressed)
压缩以后,文件大小也是16KB:
在生产项目中,除了Python自带的这两个压缩模块,还有可能会使用Snappy进行压缩。他的压缩速度非常快,比zlib和gzip都快。压缩率也很高。但安装起来比较麻烦,首先需要安装Snappy程序,然后再安装python-snappy库才能使用。有兴趣的同学可以搜索了解一下。
总结:强烈不建议使用数据库来存放网页整个源代码。如果非要使用,要压缩以后再存。