如何正确使用 Scrapy 自带的 FilesPipeline?

开发 前端
Scrapy自带的 FilesPipeline和ImagesPipeline用来下载图片和文件非常方便,根据它的官方文档[1]说明,我们可以很容易地开启这两个 Pipeline。

Scrapy自带的 FilesPipeline和ImagesPipeline用来下载图片和文件非常方便,根据它的官方文档[1]说明,我们可以很容易地开启这两个 Pipeline。

如果只是要下载图片,那么用 FilesPipeline 和 ImagesPipeline 都可以,毕竟图片也是文件。但因为使用 ImagesPipeline 要单独安装第三方库 Pillow,所以我们以 FilesPipeline 为例来进行说明。

假设爬虫通过解析网页的源代码,获取到了一张图片,图片的地址为:https://kingname-1257411235.cos.ap-chengdu.myqcloud.com/640.gif 当然,png 、 jpg 、甚至 rar、pdf、zip 都可以。

为了使用 Scrapy 自带的 FilesPipeline来下载这张图片,我们需要做几步设置。

定义 items

首先定义任意一个 items,需要确保这个 items 里面,必须包含file_urls字段和files字段,除了这两个必备字段外,你还可以任意增加其他字段。


 

 

启动FilesPipeline

在settings.py中,找到 ITEM_PIPELINES配置,如果它被注释了,那么就解除注释。然后添加如下的配置:

  1. 'scrapy.pipelines.files.FilesPipeline': 1 

再添加一个配置项FILES_STORE,它的值是你想要保存图片的文件夹地址。

修改以后如下图所示:

 

下载图片

接下来,就进入到我们具体的爬虫逻辑中了。在爬虫里面,你在任意一个 parse 函数中提取到了一张或者几张图片的URL 后,把它(们)以列表的形式放入到 item 里面的 file_urls 字段中。如下图所示。

 

注意,此时files字段不需要设置任何的值。其他非必需字段就根据你的需求只有设置即可。

获取结果

由于我们设置了scrapy.pipelines.images.FilesPipeline的优先级为1,是最高优先级,所以它会比所有其他的 Pipeline 更先运行。于是,我们可以在后面的其他Pipeline 中,检查 item 的 files 字段,就会发现我们需要的图片地址已经在里面了。如下图所示:

 

item 中的 files 字段变成了一个包含字典的列表。字典中有一项叫做path的 Key,它的值就是图片在电脑上的路径,例如full/7f471f6dbc08c2db39125b20b0471c3b21c58f3e.gif表示在images文件夹中的full文件夹中的7f471f6dbc08c2db39125b20b0471c3b21c58f3e.gif文件,如下图所示:

 

文件名是该文件的 md5值,如果你想重命名,可以在后续的 pipeline 中,根据 path 的值找到文件,然后修改名字。

修改请求头

看到这里,大家会不会有一个疑问,在使用FilesPipeline的时候,Scrapy 会加上请求头吗?它会用哪一个请求头呢?

实际上,Scrapy 在使用 FilesPipeline和ImagesPipeline时,是不会设置请求头的。如果网站会监控请求图片或者文件的请求的请求头,那么就可以立刻发现这个请求是通过 Scrapy 发起的。

为了证明这一点,我们可以查看FilesPipeline的源代码:

 

在 scrapy/pipelines/files.py文件中,可以看到,FilesPipeline是通过get_media_requests方法来构造对图片的请求对象的。这个请求对象没有设置任何的请求头。

上面的截图是老版本的 Scrapy 的源代码。新版本的源代码里面,get_media_requests可能是这样的:

  1. def get_media_requests(self, item, info): 
  2.     urls = ItemAdapter(item).get(self.files_urls_field, []) 
  3.     return [Request(u) for u in urls] 

为了手动加上请求头,我们可以自己写一个 pipeline,继承FilesPipeline但覆盖get_media_requests方法,如下图所示:

 

注意,在实际使用中,你可能还要加上 Host 和 Referer。

然后修改settings.py中的ITEM_PIPELINES,指向我们自定义的这个pipeline:

 

这样一来,FilesPipeline就能够正确加上请求头了。

最后考大家一个问题,FilesPipeline发起的请求,会经过下载器中间件吗?如果要添加代理 IP 应该怎么做?欢迎大家在本文下面评论回复。

参考资料

 

[1]官方文档: https://docs.scrapy.org/en/latest/topics/media-pipeline.html#using-the-files-pipeline

本文转载自微信公众号「未闻Code」,可以通过以下二维码关注。转载本文请联系未闻Code公众号。

 

责任编辑:武晓燕 来源: 未闻Code
相关推荐

2019-11-14 16:23:07

MySQL索引数据库

2010-02-03 15:40:37

Python函数

2011-04-21 17:29:13

Linuxgssftp

2015-03-31 14:15:12

JavaJava事件通知

2022-09-07 08:58:58

Node.js框架

2018-12-05 09:00:00

RedisRedis Strea数据库

2023-12-26 11:56:14

Go通道编程

2010-01-18 17:23:55

函数

2022-11-23 08:00:00

开发Regulator调试

2010-07-07 10:25:00

SQL Server索

2011-04-27 16:38:31

投影机

2010-01-18 17:23:55

函数

2021-03-15 12:23:24

Pythonyield代码

2021-06-08 21:36:24

PyCharm爬虫Scrapy

2014-04-09 09:32:24

Go并发

2017-10-31 20:45:07

JavaJava8Optional

2010-05-18 15:58:39

MySQL触发器

2010-02-25 10:10:29

WCF使用Header

2011-08-17 11:10:26

Win7问题步骤录制器

2010-08-26 10:36:44

点赞
收藏

51CTO技术栈公众号