5分钟快速掌握scrapy爬虫框架

开发 后端
很早之前就开始用scrapy来爬取网络上的图片和文本信息,一直没有把细节记录下来。这段时间,因为工作需要又重拾scrapy爬虫,本文和大家分享下,包你一用就会, 欢迎交流。

[[356009]]

1. scrapy简介

scrapy是基于事件驱动的Twisted框架下用纯python写的爬虫框架。很早之前就开始用scrapy来爬取网络上的图片和文本信息,一直没有把细节记录下来。这段时间,因为工作需要又重拾scrapy爬虫,本文和大家分享下,包你一用就会, 欢迎交流。

1.1 scrapy框架

scrapy框架包括5个主要的组件和2个中间件Hook。

  •  ENGIINE:整个框架的控制中心, 控制整个爬虫的流程。根据不同的条件添加不同的事件(就是用的Twisted)
  •  SCHEDULER:事件调度器
  •  DOWNLOADER:接收爬虫请求,从网上下载数据
  •  SPIDERS:发起爬虫请求,并解析DOWNLOADER返回的网页内容,同时和数据持久化进行交互,需要开发者编写
  •  ITEM PIPELINES:接收SPIDERS解析的结构化的字段,进行持久化等操作,需要开发者编写
  •  MIDDLEWARES:ENGIINE和SPIDERS, ENGIINE和DOWNLOADER之间一些额外的操作,hook的方式提供给开发者

从上可知,我们只要实现SPIDERS(要爬什么网站,怎么解析)和ITEM PIPELINES(如何处理解析后的内容)就可以了。其他的都是有框架帮你完成了。(图片来自网络,如果侵权联系必删)

1.2 scrapy数据流

我们再详细看下组件之间的数据流,会更清楚框架的内部运作。(图片来自网络,如果侵权联系必删)

  1.   SPIDERS发爬虫请求给ENGIINE, 告诉它任务来了
  2.   ENGIINE将请求添加到SCHEDULER调度队列里, 说任务就交给你了,给我安排好
  3.   SCHEDULER看看手里的爬取请求很多,挑一个给ENGIINE, 说大哥帮忙转发给下载DOWNLOADER
  4.   ENGIINE:好的, DOWNLOADER你的任务来了
  5.   DOWNLOADER:开始下载了,下载好了,任务结果 交给ENGIINE
  6.   ENGIINE将结果给SPIDERS, 你的一个请求下载好了,快去解析吧
  7.   SPIDERS:好的,解析产生了结果字段。又给SPIDERS转发给ITEM PIPELINES
  8.   ITEM PIPELINES: 接收到字段内容,保存起来。

第1步到第8步,一个请求终于完成了。是不是觉得很多余?ENGIINE夹在中间当传话筒,能不能直接跳过?可以考虑跳过了会怎么样。

这里分析一下

  • SCHEDULER的作用:任务调度, 控制任务的并发,防止机器处理不过来
  •  ENGIINE:就是基于Twisted框架, 当事件来(比如转发请求)的时候,通过回调的方式来执行对应的事件。我觉得ENGIINE让所有操作变的统一,都是按照事件的方式来组织其他组件, 其他组件以低耦合的方式运作;对于一种框架来说,无疑是必备的。

2. 基础:XPath

写爬虫最重要的是解析网页的内容,这个部分就介绍下通过XPath来解析网页,提取内容。

2.1 HTML节点和属性

(图片来自网络,如果侵权联系必删)

2.2 解析语法

  •  a / b:‘/’在 xpath里表示层级关系,左边的 a是父节点,右边的 b是子节点
  •  a // b:表示a下所有b,直接或者间接的
  •  [@]:选择具有某个属性的节点
    •   //div[@classs], //a[@x]:选择具有 class属性的 div节点、选择具有 x属性的 a节点
    •   //div[@class="container"]:选择具有 class属性的值为 container的 div节点
  •  //a[contains(@id, "abc")]:选择 id属性里有 abc的 a标签

一个例子 

  1. response.xpath('//div[@class="taglist"]/ul//li//a//img/@data-original').get_all()  
  2. # 获取所有class属性(css)为taglist的div, 下一个层ul下的所有li下所有a下所有img标签下data-original属性  
  3. # data-original这里放的是图片的url地址 

更多详见

http://zvon.org/comp/r/tut-XPath_1.html#Pages~List_of_XPaths

3. 安装部署

Scrapy 是用纯python编写的,它依赖于几个关键的python包(以及其他包):

  •  lxml 一个高效的XML和HTML解析器
  •  parsel ,一个写在lxml上面的html/xml数据提取库,
  •  w3lib ,用于处理URL和网页编码的多用途帮助程序
  •  twisted 异步网络框架
  •  cryptography 和 pyOpenSSL ,处理各种网络级安全需求 
  1. # 安装  
  2. pip install scrapy 

4. 创建爬虫项目 

  1. scrapy startproject sexy  
  2. # 创建一个后的项目目录  
  3. # sexy  
  4. # │  scrapy.cfg  
  5. # │  
  6. # └─sexy  
  7. #     │  items.py  
  8. #     │  middlewares.py  
  9. #     │  pipelines.py  
  10. #     │  settings.py  
  11. #     │  __init__.py  
  12. #     │  
  13. #     ├─spiders  
  14. #     │  │  __init__.py  
  15. #     │  │  
  16. #     │  └─__pycache__  
  17. #     └─__pycache__  
  18. # 执行 需要到scrapy.cfg同级别的目录执行  
  19. scrapy crawl sexy 

从上可知,我们要写的是spiders里的具体的spider类和items.py和pipelines.py(对应的ITEM PIPELINES)

5. 开始scrapy爬虫

5.1 简单而强大的spider

这里实现的功能是从图片网站中下载图片,保存在本地, url做了脱敏。需要注意的点在注释要标明

  •  类要继承 scrapy.Spider
  •  取一个唯一的name
  •  爬取的网站url加到start_urls列表里
  •  重写parse利用xpath解析reponse的内容

可以看到parse实现的时候没有转发给ITEM PIPELINES,直接处理了。这样简单的可以这么处理,如果业务很复杂,建议交给ITEM PIPELINES。后面会给例子 

  1. # 目录结果为:spiders/sexy_spider.py  
  2. import scrapy  
  3. import os  
  4. import requests  
  5. import time  
  6. def download_from_url(url):  
  7.     response = requests.get(url, stream=True 
  8.     if response.status_code == requests.codes.ok:  
  9.         return response.content  
  10.     else:  
  11.         print('%s-%s' % (url, response.status_code))  
  12.         return None  
  13. class SexySpider(scrapy.Spider):  
  14.    # 如果有多个spider, name要唯一  
  15.     name = 'sexy'  
  16.     allowed_domains = ['uumdfdfnt.94demo.com']  
  17.     allowed_urls = ['http://uumdfdfnt.94demo.com/']  
  18.     # 需要爬取的网站url加到start_urls list里  
  19.     start_urls = ['http://uumdfdfnt.94demo.com/tag/dingziku/index.html']  
  20.     save_path = '/home/sexy/dingziku'  
  21.     def parse(self, response):  
  22.         # 解析网站,获取图片列表  
  23.         img_list = response.xpath('//div[@class="taglist"]/ul//li//a//img/@data-original').getall()  
  24.         time.sleep(1)  
  25.         # 处理图片, 具体业务操作, 可交给items, 见5.2 items例子  
  26.         for img_url in img_list:  
  27.             file_name = img_url.split('/')[-1]  
  28.             content = download_from_url(img_url)  
  29.             if content is not None:  
  30.                 with open(os.path.join(self.save_path, file_name), 'wb') as fw:  
  31.                     fw.write(content)  
  32.         # 自动下一页(见5.3 自动下一页)  
  33.         next_page = response.xpath('//div[@class="page both"]/ul/a[text()="下一页"]/@href').get()  
  34.         if next_page is not None:  
  35.             next_page = response.urljoin(next_page)  
  36.             yield scrapy.Request(next_page, callback=self.parse) 

5.2 items和pipline例子

这里说明下两个的作用

  •  items:提供一个字段存储, spider会将数据存在这里
  •  pipline:会从items取数据,进行业务操作,比如5.1中的保存图片;又比如存储到数据库中等

我们来改写下上面的例子

  •  items.py其实就是定义字段scrapy.Field() 
  1. import scrapy 
  2. class SexyItem(scrapy.Item):  
  3.     # define the fields for your item here like:  
  4.     # name = scrapy.Field()  
  5.     img_url = scrapy.Field() 
  •  spiders/sexy_spider.py 
  1. import scrapy  
  2. import os  
  3. # 导入item  
  4. from ..items import SexyItem  
  5. class SexySpider(scrapy.Spider): 
  6.    # 如果有多个spider, name要唯一  
  7.     name = 'sexy'  
  8.     allowed_domains = ['uumdfdfnt.94demo.com']  
  9.     allowed_urls = ['http://uumdfdfnt.94demo.com/']  
  10.     # 需要爬取的网站url加到start_urls list里  
  11.     start_urls = ['http://uumdfdfnt.94demo.com/tag/dingziku/index.html']  
  12.     save_path = '/home/sexy/dingziku'  
  13.     def parse(self, response):  
  14.         # 解析网站,获取图片列表  
  15.         img_list = response.xpath('//div[@class="taglist"]/ul//li//a//img/@data-original').getall()  
  16.         time.sleep(1)  
  17.         # 处理图片, 具体业务操作, 可交给yield items  
  18.         for img_url in img_list:  
  19.             items = SexyItem()  
  20.             items['img_url'] = img_url  
  21.             yield items 
  •  pipelines.py 
  1. import os  
  2. import requests  
  3. def download_from_url(url):  
  4.     response = requests.get(url, stream=True 
  5.     if response.status_code == requests.codes.ok:  
  6.         return response.content  
  7.     else:  
  8.         print('%s-%s' % (url, response.status_code))  
  9.         return None 
  10.  class SexyPipeline(object):  
  11.     def __init__(self):  
  12.         self.save_path = '/tmp'  
  13.     def process_item(self, item, spider):  
  14.         if spider.name == 'sexy':  
  15.             # 取出item里内容  
  16.             img_url = item['img_url']           
  17.              # 业务处理  
  18.             file_name = img_url.split('/')[-1]  
  19.             content = download_from_url(img_url)  
  20.             if content is not None:  
  21.                 with open(os.path.join(self.save_path, file_name), 'wb') as fw:  
  22.                     fw.write(content)  
  23.         return item 
  •  重要的配置要开启在settings.py中开启piplines类,数值表示优先级 
  1. ITEM_PIPELINES = {  
  2.    'sexy.pipelines.SexyPipeline': 300,  

5.3 自动下一页

有时候我们不仅要爬取请求页面中的内容,还要递归式的爬取里面的超链接url,特别是下一页这种,解析内容和当前页面相同的情况下。一种笨方法是手动加到start_urls里。大家都是聪明人来试试这个。

  •  先在页面解析下下一页的url
  •  scrapy.Request(next_page, callback=self.parse) 发起一个请求,并调用parse来解析,当然你可以用其他的解析

完美了,完整例子见5.1 

  1. next_page = response.xpath('//div[@class="page both"]/ul/a[text()="下一页"]/@href').get()  
  2. if next_page is not None:  
  3.    next_page = response.urljoin(next_page)  
  4.    yield scrapy.Request(next_page, callback=self.parse) 

5.4 中间件

  •  下载中间件 中间件的作用是提供一些常用的钩子Hook来增加额外的操作。中间件的操作是在middlewares.py。可以看到主要是处理请求process_request,响应process_response和异常process_exception三个钩子函数。
  •  处理请求process_request: 传给DOWNLOADER之前做的操作
  •  响应process_response:DOWNLOADER给ENGIINE响应之前的操作

这里举一个添加模拟浏览器请求的方式,防止爬虫被封锁。重写process_request 

  1. from scrapy.contrib.downloadermiddleware.useragent import UserAgentMiddleware  
  2. import random  
  3. agents = ['Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Trident/5.0;',  
  4.               'Mozilla/5.0 (Macintosh; Intel Mac OS X 10.6; rv,2.0.1) Gecko/20100101 Firefox/4.0.1',  
  5.               'Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; en) Presto/2.8.131 Version/11.11',  
  6.               'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_0) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11',  
  7.               'Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; 360SE)']  
  8. class RandomUserAgent(UserAgentMiddleware):  
  9.     def process_request(self, request, spider):  
  10.         ua = random.choice(agents)  
  11.         request.headers.setdefault('User-agent',ua,) 

统一要在settings.py中开启下载中间件,数值表示优先级 

  1. DOWNLOADER_MIDDLEWARES = {  
  2.     'sexy.middlewares.customUserAgent.RandomUserAgent': 20,  

5.5 可用配置settings.py

除了上面提供的pipline配置开启和中间件配置外,下面介绍几个常用的配置

  •  爬虫机器人规则:ROBOTSTXT_OBEY = False, 如果要爬取的网站有设置robots.txt,最好设置为False
  •  CONCURRENT_REQUESTS:并发请求
  •  DOWNLOAD_DELAY:下载延迟,可以适当配置,避免把网站也爬挂了。

所有的配置详见 https://doc.scrapy.org/en/latest/topics/settings.html

6. 总结

相信从上面的介绍,你已经可以动手写一个你自己的爬虫了。我也完成了做笔记的任务了。scrapy还提供更加详细的细节,可参见https://docs.scrapy.org/en/latest/

最后总结如下:

  •  scrapy是基于事件驱动Twisted框架的爬虫框架。ENGIINE是核心,负责串起其他组件
  •  开发只要编写spider和item pipline和中间件, download和schedule交给框架
  •  scrapy crawl 你的爬虫name,name要唯一
  •  爬取的url放在start_urls, spider会自动Request的,parse来解析
  •  pipline和中间件要记得在settings中开启
  •  关注下settings的常用配置,需要时看下文档 

 

责任编辑:庞桂玉 来源: Python中文社区
相关推荐

2021-03-23 15:35:36

Adam优化语言

2021-03-12 09:45:00

Python关联规则算法

2020-12-17 10:00:16

Python协程线程

2021-01-29 11:25:57

Python爬山算法函数优化

2021-01-11 09:33:37

Maven数目项目

2020-02-17 13:45:27

抓取代码工具

2017-01-10 09:07:53

tcpdumpGET请求

2020-10-27 10:43:24

Redis字符串数据库

2020-10-14 11:31:41

Docker

2021-12-17 07:47:37

IT风险框架

2023-03-27 09:40:01

GoWebAssembl集成

2021-01-27 18:15:01

Docker底层宿主机

2024-03-21 09:51:22

Python爬虫浏览网站

2021-06-07 09:51:22

原型模式序列化

2021-10-20 06:58:10

工具低代码无代码

2018-01-30 05:04:06

2020-12-01 12:44:44

PythonHook钩子函数

2021-04-19 23:29:44

MakefilemacOSLinux

2009-11-17 14:50:50

Oracle调优

2020-11-24 11:50:52

Python文件代码
点赞
收藏

51CTO技术栈公众号