爬虫解析提取数据的四种方法

开发 后端
本文分别利用正则表达式、BeautifulSoup、PyQuery、Xpath来解析提取数据,并将豆瓣电影 Top250 信息保存到本地。

 一、分析网页

以经典的爬取豆瓣电影 Top250 信息为例。每条电影信息在 ol class 为 grid_view 下的 li 标签里,获取到所有 li 标签的内容,然后遍历,就可以从中提取出每一条电影的信息。

翻页查看url变化规律: 

  1. 第1页:https://movie.douban.com/top250?start=0&filter 
  2. 第2页:https://movie.douban.com/top250?start=25&filter 
  3. 第3页:https://movie.douban.com/top250?start=50&filter 
  4. 第10页:https://movie.douban.com/top250?start=225&filter

start参数控制翻页,start = 25  * (page - 1)

本文分别利用正则表达式、BeautifulSoup、PyQuery、Xpath来解析提取数据,并将豆瓣电影 Top250 信息保存到本地。

二、正则表达式

正则表达式是一个特殊的字符序列,它能帮助你方便地检查一个字符串是否与某种模式匹配,常用于数据清洗,也可以顺便用于爬虫,从网页源代码文本中匹配出我们想要的数据。

re.findall

  •  在字符串中找到正则表达式所匹配的所有子串,并返回一个列表,如果没有找到匹配的,则返回空列表。
  •  注意:match和 search 是匹配一次;而 findall 匹配所有。
  •  语法格式为:findall(string[, pos[, endpos]])
  •  string : 待匹配的字符串;pos : 可选参数,指定字符串的起始位置,默认为 0;endpos : 可选参数,指定字符串的结束位置,默认为字符串的长度。

示例如下: 

  1. import re  
  2. text = "" 
  3. <div class="box picblock col3" style="width:186px;height:264px">  
  4. <img src2="http://pic2.sc.chinaz.com/Files/pic/pic9/202007/apic26584_s.jpg" 123nfsjgnalt="山水风景摄影图片">  
  5. <a target="_blank" href="http://sc.chinaz.com/tupian/200509002684.htm"  
  6. <img src2="http://pic2.sc.chinaz.com/Files/pic/pic9/202007/apic26518_s.jpg" enrberonbialt="山脉湖泊山水风景图片">  
  7. <a target="_blank" href="http://sc.chinaz.com/tupian/200509002684.htm"  
  8. <img src2="http://pic2.sc.chinaz.com/Files/pic/pic9/202006/apic26029_s.jpg" woenigoigniefnirneialt="旅游景点山水风景图片">  
  9. <a target="_blank" href="http://sc.chinaz.com/tupian/200509002684.htm"  
  10. """  
  11. pattern = re.compile(r'\d+')  # 查找所有数字  
  12. result1 = pattern.findall('me 123 rich 456 money 1000000000000')  
  13. print(result1) 
  14. img_info = re.findall('<img src2="(.*?)" .*alt="(.*?)">', text)  # 匹配src2 alt里的内容  
  15. for src, alt in img_info:  
  16.     print(src, alt)  
  17. ['123', '456', '1000000000000']  
  18. http://pic2.sc.chinaz.com/Files/pic/pic9/202007/apic26584_s.jpg 山水风景摄影图片  
  19. http://pic2.sc.chinaz.com/Files/pic/pic9/202007/apic26518_s.jpg 山脉湖泊山水风景图片  
  20. http://pic2.sc.chinaz.com/Files/pic/pic9/202006/apic26029_s.jpg 旅游景点山水风景图片 

代码如下: 

  1. # -*- coding: UTF-8 -*-  
  2. """  
  3. @Author  :叶庭云  
  4. @公众号  :修炼Python  
  5. @CSDN    :https://yetingyun.blog.csdn.net/  
  6. """  
  7. import requests  
  8. import re  
  9. from pandas import DataFrame 
  10. from fake_useragent import UserAgent  
  11. import logging  
  12. # 日志输出的基本配置  
  13. logging.basicConfig(level=logging.INFO, format='%(asctime)s - %(levelname)s: %(message)s' 
  14. # 随机产生请求头  
  15. ua = UserAgent(verify_ssl=Falsepath='fake_useragent.json' 
  16. def random_ua():  
  17.     headers = {  
  18.         "Accept-Encoding": "gzip",  
  19.         "Connection": "keep-alive",  
  20.         "User-Agent": ua.random  
  21.     }  
  22.     return headers  
  23. def scrape_html(url):  
  24.     resp = requests.get(url, headers=random_ua())  
  25.     # print(resp.status_code, type(resp.status_code))  
  26.     if resp.status_code == 200:  
  27.         return resp.text 
  28.      else:  
  29.         logging.info('请求网页失败')  
  30. def get_data(page):  
  31.     url = f"https://movie.douban.com/top250?start={25 * page}&filter="  
  32.     html_text = scrape_html(url)  
  33.     # 电影名称  导演 主演  
  34.     name = re.findall('<img width="100" alt="(.*?)" src=".*"', html_text)  
  35.     director_actor = re.findall('(.*?)<br>', html_text)  
  36.     director_actor = [item.strip() for item in director_actor]  
  37.     # 上映时间  上映地区  电影类型信息   去除两端多余空格  
  38.     info = re.findall('(.*)&nbsp;/&nbsp;(.*)&nbsp;/&nbsp;(.*)', html_text)  
  39.     time_ = [x[0].strip() for x in info]  
  40.     area = [x[1].strip() for x in info]  
  41.     genres = [x[2].strip() for x in info]  
  42.     # 评分  评分人数  
  43.     rating_score = re.findall('<span class="rating_num" property="v:average">(.*)</span>', html_text)  
  44.     rating_num = re.findall('<span>(.*?)人评价</span>', html_text)  
  45.     # 一句话引言  
  46.     quote = re.findall('<span class="inq">(.*)</span>', html_text)  
  47.     data = {'电影名': name, '导演和主演': director_actor,  
  48.             '上映时间': time_, '上映地区': area, '电影类型': genres,  
  49.             '评分': rating_score, '评价人数': rating_num, '引言': quote} 
  50.      df = DataFrame(data)  
  51.     if page == 0:  
  52.         df.to_csv('movie_data2.csv', mode='a+'header=Trueindex=False 
  53.     else:  
  54.         df.to_csv('movie_data2.csv', mode='a+'header=Falseindex=False 
  55.     logging.info(f'已爬取第{page + 1}页数据')  
  56. if __name__ == '__main__':  
  57.     for i in range(10):  
  58.         get_data(i) 

三、BeautifulSoup

find( )与 find_all( ) 是 BeautifulSoup 对象的两个方法,它们可以匹配 html 的标签和属性,把 BeautifulSoup 对象里符合要求的数据都提取出来:

  •  find( )只提取首个满足要求的数据
  •  find_all( )提取出的是所有满足要求的数据
  •  find( ) 或 find_all( ) 括号中的参数:标签和属性可以任选其一,也可以两个一起使用,这取决于我们要在网页中提取的内容。括号里的class_,这里有一个下划线,是为了和 python 语法中的类 class 区分,避免程序冲突。当然,除了用 class 属性去匹配,还可以使用其它属性,比如 style 属性等;只用其中一个参数就可以准确定位的话,就只用一个参数检索。如果需要标签和属性同时满足的情况下才能准确定位到我们想找的内容,那就两个参数一起使用。

代码如下: 

  1. # -*- coding: UTF-8 -*-  
  2. """  
  3. @Author  :叶庭云  
  4. @公众号  :修炼Python  
  5. @CSDN    :https://yetingyun.blog.csdn.net/  
  6. """  
  7. import requests  
  8. from bs4 import BeautifulSoup  
  9. import openpyxl  
  10. from fake_useragent import UserAgent  
  11. import logging  
  12. # 日志输出的基本配置  
  13. logging.basicConfig(level=logging.INFO, format='%(asctime)s - %(levelname)s: %(message)s' 
  14. # 随机产生请求头  
  15. ua = UserAgent(verify_ssl=Falsepath='fake_useragent.json' 
  16. wb = openpyxl.Workbook()    # 创建工作簿对象  
  17. sheet = wb.active           # 获取工作簿的活动表  
  18. sheet.title = "movie"       # 工作簿重命名  
  19. sheet.append(["排名", "电影名", "导演和主演", "上映时间", "上映地区", "电影类型", "评分", "评价人数", "引言"])  
  20. def random_ua():  
  21.     headers = {  
  22.         "Accept-Encoding": "gzip",  
  23.         "Connection": "keep-alive",  
  24.         "User-Agent": ua.random  
  25.     }  
  26.     return headers  
  27. def scrape_html(url):  
  28.     resp = requests.get(url, headers=random_ua())  
  29.     # print(resp.status_code, type(resp.status_code))  
  30.     if resp.status_code == 200:  
  31.         return resp.text  
  32.     else: 
  33.          logging.info('请求网页失败')  
  34. def get_data(page):  
  35.     global rank  
  36.     url = f"https://movie.douban.com/top250?start={25 * page}&filter="  
  37.     html_text = scrape_html(url)  
  38.     soup = BeautifulSoup(html_text, 'html.parser')  
  39.     lis = soup.find_all('div', class_='item' 
  40.     for li in lis:  
  41.         name = li.find('div', class_='hd').a.span.text  
  42.         temp = li.find('div', class_='bd').p.text.strip().split('\n')  
  43.         director_actor = temp[0]  
  44.         temptemp1 = temp[1].rsplit('/', 2)  
  45.         time_, area, genres = [item.strip() for item in temp1]  
  46.         quote = li.find('p', class_='quote' 
  47.         # 有些电影信息没有一句话引言  
  48.         if quote:  
  49.             quotequote = quote.span.text  
  50.         else:  
  51.             quote = None  
  52.         rating_score = li.find('span', class_='rating_num').text  
  53.         rating_num = li.find('div', class_='star').find_all('span')[-1].text  
  54.         sheet.append([rank, name, director_actor, time_, area, genres, rating_score, rating_num, quote])  
  55.         logging.info([rank, name, director_actor, time_, area, genres, rating_score, rating_num, quote])  
  56.         rank += 1 
  57. if __name__ == '__main__':  
  58.     rank = 1  
  59.     for i in range(10):  
  60.         get_data(i)  
  61.     wb.save(filename='movie_info4.xlsx'

四、PyQuery

  •  每个网页,都有一定的特殊结构和层级关系,并且很多节点都有 id 或 class 作为区分,我们可以借助它们的结构和属性来提取信息。
  •  强大的 HTML 解析库:pyquery,利用它,我们可以直接解析 DOM 节点的结构,并通过 DOM 节点的一些属性快速进行内容提取。

如下示例:在解析 HTML 文本的时候,首先需要将其初始化为一个 pyquery 对象。它的初始化方式有多种,比如直接传入字符串、传入 URL、传入文件名等等。 

  1. from pyquery import PyQuery as pq  
  2. html = '' 
  3. <div>  
  4.     <ul class="clearfix">  
  5.         <li class="item-0">first item</li>  
  6.         <li class="item-1"><a href="link2.html">second item</a></li>  
  7.         <li><img src="http://pic.netbian.com/uploads/allimg/210107/215736-1610027856f6ef.jpg"></li>  
  8.         <li><img src="http://pic.netbian.com//uploads/allimg/190902/152344-1567409024af8c.jpg"></li>   
  9.     </ul>  
  10. </div>  
  11. '''  
  12. doc = pq(html)  
  13. print(doc('li')) 

结果如下: 

  1. <li class="item-0">first item</li>  
  2. <li class="item-1"><a href="link2.html">second item</a></li>  
  3. <li><img src="http://pic.netbian.com/uploads/allimg/210107/215736-1610027856f6ef.jpg"/></li>  
  4. <li><img src="http://pic.netbian.com//uploads/allimg/190902/152344-1567409024af8c.jpg"/></li>   

首先引入 pyquery 这个对象,取别名为 pq,然后定义了一个长 HTML 字符串,并将其当作参数传递给 pyquery 类,这样就成功完成了初始化。接下来,将初始化的对象传入 CSS 选择器。在这个实例中,我们传入 li 节点,这样就可以选择所有的 li 节点。

代码如下: 

  1. # -*- coding: UTF-8 -*-  
  2. """  
  3. @Author  :叶庭云  
  4. @公众号  :修炼Python  
  5. @CSDN    :https://yetingyun.blog.csdn.net/  
  6. """  
  7. import requests  
  8. from pyquery import PyQuery as pq  
  9. import openpyxl  
  10. from fake_useragent import UserAgent  
  11. import logging  
  12. # 日志输出的基本配置  
  13. logging.basicConfig(level=logging.INFO, format='%(asctime)s - %(levelname)s: %(message)s' 
  14. # 随机产生请求头  
  15. ua = UserAgent(verify_ssl=Falsepath='fake_useragent.json' 
  16. wb = openpyxl.Workbook()    # 创建工作簿对象  
  17. sheet = wb.active           # 获取工作簿的活动表  
  18. sheet.title = "movie"       # 工作簿重命名  
  19. sheet.append(["排名", "电影名", "导演和主演", "上映时间", "上映地区", "电影类型", "评分", "评价人数", "引言"])  
  20. def random_ua():  
  21.     headers = {  
  22.         "Accept-Encoding": "gzip",  
  23.         "Connection": "keep-alive",  
  24.         "User-Agent": ua.random  
  25.     }  
  26.     return headers   
  27. def scrape_html(url):  
  28.     resp = requests.get(url, headers=random_ua())  
  29.     # print(resp.status_code, type(resp.status_code))  
  30.     if resp.status_code == 200:  
  31.         return resp.text 
  32.      else:  
  33.         logging.info('请求网页失败')  
  34. def get_data(page):  
  35.     global rank  
  36.     url = f"https://movie.douban.com/top250?start={25 * page}&filter="  
  37.     html_text = scrape_html(url)  
  38.     doc = pq(html_text)  
  39.     lis = doc('.grid_view li')  
  40.     for li in lis.items():  
  41.         name = li('.hd a span:first-child').text()  
  42.         temp = li('.bd p:first-child').text().split('\n')  
  43.         director_actor = temp[0]  
  44.         temptemp1 = temp[1].rsplit('/', 2)  
  45.         time_, area, genres = [item.strip() for item in temp1]  
  46.         quote = li('.quote span').text()  
  47.         rating_score = li('.star .rating_num').text()  
  48.         rating_num = li('.star span:last-child').text()  
  49.         sheet.append([rank, name, director_actor, time_, area, genres, rating_score, rating_num, quote])  
  50.         logging.info([rank, name, director_actor, time_, area, genres, rating_score, rating_num, quote])  
  51.         rank += 1 
  52. if __name__ == '__main__':  
  53.     rank = 1  
  54.     for i in range(10):  
  55.         get_data(i)  
  56.     wb.save(filename='movie_info3.xlsx'

五、Xpath

Xpath是一个非常好用的解析方法,同时也作为爬虫学习的基础,在后面的 Selenium 以及 Scrapy 框架中也会涉及到这部分知识。

首先我们使用 lxml 的 etree 库,然后利用 etree.HTML 初始化,然后我们将其打印出来。其中,这里体现了 lxml 的一个非常实用的功能就是自动修正 html 代码,大家应该注意到了,最后一个 li 标签,其实我把尾标签删掉了,是不闭合的。不过,lxml 因为继承了 libxml2 的特性,具有自动修正 HTML 代码的功能,通过 xpath 表达式可以提取标签里的内容,如下所示: 

  1. from lxml import etree  
  2. text = '' 
  3. <div>  
  4.     <ul>  
  5.          <li class="item-0"><a href="link1.html">first item</a></li>  
  6.          <li class="item-1"><a href="link2.html">second item</a></li>  
  7.          <li class="item-inactive"><a href="link3.html">third item</a></li>  
  8.          <li class="item-1"><a href="link4.html">fourth item</a></li>  
  9.          <li class="item-0"><a href="link5.html">fifth item</a>  
  10.      </ul>  
  11.  </div>  
  12. '''  
  13. html = etree.HTML(text)  
  14. result = etree.tostring(html)  
  15. result1 = html.xpath('//li/@class')   # xpath表达式  
  16. print(result1)  
  17. print(result)  
  1. ['item-0', 'item-1', 'item-inactive', 'item-1', 'item-0']  
  2. <html><body>  
  3. <div>  
  4.     <ul>  
  5.          <li class="item-0"><a href="link1.html">first item</a></li> 
  6.          <li class="item-1"><a href="link2.html">second item</a></li>  
  7.          <li class="item-inactive"><a href="link3.html">third item</a></li>  
  8.          <li class="item-1"><a href="link4.html">fourth item</a></li>  
  9.          <li class="item-0"><a href="link5.html">fifth item</a></li>  
  10.     </ul>  
  11. </div> 
  12. </body></html> 

代码如下: 

  1. # -*- coding: UTF-8 -*-  
  2. """  
  3. @Author  :叶庭云  
  4. @公众号  :修炼Python  
  5. @CSDN    :https://yetingyun.blog.csdn.net/  
  6. """  
  7. import requests  
  8. from lxml import etree  
  9. import openpyxl  
  10. from fake_useragent import UserAgent  
  11. import logging  
  12. # 日志输出的基本配置  
  13. logging.basicConfig(level=logging.INFO, format='%(asctime)s - %(levelname)s: %(message)s') 
  14. # 随机产生请求头  
  15. ua = UserAgent(verify_ssl=Falsepath='fake_useragent.json' 
  16. wb = openpyxl.Workbook()    # 创建工作簿对象  
  17. sheet = wb.active           # 获取工作簿的活动表  
  18. sheet.title = "movie"       # 工作簿重命名  
  19. sheet.append(["排名", "电影名", "导演和主演", "上映时间", "上映地区", "电影类型", "评分", "评价人数", "引言"])  
  20. def random_ua():  
  21.     headers = {  
  22.         "Accept-Encoding": "gzip",  
  23.         "Connection": "keep-alive",  
  24.         "User-Agent": ua.random  
  25.     }  
  26.     return headers  
  27. def scrape_html(url):  
  28.     resp = requests.get(url, headers=random_ua())  
  29.     # print(resp.status_code, type(resp.status_code))  
  30.     if resp.status_code == 200:  
  31.         return resp.text  
  32.     else:  
  33.         logging.info('请求网页失败')  
  34. def get_data(page):  
  35.     global rank  
  36.     url = f"https://movie.douban.com/top250?start={25 * page}&filter="  
  37.     html = etree.HTML(scrape_html(url))  
  38.     lis = html.xpath('//ol[@class="grid_view"]/li')  
  39.     # 每个li标签里有每部电影的基本信息  
  40.     for li in lis:  
  41.         name = li.xpath('.//div[@class="hd"]/a/span[1]/text()')[0]  
  42.         director_actor = li.xpath('.//div[@class="bd"]/p/text()')[0].strip()  
  43.         info = li.xpath('.//div[@class="bd"]/p/text()')[1].strip()  
  44.         # 按"/"切割成列表  
  45.         _info = info.split("/")  
  46.         # 得到 上映时间  上映地区  电影类型信息   去除两端多余空格  
  47.         time_, area, genres = _info[0].strip(), _info[1].strip(), _info[2].strip()  
  48.         # print(time, area, genres)  
  49.         rating_score = li.xpath('.//div[@class="star"]/span[2]/text()')[0]  
  50.         rating_num = li.xpath('.//div[@class="star"]/span[4]/text()')[0]  
  51.         quote = li.xpath('.//p[@class="quote"]/span/text()')  
  52.         # 有些电影信息没有一句话引言  加条件判断  防止报错  
  53.         if len(quote) == 0:  
  54.             quote = None  
  55.         else:  
  56.             quotequote = quote[0]  
  57.         sheet.append([rank, name, director_actor, time_, area, genres, rating_score, rating_num, quote])  
  58.         logging.info([rank, name, director_actor, time_, area, genres, rating_score, rating_num, quote])  
  59.         rank += 1  
  60. if __name__ == '__main__':  
  61.     rank = 1  
  62.     for i in range(10):  
  63.         get_data(i) 
  64.      wb.save(filename='movie_info1.xlsx'

六、总结

  •  爬取网页数据用正则表达式的话,可以直接从网页源代码文本中匹配,但出错率较高,且熟悉正则表达式的使用也比较难,需要经常翻阅文档。
  •  实际爬取数据大多基于 HTML 结构的 Web 页面,网页节点较多,各种层级关系。可以考虑使用 Xpath 解析器、BeautifulSoup解析器、PyQuery CSS解析器抽取结构化数据,使用正则表达式抽取非结构化数据。
  •  Xpath:可在 XML 中查找信息;支持 HTML 的查找 ;通过元素和属性进行导航,查找效率很高。在学习 Selenium 以及 Scrapy 框架中也都会用到。
  •  BeautifulSoup:依赖于 lxml 的解析库,也可以从 HTML 或 XML 文件中提取数据。
  •  PyQuery:Python仿照 jQuery 严格实现,可以直接解析 DOM 节点的结构,并通过 DOM 节点的一些属性快速进行内容提取。

对于爬取网页结构简单的 Web 页面,有些代码是可以复用的,如下所示: 

  1. from fake_useragent import UserAgent  
  2. # 随机产生请求头  
  3. ua = UserAgent(verify_ssl=Falsepath='fake_useragent.json' 
  4. def random_ua():  
  5.     headers = {  
  6.         "Accept-Encoding": "gzip",  
  7.         "User-Agent": ua.random  
  8.     }  
  9.     return headers 

伪装请求头,并可以随机切换,封装为函数,便于复用。 

  1. def scrape_html(url):  
  2.     resp = requests.get(url, headers=random_ua())  
  3.     # print(resp.status_code, type(resp.status_code))  
  4.     # print(resp.text)  
  5.     if resp.status_code == 200:  
  6.         return resp.text  
  7.     else:  
  8.         logging.info('请求网页失败') 

请求网页,返回状态码为 200 说明能正常请求,并返回网页源代码文本。 

 

责任编辑:庞桂玉 来源: Python中文社区 (ID:python-china)
相关推荐

2011-06-22 15:21:08

XML

2009-03-31 13:12:30

解析XMLJava

2020-07-24 09:56:12

React开发数据

2014-03-17 09:22:43

Linux命令

2022-09-02 14:29:01

JavaScrip数组属性

2011-07-06 18:07:16

ASP

2010-08-31 15:51:51

DB2清除数据

2023-03-17 10:51:26

2024-10-16 18:09:54

2022-07-15 14:43:21

数据安全Linux

2009-11-23 15:57:51

PHP伪静态

2020-08-10 00:30:55

备份密码iPhone移动安全

2009-02-25 09:52:14

类型转换.NET 强制转型

2018-03-05 22:25:21

数据中心降低成本停机

2022-11-04 13:35:29

IT远程工作混合工作

2022-12-07 10:28:22

2020-01-21 19:15:23

漏洞安全IT

2021-09-03 11:24:04

云计算云计算环境云应用

2010-08-02 16:47:46

Flex

2010-03-18 17:57:37

Java XMLSoc
点赞
收藏

51CTO技术栈公众号