PyQuery解析网页用法入门讲解

开发 后端
在使用pyquery解析库之前,首先简单介绍一下pyquery然后讲解如何安装pyquery库。Pyquery也是一个功能很强大的网页解析库,它支持对xml、html文档进行jQuery查询。

1. Pyquery的安装

在使用pyquery解析库之前,首先简单介绍一下pyquery然后讲解如何安装pyquery库。

  • pyquery的基础概念

Pyquery也是一个功能很强大的网页解析库,它支持对xml、html文档进行jQuery查询。

  • 安装pyquery

pyquery的安装其实很简单,下面介绍两种不同的安装方式(适用不同的操作系统)。

  1. #方式一:pip安装 pip install pyquery    
  2.  
  3. #方式二:wheel安装  
  4. #下载对应系统版本的wheel文件:http://www.lfd.uci.edu/~gohlke/pythonlibs/  
  5. pip install pyquery-1.4.3-py3-non-any.whl 

方式一:安装比较简单,通过pip install pyquery命令就可以直接安装;

方式二:首先需要下载whl文件,然后再去安装。

其下载链接为:http://www.lfd.uci.edu/~gohlke/pythonlibs/#lxml。

进入这个链接后找到pyquery-1.4.3-py3-none-any.whl,并将其下载到本地。

2. Pyquery的使用方法

通过上述方法安装好pyquery之后,我们开始导入pyquery,并通过一个例子去了解pyquery的基本使用方法。首先构造了一段html源码,然后初始化为pyquery对象。

完整代码如下:

  1. from pyquery import PyQuery as pq 
  2. html = ''
  3. <div id = "container"
  4.     <ul> 
  5.         <li>第1个</li> 
  6.         <li><a href = "link2.html">第2个</a></li> 
  7.         <li class = "i0 active"><a href = "link3.html"><span>第3个</span></a></li> 
  8.         <li class = "i1 active"><a href = "link4.html">第4个</a></li> 
  9.         <li><a href = "link5.html">第5个</a></li> 
  10.     </ul> 
  11. </div> 
  12. ''
  13. py= pq(html) 
  • 获取标签元素

目标:比如我们需要获取html中的li标签

  1. #方式一 
  2. print(py('li')) 
  3.  
  4. #方式二 
  5. # 注意下面id 前面需要加上#,class 前面需要加上. 
  6. print(py('#container .list li')) 

这里有两种获取方式,第一种比较简单,第二种方法定位更加准确。针对上述的html源码,这两种方式获取的结果是一样的,其结果如下:

  1. <li>第1个</li> 
  2. <li><a href="link2.html">第2个</a></li> 
  3. <li class="i0 active"><a href="link3.html"><span>第3个</span></a></li> 
  4. <li class="i1 active"><a href="link4.html">第4个</a></li> 
  5. <li><a href="link5.html">第5个</a></li> 
  • 查询子级标签元素

目标:获取class为list的ul标签下的所有子标签(li标签),其代码如下:

  1. items = py('.list'
  2. lis = items.children() 
  3. print(lis) 

最后打印输出的结果同上,都是把所有的li标签打印输出。

  • 查询父级标签元素

目标:获取class为list的ul标签的上一级标签(div标签),其代码如下:

  1. items = py('.list'
  2. pa = items.parent() 
  3. print(pa) 

打印输出结果:

  1. <div id="container"
  2.     <ul> 
  3.         <li>第1个</li> 
  4.         <li><a href="link2.html">第2个</a></li> 
  5.         <li class="i0 active"><a href="link3.html"><span>第3个</span></a></li> 
  6.         <li class="i1 active"><a href="link4.html">第4个</a></li> 
  7.         <li><a href="link5.html">第5个</a></li> 
  8.     </ul> 
  9. </div> 
  • 获取元素信息

目标:获取class为i0 active的a标签元素,并提取出a标签元素的相关信息

  1. a = py('.i0.active a'
  2. # 标签内容 
  3. print(a) 
  4. # 获取属性(两种方式) 
  5. print(a.attr.href) 
  6. print(a.attr('href')) 
  7. # 获取文本 
  8. print(a.text()) 
  9. # 获取<a>标签里的源码 
  10. print(a.html()) 

结果:

  1. <a href="link3.html"><span>第3个</span></a> 
  2. link3.html 
  3. link3.html 
  4. 第3个 
  5. <span>第3个</span> 

3. 实战:抓取由关键字搜索的结果

内容:抓取小说网站由关键字搜索的结果,并采集结果中小说的书名和链接

思路:首先在小说网站里面搜索关键字:斗罗,然后利用爬虫抓取搜索返回的结果中小说的书名和链接,这过程中通过pyquery去解析网页源码,最后提取出数据。

链接:http://book.chenlove.cn/search.html?keyword=斗罗

在浏览器中访问链接:

在编写之前先分析一下网页源码:

查看源代码,可以知道每一本书的数据都在class为bigpic-book-name的a标签中,首先使用pyquery去解析其a标签,然后进行循环遍历。

完整代码如下:

  1. from pyquery import PyQuery as pq 
  2. import requests 
  3. # 设置代理服务器 
  4. headers = { 
  5.     'User_Agent''Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.114 Safari/537.36' 
  6. #请求连接 
  7. url = "http://book.chenlove.cn/search.html?keyword=斗罗" 
  8. response = requests.get(url, headers=headers) 
  9. if response.status_code == 200: 
  10.     # 转化为utf-8格式,不加这条语句,输出爬取的信息为乱码 
  11.     response.encoding = 'utf8' 
  12.     # 把网页解析为pyquery对象 
  13.     py = pq(response.text) 
  14.     a_list = py('.bigpic-book-name').items() 
  15.     for i in a_list: 
  16.         # 获取书名 
  17.         print(i.text()) 
  18.         # 获取书名链接 
  19.         print(i.attr('href')) 

上一小节我们学会了如何去提取a标签中的内容和链接,同样的这里一样使用text()和attr()去解析内容和链接。

结果:

  1. 智行斗罗 
  2. /novel/235.html 
  3. 从炸掉魂环开始的斗罗 
  4. /novel/219.html 
  5. 旅途从斗罗开始 
  6. /novel/195.html 
  7. 斗罗之卡BUG 
  8. /novel/159.html 
  9. 终极斗罗 
  10. /novel/54.html 

本文转载自微信公众号「Python研究者」,可以通过以下二维码关注。转载本文请联系Python研究者公众号。

 

责任编辑:武晓燕 来源: Python研究者
相关推荐

2010-06-03 18:22:38

Hadoop

2023-12-01 08:31:20

HTML解析库

2010-05-27 17:17:37

Subversion入

2009-12-14 15:56:40

网页编辑器Bluefi

2017-09-08 15:04:10

jQuery爬虫PyQuery

2010-06-03 18:32:51

Hadoop

2010-07-13 13:49:43

Perl foreac

2009-12-07 15:29:51

Juniper路由器入

2009-11-18 14:53:59

PHP Session

2010-07-14 15:32:21

Perl转义字符

2011-07-29 15:09:48

iPhone Category

2010-07-16 13:10:36

Perl哈希表

2010-02-02 11:27:16

C++字符串

2010-07-16 16:56:01

Perl构造函数

2010-07-16 08:47:53

Perl if语句

2010-07-20 09:45:04

Perl继承

2010-06-11 17:59:24

UML对象图

2010-07-19 14:13:41

Perl函数

2010-08-12 09:11:09

Flex弹出窗口

2010-07-15 10:22:23

Perl控制结构
点赞
收藏

51CTO技术栈公众号