Python爬虫:手把手教你采集登陆后才能看到数据

开发 前端
爬虫在采集网站的过程中,部分数据价值较高的网站,会限制访客的访问行为。这种时候建议通过登录的方式,获取目标网站的cookie,然后再使用cookie配合代理IP进行数据采集分析。

[[351342]]

 爬虫在采集网站的过程中,部分数据价值较高的网站,会限制访客的访问行为。这种时候建议通过登录的方式,获取目标网站的cookie,然后再使用cookie配合代理IP进行数据采集分析。

1 使用表单登陆

这种情况属于post请求,即先向服务器发送表单数据,服务器再将返回的cookie存入本地。

  1. #! -*- encoding:utf-8 -*- 
  2.  
  3. import requests 
  4.  
  5. import random 
  6.  
  7. import requests.adapters 
  8.  
  9.  
  10.  
  11. # 要访问的目标页面 
  12.  
  13. targetUrlList = [ 
  14.  
  15.     "https://httpbin.org/ip"
  16.  
  17.     "https://httpbin.org/headers"
  18.  
  19.     "https://httpbin.org/user-agent"
  20.  
  21.  
  22.  
  23.  
  24. # 代理服务器(产品官网 www.16yun.cn) 
  25.  
  26. proxyHost = "t.16yun.cn" 
  27.  
  28. proxyPort = "31111" 
  29.  
  30.  
  31.  
  32. # 代理隧道验证信息 
  33.  
  34. proxyUser = "username" 
  35.  
  36. proxyPass = "password" 
  37.  
  38.  
  39.  
  40. proxyMeta = "http://%(user)s:%(pass)s@%(host)s:%(port)s" % { 
  41.  
  42.     "host": proxyHost, 
  43.  
  44.     "port": proxyPort, 
  45.  
  46.     "user": proxyUser, 
  47.  
  48.     "pass": proxyPass, 
  49.  
  50.  
  51.  
  52.  
  53. # 设置 http和https访问都是用HTTP代理 
  54.  
  55. proxies = { 
  56.  
  57.     "http": proxyMeta, 
  58.  
  59.     "https": proxyMeta, 
  60.  
  61.  
  62.  
  63.  
  64. # 访问三次网站,使用相同的Session(keep-alive),均能够保持相同的外网IP 
  65.  
  66. s = requests.session() 
  67.  
  68.  
  69.  
  70. # 设置cookie 
  71.  
  72. cookie_dict = {"JSESSION":"123456789"
  73.  
  74. cookies = requests.utils.cookiejar_from_dict(cookie_dict, cookiejar=None, overwrite=True
  75.  
  76. s.cookies = cookies 
  77.  
  78.  
  79.  
  80. for i in range(3): 
  81.  
  82.     for url in targetUrlList: 
  83.  
  84.         r = s.get(url, proxies=proxies) 
  85.  
  86.         print r.text 

2 使用cookie登陆 

使用cookie登陆,服务器会认为你是一个已登陆的用户,所以就会返回给你一个已登陆的内容。因此,需要验证码的情况可以使用带验证码登陆的cookie解决。

  1. response_captcha = requests_session.get(url=url_login, cookies=cookies) 
  2.   
  3. response1 = requests.get(url_login) # 未登陆 
  4.   
  5. response2 = requests_session.get(url_login) # 已登陆,因为之前拿到了Response Cookie! 
  6.   
  7. response3 = requests_session.get(url_results) # 已登陆,因为之前拿到了Response Cookie! 

若存在验证码,此时采用response = requests_session.post(url=url_login, data=data)是不行的,做法应该如下:

  1. response_captcha = requests_session.get(url=url_login, cookies=cookies) 
  2.   
  3. response1 = requests.get(url_login) # 未登陆 
  4.   
  5. response2 = requests_session.get(url_login) # 已登陆,因为之前拿到了Response Cookie! 
  6.   
  7. response3 = requests_session.get(url_results) # 已登陆,因为之前拿到了Response Cookie! 
  8.   

 【编辑推荐】

 

责任编辑:姜华 来源: 今日头条
相关推荐

2021-05-10 06:48:11

Python腾讯招聘

2020-07-10 08:24:18

Python开发工具

2018-05-16 15:46:06

Python网络爬虫PhantomJS

2018-05-16 13:50:30

Python网络爬虫Scrapy

2018-05-22 15:30:30

Python网络爬虫分布式爬虫

2018-05-14 16:34:08

Python网络爬虫Scrapy

2021-07-14 09:00:00

JavaFX开发应用

2021-09-30 18:27:38

数据仓库ETL

2011-05-03 15:59:00

黑盒打印机

2011-01-10 14:41:26

2018-05-14 15:27:06

Python网络爬虫爬虫架构

2018-05-22 16:28:46

Python网络爬虫URL去重

2020-11-27 07:38:43

MongoDB

2017-05-18 12:45:35

数据分析数据理解数据

2011-04-21 10:32:44

MySQL双机同步

2022-07-27 08:16:22

搜索引擎Lucene

2022-03-14 14:47:21

HarmonyOS操作系统鸿蒙

2023-04-26 12:46:43

DockerSpringKubernetes

2022-01-08 20:04:20

拦截系统调用

2022-12-07 08:42:35

点赞
收藏

51CTO技术栈公众号