如何快速爬取B站全站视频信息

开发
B 站我想大家都熟悉吧,其实 B 站的爬虫网上一搜一大堆。不过 纸上得来终觉浅,绝知此事要躬行,我码故我在。最终爬取到数据总量为 760万 条。

B 站我想大家都熟悉吧,其实 B 站的爬虫网上一搜一大堆。不过 纸上得来终觉浅,绝知此事要躬行,我码故我在。最终爬取到数据总量为 760万 条。

准备工作

首先打开 B 站,随便在首页找一个视频点击进去。常规操作,打开开发者工具。这次是目标是通过爬取 B 站提供的 api 来获取视频信息,不去解析网页,解析网页的速度太慢了而且容易被封 ip。

勾选 JS 选项,F5 刷新

找到了 api 的地址

复制下来,去除没必要的内容,得到 https://api.bilibili.com/x/web-interface/archive/stat?aid=15906633 ,用浏览器打开,会得到如下的 json 数据

动手写码

好了,到这里代码就可以码起来了,通过 request 不断的迭代获取数据,为了让爬虫更高效,可以利用多线程。

核心代码

  1. result = [] 
  2. req = requests.get(url, headers=headers, timeout=6).json() 
  3. time.sleep(0.6)     # 延迟,避免太快 ip 被封 
  4. try: 
  5.     data = req['data'
  6.     video = Video( 
  7.         data['aid'],        # 视频编号 
  8.         data['view'],       # 播放量 
  9.         data['danmaku'],    # 弹幕数 
  10.         data['reply'],      # 评论数 
  11.         data['favorite'],   # 收藏数 
  12.         data['coin'],       # 硬币数 
  13.         data['share']       # 分享数 
  14.     ) 
  15.     with lock: 
  16.         result.append(video) 
  17. except
  18.     pass 

迭代爬取

  1. urls = ["http://api.bilibili.com/archive_stat/stat?aid={}".format(i)  
  2.     for i in range(10000)] 
  3.  with futures.ThreadPoolExecutor(32) as executor:    # 多线程 
  4.      executor.map(run, urls) 

不要一次性爬取全部链接,我是利用两个进程,这样就是多进程+多线程了。一个进程一次大概爬取 50w 条数据。100w 条数据的话大概一个多小时吧。分多次爬取,分别将数据保存为不同的文件名,最后再汇总。

运行的效果大概是这样的,数字是已经已经爬取了多少条链接,其实完全可以在一天或者两天内就把全站信息爬完的。

至于爬取后要怎么处理就看自己爱好了,我是先保存为 csv 文件,然后再汇总插入到数据库。

汇总的 csv 文件

 

数据库表

 

由于这些内容是我在几个月前爬取的,所以数据其实有些滞后了。

数据总量

 

查询播放量前十的视频

查询回复量前十的视频

各种花样查询任君选择!!视频的链接为 https://www.bilibili.com/video/av + v_aid

详细代码请移步至 bili.py

对数据感兴趣的话可以邮箱联系我,可以打包赠与。

 

项目地址:chenjiandongx/bili-spider 欢迎围观  vfghjklp;]\78+

责任编辑:庞桂玉 来源: 知乎
相关推荐

2018-01-04 09:20:55

python爬虫视频弹幕

2021-06-02 15:10:20

PythonScrapy视频

2020-12-02 09:42:42

PythonApp抖音视频

2013-07-01 15:11:19

iOS

2009-12-09 17:19:38

PHP全站权限验证

2018-01-16 18:43:18

爬虫工具电影天堂

2017-08-27 11:22:13

视频信访互联网维稳

2021-07-14 08:54:12

B站A站服务器

2024-03-01 18:52:31

视频超分算法

2021-03-01 21:32:49

HTTP2 QUIC

2020-10-12 08:19:43

Python爬虫网页数据

2021-09-08 10:22:36

B端C端设计师

2018-11-26 18:57:58

Python数据分析爬取

2020-10-16 07:03:17

Scrapy爬虫框架

2023-12-26 12:18:34

2023-03-29 23:34:16

2022-12-07 07:35:20

B站裁员隐情

2022-09-15 15:18:23

计算实践

2024-02-28 07:50:36

大数据标签系统AB 实验

2020-11-02 09:53:13

Hive数据算法
点赞
收藏

51CTO技术栈公众号