何以突围短视频红海?秒拍海量播放下的高性能视频调度实践

原创
开发 架构
每日处理二十亿以上播放请求的大型视频网站,如何精准高效地将用户的请求迅速播放,是充满挑战的一件事。秒拍在这方面已经积累了丰富的经验,技术团队采用细化用户每次播放请求,并结合近期内综合调度大数据,实现了在 C 段 IP 级别动态的调度响应及区分。

 [[195584]]

【51CTO.com原创稿件】每日处理二十亿以上播放请求的大型视频网站,如何精准高效地将用户的请求迅速播放,是充满挑战的一件事。秒拍在这方面已经积累了丰富的经验,技术团队采用细化用户每次播放请求,并结合近期内综合调度大数据,实现了在 C 段 IP 级别动态的调度响应及区分。

本文针对短视频播放面临的挑战、应对方法以及调度系统的概念与特点等内容进行分享。

短视频播放面临的挑战及应对方法

短、长视频之间的区别

短视频从 2015 年兴起,爆发也是近两年的事情。与长视频的区别主要有以下四个方面

  • 时长:短视频时长较短,一般为几分钟,长视频一般为 20 分钟以上乃至数小时。
  • 来源:短视频来源广泛,以 UGC 为主,比较鲜活,长视频以版权为主。
  • 更新:短视频更新量很大,每日数万条;长视频更新量比较少,每日数十条至数百条不等。
  • 播放量:短视频平均播放量小,数次至数十次;长视频平均播放量在数千到数万级别。

短视频播放面临的难点

基于短视频的特性,短视频播放面临的挑战有以下几个方面

  • 因播放时长短,所以对首播延时时间很敏感。相比几十分钟的长视频,用户对出现的广告还可以接受。但短视频加广告,用户可能三分之一的时间花在等待上,体验度就很差。
  • 因上传来源地区广泛,需要快速分发,这样在推送上会存在很大挑战。
  • 更新量大,平均播放量太少,所以内容整体会偏冷,对如何快速推广到所有渠道观看或产生关键行为的节点,要求较高。

从上传和播放两端入手应对难点

上传端通过广泛建立所在地区的节点来优化,需要在原站和各大区都进行建设,如北京、天津覆盖整个华北地区,广东覆盖华南地区,基本保证每个区有最快上传点。

还有根据实际情况,数据会采用各种传输压缩方法。对于播放端,技术上采用 CDN 分发,然后做多节点预推送的操作。

调度系统的概念、功能及特点

面对节点繁多超过 200 家 CDN 的厂商,如何选择核心的调度?如果用户发出请求,如何知道具体派发到哪一家的哪一个节点?这就涉及调度系统的应用。

什么是调度系统?

就是接到用户请求,基于分析请求的上下文,对后端提供服务的所有节点进行打分,凭打分结果把用户请求转发给合适的后端提供服务的系统。

视频调度主要有以下几个输入输出:

  • 输入用户的 IP 和请求内容
  • 对可分发的 CDN 节点进行逻辑处理,需要掌握后端有多少节点,哪些节点是活的,还要做打分排序
  • 确定节点之后,输出请求到对应的节点

调度系统的功能,要实现:

  • 负载均衡
  • 对服务异常的节点做故障隔离
  • 对后端节点、服务等做健康检查
  • 具备日志记录功能
  • 针对安全性问题,有权限分配功能

调度系统的特点

作为吞吐量日播放二三十亿的站点,调度系统不可能是一个单点,且用户来源非常多且重要,这样在高吞吐、高可用基础上,技术上要尽可能压缩用户的等待播放时间,来提升用户体验,所以要求系统高性能。

秒拍调度系统的发展

调度系统主要分为 GSLB v1 和 GSLB v2 两个版本。在秒拍刚成立时,播放量每天大概近百万,这时 GSLB v1 是基于第三方评分的地域调度系统,直接通过原站加 CDN 的方式来支撑。

新浪投资秒拍后,工程师开始使用新浪的 CDN,之后接入一些商用 CDN,当时选择的方式是第三方评分,量化结果,进行排序,最终进入调度系统。

伴随业务的不断发展,***代系统的准确性和性能不能很好满足需求了,所以设计了一个基于 C 端的 IP 精细调度系统 GSLB v2。

秒拍调度系统的发展之 GSLB v1

GSLB v1 的数据主要来自第三方的监测结果,第三方监测有自己的 API,如播放时间、延时等。来源是请求的地域与运营商,地域就是省、市、区,当然越细越好。

运营商是三大运营商,也有比较大的用户及小运营商。工程师通过API获得第三方数据后,进行综合打分,***通过用户请求的IP地域,调度到相应节点。

GSLB v1 的结构

如下图,最右边是 Clients,发起客户请求的客户端,如 MiaopaiApp、H5、PC Web、Weibo App 等。

API 部分是对一些友站进行视频的输出,当时主要是新浪,用的是 sina lb、Apache+PHP、同时采用第三方的 monitor 来监测 CDN 节点,记录产生的数据,获取监测结果,并存储到 DB。

之后基于用户发出的请求,读取 IP,分析 IP 对应的城市、运营商等。***根据对地域和运营商打分的结果,进行调度。

GSLB v1的评分原理

把全国主要城市,包括省会、直辖市以及省市下每个主流运营商的节点作为监测目标,通过第三方监测机构定时去测试播放。

评分体系主要针对城市+运营商级别做排序,判定原理很简单,就是用户发来 IP,获得城市及运营商数据,根据评分选定节点。

GSLB v1 的优点与不足

优点是整体结构相对简单,维护起来比较容易,水平扩展性强,性能方面也能满足当前需求。

而缺点是测试点数有限,测试时间间隔较长,不能反映及时情况。最重要的是系统在高并发上有瓶颈,如 IP 反查很慢、Apache+PHP 单次请求时间长、受限实体环境,难于及时扩展等。

秒拍调度系统的发展之 GSLB v2

GSLB v2 的核心思想

针对 GSLB v1 的实际应用情况,第二代系统从精准和性能两方面进行考虑。核心思想如下:

  • 精细化调度方面,调度粒度细化、积累测试数据和接近实时反馈
  • 提升吞吐量方面,做云端迁移,引入 OpenResty 和 IP 快速定位

GSLB v2 的质量评测

想要做好调度系统,首先要有一个好的评价体系,做好质量检测。质量检测工作从最初依靠第三方,到完全基于客户端,可以及时获取有效信息、节省自身的检测速度和频度,这里建设基于客户端的反馈机制很重要。

质量检测主要是基于 CDN 厂商和节点质量的报告,因为粒度较细,参数方面还是依赖视频播放。操作员可参考的具体指标,如首播时间、卡顿率、播放成功率,播放完成比例等等。

GSLBv2调度的精细化

  • 精准度。GSLB v1 调度是基于 IP,所以精准度取决于 IP 库,经常会出现 IP 判断不准的问题,以及小运营商的出口问题。

 

  • 传统 IP 库现状。传统的 IP 库是通过一些官方数据 IANA(InternetAssigned Numbers Authority)、渠道收集、网友上报、运营商数据等手段实现。传统运用上,因存在非结构化的数据,会有很多繁杂的信息,给使用者带来不便。
  • 纯真 IP 数据库。传统的库是纯真 IP 库,常规结构分为文件头、索引区和记录区三部分。通常查找 IP 时,先在索引区查找记录偏移,然后再到记录区读出信息。

由于记录区的记录长度不定长,所以直接在记录区中搜索是不可能的。另外,因为记录数比较多,遍历索引区会相对较慢。

  • 记录本身的复杂性。记录首先是四个字节 IP 地址开始,每条 IP 记录都由国家和地区名组成,国家地区在这里并不是太确切。
  • 纯真的特点。纯真的核心算法是索引+二分查找,优点是占用内存小,文件体积也小。缺点是数据会越来越多,臃肿化会随之严重。

再加上这些庞大的数据还是非结构化的,导致无法根据一个 IP 直接获取它所在地域和运营商,可能还会出现 1-2 次查找的情况,浪费很多时间。

GSLB v2 对 IP 库进行重建

针对纯真 IP 库的一些缺点,工程师对 IP 库进行了重建,最终可以***时间找到 IP 对应的运营商和信息。

IP 库重建的解决方向。对数据进行结构化的存储,索引大小固定非增长。这样做是为了减少查找时间,从对数时间转变成常数时间。***的结果就是 IP 过来,用很简单的方式直接找到对应数据。

IP 库重建的核心算法:

  • 一个 C 段只有 256 个 IP,A.B.C.0~A.B.C.255
  • 一般一个 C 段 IP 的地理位置,运营商信息都会与之保持一致
  • 描述 C 段的所有 IP,只有 256*256*256 = 16777216 个
  • 如果一个 IP 对应信息是一个字节,需要储存空间 16M;对应信息是两个字节,需要储存空间 32 M,每个 C 段 IP 对应一个编码(IPC 码)
  • 查询只需要根据偏移直接定位(A*256*256+B*+C)*2
  • 信息的前半段描述地区,后半段描述运营商

高效的信息表示方法:

  • XXXX XXXXXXXXXXXX
  • X 国内/国外,国内 0,国外 1,国外精度到国家
  • XX 大区,4 个大区,华北,华中,华南和西部
  • X XX 省,区内 8 省
  • XX 省内区域,如粤东,粤西,粤北,珠三角
  • XXX 区内 8 市
  • X X 市内 4 县区
  • XXX ISP 区分

校验方式:

  • Ipc& 0xF000 是否国外 IP
  • Ipc& 0xFC00 得出 IP 省份
  • Ipc& 0xFFE0 得出 IP 城市
  • Ipc& 0x7 得出运营商
  • Ipc - Ipc2 判断两 IP 的距离

GSLB v2 的数据积累

在数据积累方面,当数据缺失时,要主动去探测。探测原则有二:

  • 要同区域同 ISP 优先;
  • CDN 厂商节点分散化探测。然后,系统对已有的数据进行更新得分操作。

GSLB v2 的评分原则

评分的原则还是依照一些指标进行,基于首播时间,越短越好,得出基础分;播放卡顿或失败罚分,得分加入时间因子,随时间衰减更新而最终得分。

GSLB v2 的节点选择

如下图,是节点的选择流程。节点选择主要通过***确定比较阈值,基于 IPC 码获取同区域不同节点得分。

如果区域内节点数据满足阈值要求,进行调度。如果节点得分需要更新,则探测新节点。否则向上反馈回溯节点。

GSLB v2 的吞吐量优化

吞吐量方面,数据源使用了 Memcache 和 Redis、纯异步通信选择 Lua。

如下图,是 GSLB v2 的***阶段。

调度系统的***阶段:配置方面包含 1 个 SLB,2 个 gslb server,redis 存储是从主站同步过来的视频状态数据,memcache 存储的是 CDN 播放质量的历史数据。

如下图,是 GSLB v2 的第二阶段。

调度系统的第二阶段:面对播放量成倍增长的情况,对 server 进行了横向扩展。配置方面,增加了多个 SLB 和 gslb server。

如下图,是 GSLB v2 的第三阶段。

调度系统的第三阶段:由于每个请求都需要对 redis 进行 get 操作获取 channel 的状态数据,导致 redis 性能出现瓶颈。于是,系统替换掉了 redis,把 redis 的存储变为 memcache。

配置方面,增加了多个 SLB 和 gslb server。memcache 存储来自 CDN 播放质量的历史数据,以及从主站同步过来的视频状态数据。由于 openresty 不支持 mc 的 sasl 验证协议,所以没有对 mc 进行横向扩展。

未来展望

目前,秒拍的数据节点还都在北京,后续会调整到包括北京、杭州、广州等全国分区域进行异地多活的部署。

面对云厂商不可依赖,会隐藏很多数据信息,出现问题不好查找源头等情况,秒拍还会考虑混合云的改造。

同时,系统会接入一些基于 P2P 的调度及对自建 CDN 节点的融入、灾备建设和监控统计等方面进行完善。

以上内容由编辑王雪燕根据邓铮老师在 WOTA2017 “高可用架构”专场的演讲内容整理。

[[195585]]

邓铮

一下科技高级研发总监,公司创始团队成员

主要负责后端服务整体研发工作,参与了一下科技从创办肇始到成为短视频领域独角兽的全过程。现负责公司研发中心管理工作,他带领后端团队支撑公司每日数十亿以上的 PV,重点支持公司新品研发/大数据部门与预研部门,主要关注高并发/机器学习/智能系统领域。

【51CTO原创稿件,合作站点转载请注明原文作者和出处为51CTO.com】

责任编辑:武晓燕 来源: 51CTO技术栈
相关推荐

2017-10-25 20:42:13

频播放量秒拍链路优化

2018-12-17 16:34:02

华为云

2013-12-20 09:50:01

2024-02-05 08:41:08

因果推断快手短视频应用

2023-03-15 21:38:43

短视频服务器

2022-03-31 11:18:00

数据运维短视频

2018-08-06 10:50:02

新浪微博短视频

2017-03-29 14:38:05

高可用视频调度秒拍

2017-09-13 10:47:51

CDN

2024-01-30 12:35:31

网页端高性能截帧

2024-09-02 18:10:20

2011-12-20 16:57:32

Blue Coat高性能CacheFlo网络视频

2022-04-15 15:46:06

数据视频技术

2016-10-13 17:47:55

数据创业

2014-08-12 14:19:36

2020-07-16 08:06:53

网关高性能

2023-03-27 21:21:05

短视频自动化实践

2016-07-29 14:17:28

易观方舟红海突围用户画像

2009-11-16 19:11:29

HPCxeon高性能计算
点赞
收藏

51CTO技术栈公众号