互联网高并发设计的手段:架构、算法、代码

开发 架构
feed(关注的feed 、topic 的feed,一些运营的feed),前几页的访问比例,前三页占了90%+,针对这种业务特性,把 前面几页数据作为热点数据提到L1 cache

性能优化目标

1、缩短响应时间

2、提高并发数(增加吞吐量)

3、让系统处于合理状态

图片图片

性能优化手段

1、空间换时间

系统时间是瓶颈: 缓存复用计算结果,降低时间开销,因为cpu时间较内存容量更加昂贵。

2、时间换空间   

  • 数据大小是瓶颈
  • 网络传输是瓶颈,使用系统时间换取传输的空间,使用HTTP的gzip压缩算法    
  • app的请求分类接口,使用版本号判断哪些数据更新,只下载更新的数据

3、找到系统瓶颈

  • 分析系统的业务流程,找到关键路径并分解优化
  • 调用了多少RPC接口,载入多少数据,是用什么算法,非核心流程是否异步化。

性能优化层次

1、架构设计层次

如何拆分系统 如何使用部分系统整体负载更加均衡   充分发挥硬件设施性能优势  减少系统内部开销等

2、算法逻辑层次

关注算法选择是否高效,算法逻辑优化,空间时间优化任务执行吃力,使用无锁数据结构。

空间换时间:ThreadLocal

时间换空间:采用压缩算法压缩数据,更复杂的逻辑减少数据传输。

3、代码优化层次

关注代码细节优化,代码实现是否合理,是否创建了过多的对象,循环遍历是否高效,cache使用是否合理 

优化层次:从整理到细节,从全局角度到局部视角。

代码优化层次(1)

  • 循环遍历是否合理高效,不要在循环里调RPC接口,传输分布式缓存 执行SQL等
  • 先调用批量接口组装好数据,再循环处理
  • 代码逻辑避免生成过多的对象和无效对象
  • 输出Log时候的log级别判断  避免new无效对象
  • ArrayList、HashMap初始容量设置是否合理
  • 对数据对象是否合理重用 比如RPC查到的数据能复用则必须复用,根据数据访问特性选择合适数据结构,比如读多写少考虑  CopyOrWriteArrayList(写时copy副本),会否正确初始化数据,有些全局共享的数据,饿汉式模式,在用户使用之前先初始化好。

代码优化层次(2)

  • CPU Cache结 构
  • 速度越来越高:内存 - >L3->L2->L1多级缓存
  • 本质上内存是一个大的一维数组,二维数组在内存中按行排列,先存放a[0]行,再存放a[1]行
  • 第一种遍历方式,是行遍历,先遍历完一行再遍历第二行,符合局部性原理Cache Hit  (缓存命中率高)
  • 第二种遍历方式,是列遍历,遍历完第一列遍历第二列,由于下一列和 上 一 列的数组元素在内存中并不是连续的,很可能导致Cache  Miss ( 缓 存 未 命 中 ) , CPU 需要去内存载入数据,速度较CPU    L1Cache的速度降低 了很多(主存100ns,L1  cache  0.5ns)

图片图片

数据优化层次

select count(*)from table where add  time<"2017- 11-0623:59:59"  and  status=0  add  count in(1,2) ORDER BY id ASC;

代码逻辑要适应数据变化的场景

图片图片

图片图片

图片图片

算法优化逻辑层次

●用更高效的算法替换现有算法,而不改变其接口

● 增量式算法,复用之前的计算结果,比如一个报表服务,要从全量数据中生成报表数据量很大,但是每次增量的数据较少,则可以考虑只计算增量数据和之前计算结果合并,这样处理的数据量就小很多

● 并发和锁的优化,读多写少的业务场景下,基于CAS的LockFree比mutex 性能更好

● 当系统时间是瓶颈,采取空间换时间逻辑算法,分配更多空间节省系统时间

● 缓存复用计算结果,降低时间开销, CPU时间较内存容量更加昂贵

● 当系统空间容量是瓶颈,采取时间换空间算法策略

● 网络传输是瓶颈,使用系统时间换取空间的压缩, HTTP的gzip 压缩算法

● APP的请求分类接口,使用版本号判断哪些数据更新,只下载更新的数据,使用更多的代码逻辑处理更细粒 度的数据

● 并行执行,比如一段逻辑调用了多个RPC接口,而这些接口之间并没有数据依赖,则可以考虑并行调用,降低响 应时间

● 异步执行,分析业务流程中的主次流程,把次要流程拆分出来异步执行,更进一步可以拆分到单独的模块去执行, 比如使用消息队列,彻底和核心流程解耦,提高核心流程的稳定性以及降低响应时间

架构层次优化

● 系统微服务化

● 无状态化设计,动态水平弹性扩展

● 调用链路梳理,热点数据尽量靠近用户

● 分布式Cache 、 多级多类型缓存

● 提前拒绝,保证柔性可用

● 容量规划

● 分库分表,读写分离,数据分片

案例:

图片图片

Feed流系统分级缓存

读多写少、冷热数据明显,热点数据缓存到调用链路更靠近用户的地方

● L1缓存容量小负责抗最热点的数据, L2缓存考虑目标是容量,缓存更大范围的数据(一般用户的timeline), 高热点,数据单独缓存,比如设置白名单,大V 的用户数据放在L1缓存

● feed(关注的feed 、topic 的feed,一些运营的feed),前几页的访问比例,前三页占了90%+,针对这种业务特性,把 前面几页数据作为热点数据提到L1 cache

Feed系统消息发布Feed系统消息发布


写扩散 (PUSH)

● 推送策略:拆分数据并行推,活跃用户先推,非活跃用户慢慢推

● 有 1w个用户关注,发了一个feed,拆分成100份,每份100个并行推

● 1w个用户里活跃的可能有2000个,活跃用户先推,非活跃用户慢慢推,保证活跃用户体验,非活跃用户推 了很大概率也不看

读扩散(PULL)

图片图片

Feed系统存储选型

图片 图片

责任编辑:武晓燕 来源: 二进制跳动
相关推荐

2017-01-11 21:40:03

互联网架构高并发

2019-04-10 14:10:02

高并发分布式系统架构

2017-10-27 14:52:31

互联网高可用架构高可用

2017-09-25 12:11:14

高可用微服务架构

2009-05-05 10:24:48

应用架构设计原则

2011-09-09 10:39:57

专利移动互联网

2019-03-18 07:08:53

高可用互联网架构分布式

2016-12-06 11:56:13

互联网架构高可用

2017-10-15 14:36:10

互联网分层架构服务化

2020-08-11 09:43:28

分层架构互联网架构

2012-09-18 13:58:58

互联网创业架构

2015-06-24 15:35:54

2015-05-28 16:11:07

互联网+

2016-09-22 15:55:39

互联网架构容量设计

2019-05-13 10:30:34

互联网架构容量

2012-08-29 10:26:19

蚂蚁互联网算法

2023-12-05 10:33:15

工业互联网互联网平台

2018-08-15 09:02:59

产业互联网工业互联网物联网

2019-09-02 16:12:16

工业互联网智能制造体系架构

2016-05-30 10:06:12

用友iUAP压力测试
点赞
收藏

51CTO技术栈公众号