互联网高并发设计的手段:架构、算法、代码

feed(关注的feed 、topic 的feed,一些运营的feed),前几页的访问比例,前三页占了90%+,针对这种业务特性,把 前面几页数据作为热点数据提到L1 cache

feed(关注的feed 、topic 的feed,一些运营的feed),前几页的访问比例,前三页占了90%+,针对这种业务特性,把 前面几页数据作为热点数据提到L1 cache

性能优化目标

1、缩短响应时间

2、提高并发数(增加吞吐量)

3、让系统处于合理状态

图片图片

性能优化手段

1、空间换时间

系统时间是瓶颈:缓存复用计算结果,降低时间开销,因为cpu时间较内存容量更加昂贵。

2、时间换空间

  • 数据大小是瓶颈
  • 网络传输是瓶颈,使用系统时间换取传输的空间,使用HTTP的gzip压缩算法
  • app的请求分类接口,使用版本号判断哪些数据更新,只下载更新的数据

3、找到系统瓶颈

  • 分析系统的业务流程,找到关键路径并分解优化
  • 调用了多少RPC接口,载入多少数据,是用什么算法,非核心流程是否异步化。

性能优化层次

1、架构设计层次

如何拆分系统 如何使用部分系统整体负载更加均衡 充分发挥硬件设施性能优势 减少系统内部开销等

2、算法逻辑层次

关注算法选择是否高效,算法逻辑优化,空间时间优化任务执行吃力,使用无锁数据结构。

空间换时间:ThreadLocal

时间换空间:采用压缩算法压缩数据,更复杂的逻辑减少数据传输。

3、代码优化层次

关注代码细节优化,代码实现是否合理,是否创建了过多的对象,循环遍历是否高效,cache使用是否合理

优化层次:从整理到细节,从全局角度到局部视角。

代码优化层次(1)

  • 循环遍历是否合理高效,不要在循环里调RPC接口,传输分布式缓存执行SQL等
  • 先调用批量接口组装好数据,再循环处理
  • 代码逻辑避免生成过多的对象和无效对象
  • 输出Log时候的log级别判断 避免new无效对象
  • ArrayList、HashMap初始容量设置是否合理
  • 对数据对象是否合理重用 比如RPC查到的数据能复用则必须复用,根据数据访问特性选择合适数据结构,比如读多写少考虑 CopyOrWriteArrayList(写时copy副本),会否正确初始化数据,有些全局共享的数据,饿汉式模式,在用户使用之前先初始化好。

代码优化层次(2)

  • CPU Cache结构
  • 速度越来越高:内存->L3->L2->L1多级缓存
  • 本质上内存是一个大的一维数组,二维数组在内存中按行排列,先存放a[0]行,再存放a[1]行
  • 第一种遍历方式,是行遍历,先遍历完一行再遍历第二行,符合局部性原理Cache Hit(缓存命中率高)
  • 第二种遍历方式,是列遍历,遍历完第一列遍历第二列,由于下一列和 上一列的数组元素在内存中并不是连续的,很可能导致CacheMiss(缓存未命中),CPU需要去内存载入数据,速度较CPUL1Cache的速度降低了很多(主存100ns,L1cache0.5ns)

图片图片

数据优化层次

select count(*)from table where add  time<"2017- 11-0623:59:59"  and  status=0  add  count in(1,2) ORDER BY id ASC;

代码逻辑要适应数据变化的场景

图片图片

图片图片

图片图片

算法优化逻辑层次

●用更高效的算法替换现有算法,而不改变其接口

●增量式算法,复用之前的计算结果,比如一个报表服务,要从全量数据中生成报表数据量很大,但是每次增量的数据较少,则可以考虑只计算增量数据和之前计算结果合并,这样处理的数据量就小很多

●并发和锁的优化,读多写少的业务场景下,基于CAS的LockFree比mutex性能更好

●当系统时间是瓶颈,采取空间换时间逻辑算法,分配更多空间节省系统时间

●缓存复用计算结果,降低时间开销,CPU时间较内存容量更加昂贵

●当系统空间容量是瓶颈,采取时间换空间算法策略

●网络传输是瓶颈,使用系统时间换取空间的压缩,HTTP的gzip压缩算法

●APP的请求分类接口,使用版本号判断哪些数据更新,只下载更新的数据,使用更多的代码逻辑处理更细粒度的数据

●并行执行,比如一段逻辑调用了多个RPC接口,而这些接口之间并没有数据依赖,则可以考虑并行调用,降低响应时间

●异步执行,分析业务流程中的主次流程,把次要流程拆分出来异步执行,更进一步可以拆分到单独的模块去执行,比如使用消息队列,彻底和核心流程解耦,提高核心流程的稳定性以及降低响应时间

架构层次优化

●系统微服务化

●无状态化设计,动态水平弹性扩展

●调用链路梳理,热点数据尽量靠近用户

●分布式Cache、多级多类型缓存

●提前拒绝,保证柔性可用

●容量规划

●分库分表,读写分离,数据分片

案例:

图片图片

Feed流系统分级缓存

读多写少、冷热数据明显,热点数据缓存到调用链路更靠近用户的地方

● L1缓存容量小负责抗最热点的数据, L2缓存考虑目标是容量,缓存更大范围的数据(一般用户的timeline), 高热点,数据单独缓存,比如设置白名单,大V的用户数据放在L1缓存

●feed(关注的feed、topic的feed,一些运营的feed),前几页的访问比例,前三页占了90%+,针对这种业务特性,把前面几页数据作为热点数据提到L1cache

Feed系统消息发布Feed系统消息发布

写扩散(PUSH)

●推送策略:拆分数据并行推,活跃用户先推,非活跃用户慢慢推

● 有1w个用户关注,发了一个feed,拆分成100份,每份100个并行推

● 1w个用户里活跃的可能有2000个,活跃用户先推,非活跃用户慢慢推,保证活跃用户体验,非活跃用户推了很大概率也不看

读扩散(PULL)

图片图片

Feed系统存储选型

图片

图片

©本文为清一色官方代发,观点仅代表作者本人,与清一色无关。清一色对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。本文不作为投资理财建议,请读者仅作参考,并请自行承担全部责任。文中部分文字/图片/视频/音频等来源于网络,如侵犯到著作权人的权利,请与我们联系(微信/QQ:1074760229)。转载请注明出处:清一色财经

(0)
打赏 微信扫码打赏 微信扫码打赏 支付宝扫码打赏 支付宝扫码打赏
清一色的头像清一色管理团队
上一篇 2023年11月1日 17:22
下一篇 2023年11月1日 17:22

相关推荐

发表评论

登录后才能评论

联系我们

在线咨询:1643011589-QQbutton

手机:13798586780

QQ/微信:1074760229

QQ群:551893940

工作时间:工作日9:00-18:00,节假日休息

关注微信