详解缓存:缓存中存在的挑战及策略

开发 前端
缓存基本上分为两种:本地缓存和远程缓存。本地缓存依靠JVW(Java虚拟机)堆进行储存,而远程(或集群)缓存使用内存存储器,如Redis和Memcached。
 本文转载自公众号“读芯术”(ID:AI_Discovery)。

在计算机世界中,缓存(caching)就是将数据子集储存到一个具备高度可访问性的高速运行层的过程,这一层被称作高速缓冲存储器(cache)。

此过程旨在快速读取使用率较高的数据,避免在存取之前的数据时产生额外的计算负担。缓存只能储存数据一小段时间,这是权衡容量后的选择,以此换取更高的运行速度。

[[390218]]

像随机存取存储器(RAM)和内存存储引擎这类在缓存层下的硬件能够实现快速存取,它们通常和软件层一起被用于访问数据。缓存基本上分为两种:本地缓存和远程缓存。本地缓存依靠JVW(Java虚拟机)堆进行储存,而远程(或集群)缓存使用内存存储器,如Redis和Memcached。

什么是堆内本地缓存?

堆内缓存指把数据存储于Java堆中,在这里数据由垃圾收集器(GC)自动管理。

堆内缓存的优点:

  • GC会自动分配和释放对象
  • 访问数据的速度更快

堆内缓存的不足:

  • GC停顿多发
  • 因为数据被存储于JVM存储器之中,如果JVM崩溃了,数据就会丢失。因此无法长期缓存。

什么是堆外本地缓存?

堆外缓存指把数据存储在堆外。垃圾收集器不会自动处理这些数据,因为数据被存储在Java堆外,所以它们以字节数组存储,因此也存在把数据序列化和反序列化的额外运行负担。

堆外缓存的优点:

  • 允许大量数据的缓存且无须担心GC停顿
  • JVM崩溃后支持在存储器中添加持久层以恢复数据
  • JVM之间可共享缓存数据

堆外缓存的不足:

  • 数据的序列化和反序列化是使用堆外缓存时最大的不便之处。这会为下层程序带来计算负担。因为没有共同的数据结构,把序列化的数据转换成单独对象将付出额外的成本。
  • 短期数据更适合堆内缓存,因为它允许GC自动运行。因而,识别哪些数据可以被归于堆内缓存会带来额外的计算。
  • 手动存储器管理(像存储器分段之类的问题!)

总之,因为堆外缓存能够长期存储大量数据,所以它是存储数据的一种更好方式。再加上大磁盘子系统,就能提高每秒读写次数(IOPS)。

什么是远程缓存?

远程缓存是将数据存储在云端的缓冲区。因为可以在云端检索数据,所以这有助于构建一个更坚固且性能更强的持久层。Redis和Memcached是当下两款大受欢迎的内存缓存产品。

[[390219]]

图源:unsplash

远程缓存的优势:

  • 远程缓存集群可以根据需求进行扩展
  • 远程缓存不仅仅局限于单一数据结构,并且它支持多语言编程,因而操作简单。
  • 与磁盘的低速存取相比,性能有所增强(因为数据存储在存储器中,存取数据速度更快)

如何确定系统/服务需要缓存

  • 缓存命中率:如果服务所提供的数据不需要经常刷新且属于经常检索型数据,应当考虑缓存它们。
  • 最终一致性的容限:仔细考虑源数据的变化率,以及缓存的刷新频率。还应该考虑服务对象是否重视最近数据的读取。

缓存策略类型和相应挑战

[[390220]]

图源:unsplash

(1) 本地缓存:

通过在服务(比如说哈希表)内使用某种存储方式将使本地缓存的执行更加容易,但也会导致缓存一致性问题。意思就是,不同服务器中的本地缓存不同,这将导致数据不一致。

例如,服务器S1用数据D1响应了请求R1,并把它存储到本地缓存中。如果在数据库中的数据被更新成D2版本,之后R1再次发出相同的请求,则有可能返回数据D1或D2,这取决于请求抵达了哪个服务器。

冷启动也是内存缓存的一个重要问题。因为每一个服务器都是在没有缓存的情况下启动的,随着新服务器的增加,甚至在部署期间,对下游依赖发出的请求数量也会随之变多。这个问题可以通过请求合并解决。

(2) 外部缓存:

  • 能够解决以上问题,因为外部缓存是分开存储的,例如Redis和Memcached。
  • 提供更多存储空间并减少因容量而导致的缓存淘汰。
  • 挑战包括提高整体系统的复杂性和增加更多负载以维护额外的缓存服务器。
  • 始终在服务中添加代码来解决缓存可能不可用的情况。
  • 可以在此期间呼叫下游服务。但如果缓存中断时间过长,可能导致下游服务的负载增加。
  • 或者,外部存储器和内部存储器一起使用可以避免完全回落到下游依赖。
  • 也可以考虑采取减载技术,通过限制服务的请求数量来避免下游服务负载过重。

(3) 应对缓存扩展和弹性问题:

如果缓存达到最大容量,那么需要通过向其添加更多节点来扩展。深入了解系统及其在达到最大容量时的反应(例如,缓存达到最大容量时每个容器的内存利用率上升)有助于设置准确的警报。

这些警报可用于扩展缓存服务。在扩展服务时,需要记住两件事:缓存集群是否支持在没有宕机的情况下添加节点,或者是否支持一致性哈希算法来平衡流量分配。始终确保通过模拟故障来测试扩展策略。

(4) 控制数据的鲁棒性

缓存数据应能够读取更新后的代码格式,而更新后的代码应能够处理缓存所提供的旧版本数据。

缓存实现要点

图源:unsplash

(1) 缓存大小:根据服务中通过的数据类型可以确定缓存大小,以便提高缓存命中率。

(2) 缓存淘汰:这指的是当缓存达到最大容量时,把数据从缓存中移除。缓存淘汰最常见的模式是LRU(最近最少使用)。

(3) 缓存逾期:这是一种确定数据在缓存中的保留时间的策略,具体取决于数据刷新频率或客户处理过时数据的能力。

(4) 下游服务不可用

如果下游服务因为某些原因不可用,缓存服务不应该用更新数据的请求攻击下游,而是能够长期保护缓存,并等待它恢复。根据与客户之间的权衡协调,要么报告缓存中的过时数据,避免请求令下游服务掉线,要么使用一种机制来存储下游服务的错误响应,并对其进行相应的解释说明。

(5) 安全性

正在缓存的敏感数据或客户数据的安全性是人们对缓存集群的担忧之一。敏感数据应在存储前加密,并在输入和输出缓存数据的过程中确保其安全性。此外,由于缓存数据的返回速度比从数据库获取的调用速度快,攻击者可以根据响应时间识别服务发出的请求类型,这被称为侧信道时序攻击。

(6) “惊群效应”问题

下游服务不可用时,如果为了从下游服务获取未缓存的数据而发出多个请求,则可能会引发多次重试,进而导致服务掉线。可以结合多个策略来缓解这个情况,例如按客户或请求来进行节流、请求合并(即对相同的未缓存数据只发送一个请求)等。

缓存可以提供更快的数据访问速度和提高下游服务可用性,但它的代价是缓存节点的处理会更加复杂。通过巧妙地理解下游服务的需求,可以得出一个缓存解决方案。在不同的情景中(如流量峰值、缓存不可用、下游服务掉线等)都应当对此解决方案的表现进行仔细监控以调整参数。

希望本文能够帮你理解那些在为服务部署缓存解决方案时要牢记于心的要点。

 

责任编辑:赵宁宁 来源: 今日头条
相关推荐

2019-03-20 09:11:50

Web缓存策略

2024-06-28 08:31:54

2022-05-10 08:58:56

CacheHTTP

2023-11-16 08:22:14

LruCacheAndroid

2015-10-08 16:40:50

缓存头像策略

2011-08-12 14:33:06

iPhone缓存文件

2013-10-16 16:58:17

iOS优化缓存优化

2018-10-23 10:47:03

高并发系统缓存

2023-06-27 07:20:45

2020-03-05 09:09:18

缓存原因方案

2023-05-04 16:10:13

缓存前端

2019-12-05 15:22:25

高可用网关配置

2014-12-31 09:45:48

EhCache

2018-10-24 14:30:30

缓存服务更新

2023-11-21 09:41:00

缓存策略存储

2024-03-14 08:57:04

高并发缓存更新

2010-11-09 17:19:41

2009-07-29 11:44:30

ASP.NET缓存Cache

2024-07-23 08:06:19

缓存技术策略

2020-06-18 09:16:20

JavaScript缓存API
点赞
收藏

51CTO技术栈公众号