当前位置:网站首页>Redis+Caffeine两级缓存,让访问速度纵享丝滑

Redis+Caffeine两级缓存,让访问速度纵享丝滑

2022-06-24 19:28:00 InfoQ



在高性能的服务架构设计中,缓存是一个不可或缺的环节。在实际的项目中,我们通常会将一些热点数据存储到
Redis
MemCache
这类缓存中间件中,只有当缓存的访问没有命中时再查询数据库。在提升访问速度的同时,也能降低数据库的压力。

随着不断的发展,这一架构也产生了改进,在一些场景下可能单纯使用
Redis
类的远程缓存已经不够了,还需要进一步配合本地缓存使用,例如
Guava cache
Caffeine
,从而再次提升程序的响应速度与服务性能。于是,就产生了使用本地缓存作为一级缓存,再加上远程缓存作为二级缓存的
两级缓存
架构。

在先不考虑并发等复杂问题的情况下,两级缓存的访问流程可以用下面这张图来表示:

null

优点与问题

那么,使用两级缓存相比单纯使用远程缓存,具有什么优势呢?

  • 本地缓存基于本地环境的内存,访问速度非常快,对于一些变更频率低、实时性要求低的数据,可以放在本地缓存中,提升访问速度
  • 使用本地缓存能够减少和
    Redis
    类的远程缓存间的数据交互,减少网络I/O开销,降低这一过程中在网络通信上的耗时

但是在设计中,还是要考虑一些问题的,例如数据一致性问题。首先,两级缓存与数据库的数据要保持一致,一旦数据发生了修改,在修改数据库的同时,本地缓存、远程缓存应该同步更新。

另外,如果是分布式环境下,一级缓存之间也会存在一致性问题,当一个节点下的本地缓存修改后,需要通知其他节点也刷新本地缓存中的数据,否则会出现读取到过期数据的情况,这一问题可以通过类似于Redis中的发布/订阅功能解决。

此外,缓存的过期时间、过期策略以及多线程访问的问题也都需要考虑进去,不过我们今天暂时先不考虑这些问题,先看一下如何简单高效的在代码中实现两级缓存的管理。

准备工作

在简单梳理了一下要面对的问题后,下面开始两级缓存的代码实战,我们整合号称最强本地缓存的
Caffeine
作为一级缓存、性能之王的
Redis
作为二级缓存。首先建一个springboot项目,引入缓存要用到的相关的依赖:

<dependency>
 <groupId>com.github.ben-manes.caffeine</groupId>
 <artifactId>caffeine</artifactId>
 <version>2.9.2</version>
</dependency>
<dependency>
 <groupId>org.springframework.boot</groupId>
 <artifactId>spring-boot-starter-data-redis</artifactId>
</dependency>
<dependency>
 <groupId>org.springframework.boot</groupId>
 <artifactId>spring-boot-starter-cache</artifactId>
</dependency>
<dependency>
 <groupId>org.apache.commons</groupId>
 <artifactId>commons-pool2</artifactId>
 <version>2.8.1</version>
</dependency>

application.yml
中配置
Redis
的连接信息:

spring:
 redis:
 host: 127.0.0.1
 port: 6379
 database: 0
 timeout: 10000ms
 lettuce:
 pool:
 max-active: 8
 max-wait: -1ms
 max-idle: 8
 min-idle: 0

在下面的例子中,我们将使用
RedisTemplate
来对
redis
进行读写操作,
RedisTemplate
使用前需要配置一下
ConnectionFactory
和序列化方式,这一过程比较简单就不贴出代码了,有需要本文全部示例代码的可以在
文末获取

下面我们在单机环境下,将按照对业务侵入性的不同程度,分三个版本来实现两级缓存的使用。

V1.0版本

我们可以通过手动操作
Caffeine
中的
Cache
对象来缓存数据,它是一个类似
Map
的数据结构,以
key
作为索引,
value
存储数据。在使用
Cache
前,需要先配置一下相关参数:

@Configuration
public class CaffeineConfig {
 @Bean
 public Cache<String,Object> caffeineCache(){
 return Caffeine.newBuilder()
 .initialCapacity(128)//初始大小
 .maximumSize(1024)//最大数量
 .expireAfterWrite(60, TimeUnit.SECONDS)//过期时间
 .build();
 }
}

简单解释一下
Cache
相关的几个参数的意义:

  • initialCapacity
    :初始缓存空大小
  • maximumSize
    :缓存的最大数量,设置这个值可以避免出现内存溢出
  • expireAfterWrite
    :指定缓存的过期时间,是最后一次写操作后的一个时间,这里

此外,缓存的过期策略也可以通过
expireAfterAccess
refreshAfterWrite
指定。

在创建完成
Cache
后,我们就可以在业务代码中注入并使用它了。在没有使用任何缓存前,一个只有简单的
Service
层代码是下面这样的,只有crud操作:

@Service
@AllArgsConstructor
public class OrderServiceImpl implements OrderService {
 private final OrderMapper orderMapper;

 @Override
 public Order getOrderById(Long id) { 
 Order order = orderMapper.selectOne(new LambdaQueryWrapper<Order>()
 .eq(Order::getId, id)); 
 return order;
 }
 
 @Override
 public void updateOrder(Order order) { 
 orderMapper.updateById(order);
 }
 
 @Override
 public void deleteOrder(Long id) {
 orderMapper.deleteById(id);
 }
}

接下来,对上面的
OrderService
进行改造,在执行正常业务外再加上操作两级缓存的代码,先看改造后的查询操作:

public Order getOrderById(Long id) {
 String key = CacheConstant.ORDER + id;
 Order order = (Order) cache.get(key,
 k -> {
 //先查询 Redis
 Object obj = redisTemplate.opsForValue().get(k);
 if (Objects.nonNull(obj)) {
 log.info(&quot;get data from redis&quot;);
 return obj;
 }

 // Redis没有则查询 DB
 log.info(&quot;get data from database&quot;);
 Order myOrder = orderMapper.selectOne(new LambdaQueryWrapper<Order>()
 .eq(Order::getId, id));
 redisTemplate.opsForValue().set(k, myOrder, 120, TimeUnit.SECONDS);
 return myOrder;
 });
 return order;
}

Cache
get
方法中,会先从缓存中进行查找,如果找到缓存的值那么直接返回。如果没有找到则执行后面的方法,并把结果加入到缓存中。

因此上面的逻辑就是先查找
Caffeine
中的缓存,没有的话查找
Redis
Redis
再不命中则查询数据库,写入
Redis
缓存的操作需要手动写入,而
Caffeine
的写入由
get
方法自己完成。

在上面的例子中,设置
Caffeine
的过期时间为60秒,而
Redis
的过期时间为120秒,下面进行测试,首先看第一次接口调用时,进行了数据库的查询:

null
而在之后60秒内访问接口时,都没有打印打任何sql或自定义的日志内容,说明接口没有查询
Redis
或数据库,直接从
Caffeine
中读取了缓存。

等到距离第一次调用接口进行缓存的60秒后,再次调用接口:

null
可以看到这时从
Redis
中读取了数据,因为这时
Caffeine
中的缓存已经过期了,但是
Redis
中的缓存没有过期仍然可用。

下面再来看一下修改操作,代码在原先的基础上添加了手动修改
Redis
Caffeine
缓存的逻辑:

public void updateOrder(Order order) {
 log.info(&quot;update order data&quot;);
 String key=CacheConstant.ORDER + order.getId();
 orderMapper.updateById(order);
 //修改 Redis
 redisTemplate.opsForValue().set(key,order,120, TimeUnit.SECONDS);
 // 修改本地缓存
 cache.put(key,order);
}

看一下下面图中接口的调用、以及缓存的刷新过程。可以看到在更新数据后,同步刷新了缓存中的内容,再之后的访问接口时不查询数据库,也可以拿到正确的结果:

null
最后再来看一下删除操作,在删除数据的同时,手动移除
Reids
Caffeine
中的缓存:

public void deleteOrder(Long id) {
 log.info(&quot;delete order&quot;);
 orderMapper.deleteById(id);
 String key= CacheConstant.ORDER + id;
 redisTemplate.delete(key);
 cache.invalidate(key);
}

我们在删除某个缓存后,再次调用之前的查询接口时,又会出现重新查询数据库的情况:

null
简单的演示到此为止,可以看到上面这种使用缓存的方式,虽然看起来没什么大问题,但是对代码的入侵性比较强。在业务处理的过程中要由我们频繁的操作两级缓存,会给开发人员带来很大负担。那么,有什么方法能够简化这一过程呢?我们看看下一个版本。

V2.0版本

spring
项目中,提供了
CacheManager
接口和一些注解,允许让我们通过注解的方式来操作缓存。先来看一下常用几个注解说明:

  • @Cacheable
    :根据键从缓存中取值,如果缓存存在,那么获取缓存成功之后,直接返回这个缓存的结果。如果缓存不存在,那么执行方法,并将结果放入缓存中。
  • @CachePut
    :不管之前的键对应的缓存是否存在,都执行方法,并将结果强制放入缓存
  • @CacheEvict
    :执行完方法后,会移除掉缓存中的数据。

如果要使用上面这几个注解管理缓存的话,我们就不需要配置V1版本中的那个类型为
Cache
Bean
了,而是需要配置
spring
中的
CacheManager
的相关参数,具体参数的配置和之前一样:

@Configuration
public class CacheManagerConfig {
 @Bean
 public CacheManager cacheManager(){
 CaffeineCacheManager cacheManager=new CaffeineCacheManager();
 cacheManager.setCaffeine(Caffeine.newBuilder()
 .initialCapacity(128)
 .maximumSize(1024)
 .expireAfterWrite(60, TimeUnit.SECONDS));
 return cacheManager;
 }
}

然后在启动类上再添加上
@EnableCaching
注解,就可以在项目中基于注解来使用
Caffeine
的缓存支持了。下面,再次对
Service
层代码进行改造。

首先,还是改造查询方法,在方法上添加
@Cacheable
注解:

@Cacheable(value = &quot;order&quot;,key = &quot;#id&quot;)
//@Cacheable(cacheNames = &quot;order&quot;,key = &quot;#p0&quot;)
public Order getOrderById(Long id) {
 String key= CacheConstant.ORDER + id;
 //先查询 Redis
 Object obj = redisTemplate.opsForValue().get(key);
 if (Objects.nonNull(obj)){
 log.info(&quot;get data from redis&quot;);
 return (Order) obj;
 }
 // Redis没有则查询 DB
 log.info(&quot;get data from database&quot;);
 Order myOrder = orderMapper.selectOne(new LambdaQueryWrapper<Order>()
 .eq(Order::getId, id));
 redisTemplate.opsForValue().set(key,myOrder,120, TimeUnit.SECONDS);
 return myOrder;
}

@Cacheable
注解的属性多达9个,好在我们日常使用时只需要配置两个常用的就可以了。其中
value
cacheNames
互为别名关系,表示当前方法的结果会被缓存在哪个
Cache
上,应用中通过
cacheName
来对
Cache
进行隔离,每个
cacheName
对应一个
Cache
实现。
value
cacheNames
可以是一个数组,绑定多个
Cache

而另一个重要属性
key
,用来指定缓存方法的返回结果时对应的
key
,这个属性支持使用
SpringEL
表达式。通常情况下,我们可以使用下面几种方式作为
key

#参数名
#参数对象.属性名
#p参数对应下标

在上面的代码中,我们看到添加了
@Cacheable
注解后,在代码中只需要保留原有的业务处理逻辑和操作
Redis
部分的代码即可,
Caffeine
部分的缓存就交给spring处理了。

下面,我们再来改造一下更新方法,同样,使用
@CachePut
注解后移除掉手动更新
Cache
的操作:

@CachePut(cacheNames = &quot;order&quot;,key = &quot;#order.id&quot;)
public Order updateOrder(Order order) {
 log.info(&quot;update order data&quot;);
 orderMapper.updateById(order);
 //修改 Redis
 redisTemplate.opsForValue().set(CacheConstant.ORDER + order.getId(),
 order, 120, TimeUnit.SECONDS);
 return order;
}

注意,这里和V1版本的代码有一点区别,在之前的更新操作方法中,是没有返回值的
void
类型,但是这里需要修改返回值的类型,否则会缓存一个空对象到缓存中对应的
key
上。当下次执行查询操作时,会直接返回空对象给调用方,而不会执行方法中查询数据库或
Redis
的操作。

最后,删除方法的改造就很简单了,使用
@CacheEvict
注解,方法中只需要删除
Redis
中的缓存即可:

@CacheEvict(cacheNames = &quot;order&quot;,key = &quot;#id&quot;)
public void deleteOrder(Long id) {
 log.info(&quot;delete order&quot;);
 orderMapper.deleteById(id);
 redisTemplate.delete(CacheConstant.ORDER + id);
}

可以看到,借助
spring
中的
CacheManager
Cache
相关的注解,对V1版本的代码经过改进后,可以把全手动操作两级缓存的强入侵代码方式,改进为本地缓存交给
spring
管理,
Redis
缓存手动修改的半入侵方式。那么,还能进一步改造,使之成为对业务代码完全无入侵的方式吗?

V3.0版本

模仿
spring
通过注解管理缓存的方式,我们也可以选择自定义注解,然后在切面中处理缓存,从而将对业务代码的入侵降到最低。

首先定义一个注解,用于添加在需要操作缓存的方法上:

@Target(ElementType.METHOD)
@Retention(RetentionPolicy.RUNTIME)
@Documented
public @interface DoubleCache {
 String cacheName();
 String key(); //支持springEl表达式
 long l2TimeOut() default 120;
 CacheType type() default CacheType.FULL;
}

我们使用
cacheName + key
作为缓存的真正
key
(仅存在一个
Cache
中,不做
CacheName
隔离),
l2TimeOut
为可以设置的二级缓存
Redis
的过期时间,
type
是一个枚举类型的变量,表示操作缓存的类型,枚举类型定义如下:

public enum CacheType {
 FULL, //存取
 PUT, //只存
 DELETE //删除
}

因为要使
key
支持
springEl
表达式,所以需要写一个方法,使用表达式解析器解析参数:

public static String parse(String elString, TreeMap<String,Object> map){
 elString=String.format(&quot;#{%s}&quot;,elString);
 //创建表达式解析器
 ExpressionParser parser = new SpelExpressionParser();
 //通过evaluationContext.setVariable可以在上下文中设定变量。
 EvaluationContext context = new StandardEvaluationContext();
 map.entrySet().forEach(entry->
 context.setVariable(entry.getKey(),entry.getValue())
 );

 //解析表达式
 Expression expression = parser.parseExpression(elString, new TemplateParserContext());
 //使用Expression.getValue()获取表达式的值,这里传入了Evaluation上下文
 String value = expression.getValue(context, String.class);
 return value;
}

参数中的
elString
对应的就是注解中
key
的值,
map
是将原方法的参数封装后的结果。简单进行一下测试:

public void test() {
 String elString=&quot;#order.money&quot;;
 String elString2=&quot;#user&quot;;
 String elString3=&quot;#p0&quot;; 

 TreeMap<String,Object> map=new TreeMap<>();
 Order order = new Order();
 order.setId(111L);
 order.setMoney(123D);
 map.put(&quot;order&quot;,order);
 map.put(&quot;user&quot;,&quot;Hydra&quot;);

 String val = parse(elString, map);
 String val2 = parse(elString2, map);
 String val3 = parse(elString3, map);

 System.out.println(val);
 System.out.println(val2);
 System.out.println(val3);
}

执行结果如下,可以看到支持按照参数名称、参数对象的属性名称读取,但是不支持按照参数下标读取,暂时留个小坑以后再处理。

123.0
Hydra
null

至于
Cache
相关参数的配置,我们沿用V1版本中的配置即可。准备工作做完了,下面我们定义切面,在切面中操作
Cache
来读写
Caffeine
的缓存,操作
RedisTemplate
读写
Redis
缓存。

@Slf4j @Component @Aspect 
@AllArgsConstructor
public class CacheAspect {
 private final Cache cache;
 private final RedisTemplate redisTemplate;

 @Pointcut(&quot;@annotation(com.cn.dc.annotation.DoubleCache)&quot;)
 public void cacheAspect() {
 }

 @Around(&quot;cacheAspect()&quot;)
 public Object doAround(ProceedingJoinPoint point) throws Throwable {
 MethodSignature signature = (MethodSignature) point.getSignature();
 Method method = signature.getMethod();

 //拼接解析springEl表达式的map
 String[] paramNames = signature.getParameterNames();
 Object[] args = point.getArgs();
 TreeMap<String, Object> treeMap = new TreeMap<>();
 for (int i = 0; i < paramNames.length; i++) {
 treeMap.put(paramNames[i],args[i]);
 }

 DoubleCache annotation = method.getAnnotation(DoubleCache.class);
 String elResult = ElParser.parse(annotation.key(), treeMap);
 String realKey = annotation.cacheName() + CacheConstant.COLON + elResult;

 //强制更新
 if (annotation.type()== CacheType.PUT){
 Object object = point.proceed();
 redisTemplate.opsForValue().set(realKey, object,annotation.l2TimeOut(), TimeUnit.SECONDS);
 cache.put(realKey, object);
 return object;
 }
 //删除
 else if (annotation.type()== CacheType.DELETE){
 redisTemplate.delete(realKey);
 cache.invalidate(realKey);
 return point.proceed();
 }

 //读写,查询Caffeine
 Object caffeineCache = cache.getIfPresent(realKey);
 if (Objects.nonNull(caffeineCache)) {
 log.info(&quot;get data from caffeine&quot;);
 return caffeineCache;
 }

 //查询Redis
 Object redisCache = redisTemplate.opsForValue().get(realKey);
 if (Objects.nonNull(redisCache)) {
 log.info(&quot;get data from redis&quot;);
 cache.put(realKey, redisCache);
 return redisCache;
 }

 log.info(&quot;get data from database&quot;);
 Object object = point.proceed();
 if (Objects.nonNull(object)){
 //写入Redis
 redisTemplate.opsForValue().set(realKey, object,annotation.l2TimeOut(), TimeUnit.SECONDS);
 //写入Caffeine
 cache.put(realKey, object); 
 }
 return object;
 }
}

切面中主要做了下面几件工作:

  • 通过方法的参数,解析注解中
    key
    springEl
    表达式,组装真正缓存的
    key
  • 根据操作缓存的类型,分别处理存取、只存、删除缓存操作
  • 删除和强制更新缓存的操作,都需要执行原方法,并进行相应的缓存删除或更新操作
  • 存取操作前,先检查缓存中是否有数据,如果有则直接返回,没有则执行原方法,并将结果存入缓存

修改
Service
层代码,代码中只保留原有业务代码,再添加上我们自定义的注解就可以了:

@DoubleCache(cacheName = &quot;order&quot;, key = &quot;#id&quot;,
 type = CacheType.FULL)
public Order getOrderById(Long id) {
 Order myOrder = orderMapper.selectOne(new LambdaQueryWrapper<Order>()
 .eq(Order::getId, id));
 return myOrder;
}

@DoubleCache(cacheName = &quot;order&quot;,key = &quot;#order.id&quot;,
 type = CacheType.PUT)
public Order updateOrder(Order order) {
 orderMapper.updateById(order);
 return order;
}

@DoubleCache(cacheName = &quot;order&quot;,key = &quot;#id&quot;,
 type = CacheType.DELETE)
public void deleteOrder(Long id) {
 orderMapper.deleteById(id);
}

到这里,基于切面操作缓存的改造就完成了,
Service
的代码也瞬间清爽了很多,让我们可以继续专注于业务逻辑处理,而不用费心去操作两级缓存了。

总结

本文按照对业务入侵的递减程度,依次介绍了三种管理两级缓存的方法。至于在项目中是否需要使用二级缓存,需要考虑自身业务情况,如果Redis这种远程缓存已经能够满足你的业务需求,那么就没有必要再使用本地缓存了。毕竟实际使用起来远没有那么简单,本文中只是介绍了最基础的使用,实际中的并发问题、事务的回滚问题都需要考虑,还需要思考什么数据适合放在一级缓存、什么数据适合放在二级缓存等等的其他问题。

那么,这次的分享就到这里,我是Hydra,下期见。

本文的全部代码示例已传到了Hydra的
Github
上,公众号
码农参上
后台回复
缓存
获取链接

作者简介,码农参上,一个热爱分享的公众号,有趣、深入、直接,与你聊聊技术。欢迎添加好友,进一步交流。
原网站

版权声明
本文为[InfoQ]所创,转载请带上原文链接,感谢
https://xie.infoq.cn/article/c9fe17eac671dea33555ae5a3