admin 管理员组文章数量: 887021
【后端
Spring Cache是一个非常优秀的缓存组件,我们的应用系统正是使用的Spring Cache。但最近在优化应用系统缓存的过程中意外发现了Spring Cache的很多坑点,特意记录一下。
背景
应用系统中存在部分接口循环调用redis获取缓存的场景(例如:通过多个 userId 来批量获取用户信息),此时我们的代码是类似于这样的(仅示例):
List<User> users = ids.stream().map(id -> getUserById(id)).collect(Collectors.toList());@Cacheable(key = "#p0", unless = "#result == null")
public User getUserById(Long id) {// ···
}
就像上面说的,这种写法的缺点在于:在循环中操作 Redis 。如果数据都命中缓存还好,但大量频繁的连接也会产生一定的影响降低 qps ,再说一旦缓存没有命中,则会访问数据库,效率也可想而知了。
期望达到的效果
理想的逻辑是优先去 redis 获取缓存,redis 查询结束后筛选出来缓存中不存在的去批量查库,最后再将查库得到的结果存入redis。同时整个过程中应该控制减少请求 redis 的次数。
解决过程
通常做法
面向百度编程后发现有些同学可能会这样做:
@Cacheable(key = "#ids.hash")
public Collection<User> getUsersByIds(Collection<Long> ids) {// ···
}
这种做法的问题是:
缓存是基于 id 列表的 hashcode ,只有在 id 列表的 hashcode 值相等的情况下,缓存才会命中。而且,一旦列表中的其中一个数据被修改,整个列表缓存都要被清除。
例如:
第一次请求 id 列表是
1,2,3
第二次请求的 id 列表为
1,2,4
在这种情况下,前后两次的缓存不能共享。 如果 id 为 1 的数据发生了改变,那么,这两次请求的缓存都要被清空
看看 Spring 官方是怎么说的
Spring Issue:
简单翻译一下,具体内容大家可以自行查阅相关 issue
译文:
谢谢你的报告。缓存抽象没有这种状态的概念,如果你返回一个集合,这实际上是您要求存储在缓存中的内容。也没有什么强迫您为给定的缓存保留相同的项类型,所以这种假设并不适合这样的高级抽象。
我的理解是,对于 Spring Cache 这种高级抽象框架来说,Cache 是基于方法的,如果方法返回 Collection,那整个 Collection 就是需要被缓存的内容。
我的解决方案
纠结一段时间后,我决定自己来造个轮子😂为了达到我们期望的效果,下面先简单介绍一下
设计思路
应用系统中扩展实现自定义的RedisCache后注入到CacheManager中去,自定义的RedisCache在批量获取或删除缓存时采用pipeline方式调用Redis以减少请求次数,需要注意的点是我们的应用系统使用了kryo序列化框架以实现更高性能,所以在执行executePipelined()
方法体里序列化字符串时需要先拿到RedisOperations
的当前实现类(一般就是RedisTemplate
)去获取RedisSerializer
对象(其实就是注入RedisTemplate
对象时设置的序列化实现)再进行序列化。
核心接口:work.lichong.configuration.cache.CustomizedCache
package work.lichong.configuration.cache;import java.util.*;
import java.util.function.Function;public interface CustomizedCache {/*** 批量获取缓存数据, 如不存在则通过 valueLoader 获取数据, 并存入缓存中* 如果缓存中存在 null,则视为不存在,仍然通过 valueLoader 加载,如需要防止缓存穿透,建议存入空对象,而非 null** @param <K> key 的类型* @param <V> value 的类型* @param keys key* @param valueLoader 数据加载器* @param keyMapper 根据value获取key 映射器(用于从数据库中批量获取数据后再存入缓存)* @param vClass 返回数据类型* @param isListValue value是否为list类型,即一个key对应一个List<V>(用于从数据库中批量获取数据后再存入缓存时判断类型)* @param prefix 缓存前缀* @return 缓存列表*/<K, V> List<V> getBatch(List<K> keys, Function<List<K>, Collection<V>> valueLoader, Function<V, K> keyMapper, Class<V> vClass, boolean isListValue, String prefix);/*** 批量存入缓存** @param map 需要存入的数据* @param <K> 数据的 key 的类型* @param <V> 数据的 value 的类型* @param prefix 缓存前缀*/<K, V> void putBatch(Map<K, V> map, String prefix);/*** 批量删除缓存** @param keys 需要传入的删除的缓存key集合,map key:CacheName;map value:要删除的key集合,*为删除所有*/void deleteBatch(Map<String, Set<String>> keys);}
具体实现:
package work.lichong.configuration.cache;import com.googlemon.collect.Lists;
import com.googlemon.collect.Sets;
import lombok.extern.slf4j.Slf4j;
import org.apachemons.collections4.CollectionUtils;
import org.apachemons.lang3.StringUtils;
import org.springframework.data.redis.cache.RedisCache;
import org.springframework.data.redis.core.Cursor;
import org.springframework.data.redis.core.RedisCallback;
import org.springframework.data.redis.core.RedisOperations;
import org.springframework.data.redis.core.ScanOptions;
import org.springframework.data.redis.serializer.RedisSerializer;import java.util.*;
import java.util.function.Function;
import java.util.regex.Pattern;
import java.util.stream.Collectors;/*** @author ric* @website */
@Slf4j
public class CustomizedRedisCache extends RedisCache implements CustomizedCache {private final RedisOperations<?, ?> redisOperations;// ...省略RedisCache的实现@Override@SuppressWarnings({"unchecked", "rawtypes"})public <K, V> List<V> getBatch(List<K> keys, Function<List<K>, Collection<V>> valueLoader, Function<V, K> keyMapper,Class<V> vClass, boolean isListValue, String prefix) {Objects.requireNonNull(redisOperations, "redisOperations required not null");List resultList = Collections.emptyList();try {resultList = redisOperations.executePipelined((RedisCallback<Object>) connection -> {RedisSerializer keySerializer = redisOperations.getKeySerializer();connection.openPipeline();for (K k : keys) {byte[] key = keySerializer.serialize(keyPrefix + prefix + k.toString());if (key != null) {connection.get(key);} else {log.warn("CustomizedRedisCache 批量操作序列化失败,key={}", k);}}return null;});} catch (Exception e) {log.error("CustomizedRedisCache 异常", e);}int keysSize = keys.size();// 筛选出缓存中不存在的keyList<K> dbKeys = new ArrayList<>(keysSize);List<V> values = new ArrayList<>();if (CollectionUtils.isEmpty(resultList)) {dbKeys.addAll(keys);} else {for (int i = 0; i < resultList.size(); i++) {Object o = resultList.get(i);if (o == null) {dbKeys.add(keys.get(i));continue;}if (o instanceof NullObject) {continue;}if (isListValue) {values.addAll((Collection<V>)o);continue;}values.add((V) o);}}// 缓存中没有就从持久层中查询(需要注意分批次查询)if (!CollectionUtils.isEmpty(dbKeys)) {Collection<V> dbValue = valueLoader.apply(dbKeys);Map dbMap;if (isListValue) {dbMap = dbValue.stream().filter(Objects::nonNull).collect(Collectors.groupingBy(keyMapper));} else {dbMap = dbValue.stream().filter(Objects::nonNull).collect(Collectors.toMap(keyMapper, Function.identity()));}for(K key : dbKeys){if(dbMap.containsKey(key)){continue;}dbMap.put(key, new NullObject());}putBatch(dbMap, prefix);values.addAll(dbValue);}return values;}@Override@SuppressWarnings({"unchecked", "rawtypes"})public <K, V> void putBatch(Map<K, V> map, String prefix) {if (map.isEmpty()) {return;}Objects.requireNonNull(redisOperations, "redisTemplate required not null");try {redisOperations.executePipelined((RedisCallback<Object>) connection -> {RedisSerializer keySerializer = redisOperations.getKeySerializer();RedisSerializer valueSerializer = redisOperations.getValueSerializer();connection.openPipeline();for (Map.Entry<K, V> entry : map.entrySet()) {byte[] key = keySerializer.serialize(keyPrefix + prefix + entry.getKey().toString());byte[] value = valueSerializer.serialize(entry.getValue());if (key != null) {connection.set(key, value);} else {log.warn("CustomizedRedisCache 批量操作序列化失败,entry={}", entry);}}return null;});} catch (Exception e) {log.error("CustomizedRedisCache 异常", e);}}@Override@SuppressWarnings({"unchecked", "rawtypes"})public void deleteBatch(Map<String, Set<String>> keys) {Objects.requireNonNull(redisOperations, "redisTemplate required not null");try {RedisSerializer keySerializer = redisOperations.getKeySerializer();// 查出目录下所有的key(redis异步,不支持pipeline)redisOperations.execute((RedisCallback<Object>) connection -> {keys.entrySet().forEach(e -> {if(e.getValue().contains("*")){ScanOptions options = ScanOptions.scanOptions().match(getKeyPrefix(e.getKey()) + "*").count(Integer.MAX_VALUE).build();Cursor cursor = connection.scan(options);while (cursor.hasNext()) {connection.del((byte[]) cursor.next());}} else {e.getValue().forEach( k -> {connection.del(keySerializer.serialize(getKeyPrefix(e.getKey()) + k));});}});return null;});} catch (Exception e) {log.error("CustomizedRedisCache 异常", e);}}/*** 用于防止缓存穿透,把这个对象存到Redis*/public static class NullObject {}
}
调用示例:
问题记录
接下来就是戴上痛苦面具的时间了,让我们直面问题:
- 通过我写的
putBatch()
方法存入Redis的缓存,在触发@CacheEvict
注解的删除缓存事件后,这个缓存并不会被删掉!!! - 通过调用
getBatch()
方法获取缓存时可能会获取到null
对象!这时会有缓存穿透问题!
问题分析
-
这个问题是在我意料之外的,一顿排查之后发现Redis下有一个维护key的ZSET集合引起了关注,查阅文档得知注入
CacheManager
时如果设置了cacheManager.setUsePrefix(false)
的话,存入Redis时就会有一个这样的ZSET集合,如下图中userKey~keys:较高版本SpringBoot的
CacheManager
中usePrefix
属性默认为true
,而我们的应用系统使用的SpringBoot版本为1.5.4,这个属性默认为false
!!!不自觉的就想到了一种常见的绿色植物(吐槽一下这个坑点,Spring在Redis中维护这个keys是很不合理的,如果这个路径下的key特别多那不是每次增删操作时都要修改这个ZSET集合吗?这正是Redis最忌讳的大key阻塞问题啊!所幸后面的版本改掉了),解释一下,其实原因很简单:Spring去批量删除缓存时会先去读取这个集合中的keys再将这些keys删除,而通过我写的putBatch()
方法存入Redis的缓存的key并不在这个集合中!解决方法:
- 方案一(当前):手动设置
CacheManager
中usePrefix
属性默认为true
,并修改应用系统中全部缓存的前缀。 - 方案二:升级SpringBoot版本,已经在日程了,敬请期待!
- 方案一(当前):手动设置
-
第二个问题其实比较好排查,同时这也是典型的缓存穿透问题:
解决方法:
- 当前方案:从数据库查出有
null
对象时,存入一个空对象到Redis暂存,防止后面继续查库。 - 后续优化:可集成布隆过滤器或布谷鸟过滤器
- 当前方案:从数据库查出有
反思
其实在我看来这还不是最完美的解决方案,总结一下:
可优化点
-
有个明显的问题,要调用这个
getBatch()
方法还必须传入根据value获取key的映射方法用于查库之后存入redis,但如果要改造之前的代码,有很多业务数据只能根据key查出来value,根据value查key会比较困难。 -
这种写法是编程式的,虽然已经把绝大部分逻辑抽象出来了,但还可以想办法搞成声明式的会更加通用,例如:
@CollectionCacheable(cacheNames = "myCache")public List<MyEntity> findByIds(Collection<Long> ids) {// ...}
总结
我们保证代码健壮的同时也得抗住足够的并发、具备极致的性能,这样的优化点今后可能会越来越多,优化粒度越来越细,hhhhh干就对了!
- 最后:欢迎点赞、关注、收藏!!!
【前端-开发环境】使用NVM实现不同nodejs版本的自由切换(NVM完整安装使用手册)
【前端-NPM私服】内网使用verdaccio搭建私有npm服务器
【前端-IE兼容】Win10和Win11使用Edge调试前端兼容IE6、IE7、IE8、IE9、IE10、IE11问题
【工具-Shell脚本】java程序产品包模板-linux和windows通用shell启动停止脚本(无需系统安装Java运行环境)
【工具-Nginx】Nginx高性能通用配置文件-注释版-支持防刷限流、可控高并发、HTTP2、防XSS、Gzip、OCSP Stapling、负载、SSL
【工具-WireShark】网络HTTP抓包使用教程
【后端-maven打包】通过profile标签解决同时打jar包 war包需求
【后端-SkyWalking】SkyWalking前后端开发环境搭建详细教程步骤-6.x/7.x/8.x版本通用-插件二次开发利器(一)
本文标签: 后端
版权声明:本文标题:【后端 内容由网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:http://www.freenas.com.cn/free/1697136527h262120.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。
发表评论