优化网站的性能 有一个行之有效的手段,加缓存。
加缓存有一定策略、原则;本节将对如何加缓存 有一个系统的了解
最后测试一下,优化后性能有无提升。
缓存有三种:
redis缓存过 user,tocken
先查询一级缓存,后查询二级缓存,然后查询数据库,这种方式 避免直接访问数据库
诸如登录凭证这些 和用户强关联的信息,若是缓存到 本地缓存,则会出错
因为当请求2访问 服务器2时,若是 服务器2 本地缓存中没有登录凭证,则无法访问DB
但是诸如热门帖子这些,不是和用户强关联的,可以采用这种方式
当访问redis时:
1请求先访问服务器1,服务器1里面本地缓存没有数据,于是访问redis,里面还是没用,于是访问DB,并将查询到的数据传到redis。
之后2请求访问服务器2时,服务器2里面本地缓存没有数据,于是访问redis直接查到数据
本地缓存 应用可以直接访问,因此效率比redis高。
多级缓存详细使用过程:
本地缓存空间小,
缓存需要设置一些淘汰机制,按时间排序 或者 按使用率 或者定时淘汰 都可以
本节任务,优化热门的帖子列表 进行缓存 以提升性能;为何不优化时间排序的帖子列表呢,因为不合适。数据变化频率相对较低才可以缓存
本地缓存用caffeine;分布式缓存本节不演示
手册在这里查看
包在这里
优化主要是 对services
在DiscussPostService中
@Value("${caffeine.posts.max-size}")
private int maxSize;
@Value("${caffeine.posts.expire-second}")
private int expireSeconds;
在application properties中
#caffeine
#缓存空间能存多少的对象
caffeine.posts.max-size=15
#过期时间为,定时淘汰
caffeine.posts.expire-second=180
// Caffeine核心接口: Cache, LoadingCache, AsyncLoadingCache
// 帖子列表缓存
private LoadingCache<String, List<DiscussPost>> postListCache;
// 帖子总数缓存
private LoadingCache<Integer, Integer> postRowsCache;
@PostConstruct
public void init() {
// 初始化帖子列表缓存
postListCache = Caffeine.newBuilder()
.maximumSize(maxSize)//缓存最大的数据量
.expireAfterWrite(expireSeconds, TimeUnit.SECONDS)//当把缓存写入缓存空间以后,多长时间自动过期;TimeUnit.SECONDS表示单位是s
.build(new CacheLoader<String, List<DiscussPost>>() {
@Nullable
@Override
public List<DiscussPost> load(@NonNull String key) throws Exception {
if (key == null || key.length() == 0) {
throw new IllegalArgumentException("参数错误!");
}
String[] params = key.split(":");
if (params == null || params.length != 2) {
throw new IllegalArgumentException("参数错误!");
}
int offset = Integer.valueOf(params[0]);
int limit = Integer.valueOf(params[1]);
// 二级缓存: Redis -> mysql
logger.debug("load post list from DB.");
return discussPostMapper.selectDiscussPosts(0, offset, limit, 1);
}
});
// 初始化帖子总数缓存
postRowsCache = Caffeine.newBuilder()
.maximumSize(maxSize)
.expireAfterWrite(expireSeconds, TimeUnit.SECONDS)
.build(new CacheLoader<Integer, Integer>() {
@Nullable
@Override
public Integer load(@NonNull Integer key) throws Exception {
logger.debug("load post rows from DB.");
return discussPostMapper.selectDiscussPostRows(key);
}
});
}
public List<DiscussPost> findDiscussPosts(int userId, int offset, int limit, int orderMode) {//只缓存热门帖子,即orderMode=1时候的帖子
if (userId == 0 && orderMode == 1) {//userId == 0表明是首页
return postListCache.get(offset + ":" + limit);//启用缓存
}
logger.debug("load post list from DB.");//访问数据库时记录:从数据库中查数据
return discussPostMapper.selectDiscussPosts(userId, offset, limit, orderMode);
}
public int findDiscussPostRows(int userId) {//用户查看自己帖子的时候
if (userId == 0) {
return postRowsCache.get(userId);
}
logger.debug("load post rows from DB.");
return discussPostMapper.selectDiscussPostRows(userId);
}
接下来写一个测试类:
public class CaffeineTests {
@Autowired
private DiscussPostService postService;
@Test
public void initDataForTest() {//建立30w条一样的数据
for (int i = 0; i < 300000; i++) {//为了做对比实验,需要很多条数据30w条,因为一条数据的话,突出不了性能的优化
DiscussPost post = new DiscussPost();
post.setUserId(111);
post.setTitle("互联网求职暖春计划");
post.setContent("今年的就业形势,确实不容乐观。过了个年,仿佛跳水一般,整个讨论区哀鸿遍野!19届真的没人要了吗?!18届被优化真的没有出路了吗?!大家的“哀嚎”与“悲惨遭遇”牵动了每日潜伏于讨论区的牛客小哥哥小姐姐们的心,于是牛客决定:是时候为大家做点什么了!为了帮助大家度过“寒冬”,牛客网特别联合60+家企业,开启互联网求职暖春计划,面向18届&19届,拯救0 offer!");
post.setCreateTime(new Date());
post.setScore(Math.random() * 2000);
postService.addDiscussPost(post);
}
}
@Test
public void testCache() {
System.out.println(postService.findDiscussPosts(0, 0, 10, 1));//ordermode=1安照热门排序 ,第一次缓存中没有数据
System.out.println(postService.findDiscussPosts(0, 0, 10, 1));//第二次缓存中有数据
System.out.println(postService.findDiscussPosts(0, 0, 10, 1));//第三次缓存中有数据,前三次访问只打印一个日志
System.out.println(postService.findDiscussPosts(0, 0, 10, 0));//不走缓存,直接走数据库
}
}
先访问了一次数据库
打印出来对应SQL
输出三次:
第四次 访问数据库
压力测试,不走缓存,直接查数据库
注释掉…为了防止频繁打印日志:
压力测试工具
解压缩后直接使用
53.11 将软件使用
吞吐量为9.5每秒,大概每秒 处理不到10个请求
接下来去掉注释:
重启:
加缓存与不加缓存,性能差了十八九倍
遇到性能瓶颈,或者访问量很大的,都可以采用 加二级缓存的方式 提升性能