7.27优化网站的性能

优化网站的性能 有一个行之有效的手段,加缓存。

加缓存有一定策略、原则;本节将对如何加缓存 有一个系统的了解

最后测试一下,优化后性能有无提升。

缓存有三种:
在这里插入图片描述
redis缓存过 user,tocken

先查询一级缓存,后查询二级缓存,然后查询数据库,这种方式 避免直接访问数据库

诸如登录凭证这些 和用户强关联的信息,若是缓存到 本地缓存,则会出错

因为当请求2访问 服务器2时,若是 服务器2 本地缓存中没有登录凭证,则无法访问DB
在这里插入图片描述
但是诸如热门帖子这些,不是和用户强关联的,可以采用这种方式

当访问redis时:

1请求先访问服务器1,服务器1里面本地缓存没有数据,于是访问redis,里面还是没用,于是访问DB,并将查询到的数据传到redis。

之后2请求访问服务器2时,服务器2里面本地缓存没有数据,于是访问redis直接查到数据
在这里插入图片描述
本地缓存 应用可以直接访问,因此效率比redis高。

多级缓存详细使用过程:

在这里插入图片描述
在这里插入图片描述
本地缓存空间小,

缓存需要设置一些淘汰机制,按时间排序 或者 按使用率 或者定时淘汰 都可以

本节任务,优化热门的帖子列表 进行缓存 以提升性能;为何不优化时间排序的帖子列表呢,因为不合适。数据变化频率相对较低才可以缓存

本地缓存用caffeine;分布式缓存本节不演示

手册在这里查看
在这里插入图片描述
包在这里
在这里插入图片描述
优化主要是 对services

在DiscussPostService中

@Value("${caffeine.posts.max-size}")
private int maxSize;
@Value("${caffeine.posts.expire-second}")
private int expireSeconds;

在application properties中

#caffeine
#缓存空间能存多少的对象
caffeine.posts.max-size=15
#过期时间为,定时淘汰
caffeine.posts.expire-second=180
   // Caffeine核心接口: Cache, LoadingCache, AsyncLoadingCache

    // 帖子列表缓存
    private LoadingCache<String, List<DiscussPost>> postListCache;

    // 帖子总数缓存
    private LoadingCache<Integer, Integer> postRowsCache;

    @PostConstruct
    public void init() {
        // 初始化帖子列表缓存
        postListCache = Caffeine.newBuilder()
                .maximumSize(maxSize)//缓存最大的数据量
                .expireAfterWrite(expireSeconds, TimeUnit.SECONDS)//当把缓存写入缓存空间以后,多长时间自动过期;TimeUnit.SECONDS表示单位是s
                .build(new CacheLoader<String, List<DiscussPost>>() {
                    @Nullable
                    @Override
                    public List<DiscussPost> load(@NonNull String key) throws Exception {
                        if (key == null || key.length() == 0) {
                            throw new IllegalArgumentException("参数错误!");
                        }

                        String[] params = key.split(":");
                        if (params == null || params.length != 2) {
                            throw new IllegalArgumentException("参数错误!");
                        }

                        int offset = Integer.valueOf(params[0]);
                        int limit = Integer.valueOf(params[1]);

                        // 二级缓存: Redis -> mysql

                        logger.debug("load post list from DB.");
                        return discussPostMapper.selectDiscussPosts(0, offset, limit, 1);
                    }
                });
        // 初始化帖子总数缓存
        postRowsCache = Caffeine.newBuilder()
                .maximumSize(maxSize)
                .expireAfterWrite(expireSeconds, TimeUnit.SECONDS)
                .build(new CacheLoader<Integer, Integer>() {
                    @Nullable
                    @Override
                    public Integer load(@NonNull Integer key) throws Exception {
                        logger.debug("load post rows from DB.");
                        return discussPostMapper.selectDiscussPostRows(key);
                    }
                });
    }
public List<DiscussPost> findDiscussPosts(int userId, int offset, int limit, int orderMode) {//只缓存热门帖子,即orderMode=1时候的帖子
    if (userId == 0 && orderMode == 1) {//userId == 0表明是首页
        return postListCache.get(offset + ":" + limit);//启用缓存
    }

    logger.debug("load post list from DB.");//访问数据库时记录:从数据库中查数据
    return discussPostMapper.selectDiscussPosts(userId, offset, limit, orderMode);
}

public int findDiscussPostRows(int userId) {//用户查看自己帖子的时候
    if (userId == 0) {
        return postRowsCache.get(userId);
    }
    logger.debug("load post rows from DB.");
    return discussPostMapper.selectDiscussPostRows(userId);
}

接下来写一个测试类:

public class CaffeineTests {

    @Autowired
    private DiscussPostService postService;

    @Test
    public void initDataForTest() {//建立30w条一样的数据
        for (int i = 0; i < 300000; i++) {//为了做对比实验,需要很多条数据30w条,因为一条数据的话,突出不了性能的优化
            DiscussPost post = new DiscussPost();
            post.setUserId(111);
            post.setTitle("互联网求职暖春计划");
            post.setContent("今年的就业形势,确实不容乐观。过了个年,仿佛跳水一般,整个讨论区哀鸿遍野!19届真的没人要了吗?!18届被优化真的没有出路了吗?!大家的“哀嚎”与“悲惨遭遇”牵动了每日潜伏于讨论区的牛客小哥哥小姐姐们的心,于是牛客决定:是时候为大家做点什么了!为了帮助大家度过“寒冬”,牛客网特别联合60+家企业,开启互联网求职暖春计划,面向18届&19届,拯救0 offer!");
            post.setCreateTime(new Date());
            post.setScore(Math.random() * 2000);
            postService.addDiscussPost(post);
        }
    }

    @Test
    public void testCache() {
        System.out.println(postService.findDiscussPosts(0, 0, 10, 1));//ordermode=1安照热门排序 ,第一次缓存中没有数据
        System.out.println(postService.findDiscussPosts(0, 0, 10, 1));//第二次缓存中有数据
        System.out.println(postService.findDiscussPosts(0, 0, 10, 1));//第三次缓存中有数据,前三次访问只打印一个日志
        System.out.println(postService.findDiscussPosts(0, 0, 10, 0));//不走缓存,直接走数据库
    }

}
先访问了一次数据库

在这里插入图片描述
打印出来对应SQL
在这里插入图片描述
输出三次:
在这里插入图片描述
第四次 访问数据库
在这里插入图片描述
压力测试,不走缓存,直接查数据库

在这里插入图片描述
注释掉…为了防止频繁打印日志:
在这里插入图片描述
压力测试工具
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
解压缩后直接使用
在这里插入图片描述
53.11 将软件使用

吞吐量为9.5每秒,大概每秒 处理不到10个请求
在这里插入图片描述
接下来去掉注释:
在这里插入图片描述
重启:
在这里插入图片描述
加缓存与不加缓存,性能差了十八九倍

遇到性能瓶颈,或者访问量很大的,都可以采用 加二级缓存的方式 提升性能

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值