Java打怪之路----谷粒商城Nginx与Redis

一、商品上架流程

product
1、根据spuid查询所有sku信息
2、将sku信息封装成skuModel(向es中存储的是skuModel VO)
不一致信息:
库存信息
发送远程调用 查询系统中是否存在库存
热度评分
品牌和分类的名字
检索属性
查出当前sku中所有可以被检索的属性
3、将数据发给es进行保存,调用gulimall-search微服务进行保存
(1)在es中建立索引,建立号映射关系(doc/json/product-mapping.json)
(2)在es中保存这些数据
(3)设置成功失败状态

二、Nginx反向代理配置

1、什么是nginx反向代理
正向代理:我们要访问谷歌,但是被墙,所以将请求发送给代理服务器,由代理服务器来访问,这叫正向代理
反向代理:服务器部署在内网中,客户端访问服务器不能直接访问服务器的内网地址,通常需要根据域名来访问(www.baidu.com)。所以需要反向代理服务器来将外网的ip转换成内网ip来访问。
在这里插入图片描述

2、反向代理如何实现

只代理到商品服务:客户端发送gulimall.com请求,在windows中映射gulimall.com是虚拟机ip(192.168.56.10)所以会访问虚拟机。虚拟机中的nginx监听80端口。在配置文件中,会设置nginx代理到的路径http://192.168.56.1:10000。这样就访问到了商品服务里的首页(首页在商品服务中)

location/{
	proxy_pass http://192.168.56.1:10000
}

代理到网关: 客户端发送gulimall.com请求,在windows中映射gulimall.com是虚拟机ip(192.168.56.10)所以会访问虚拟机。虚拟机中的nginx监听80端口。在配置文件中nginx.config中配置上游服务器gulimall http://192.168.56.1:88。然后继续在配置文件gulimall.config中nginx代理到的路径http://gulimall。
需要注意的是,nginx代理给网关会丢失一部分信息。解决如下
xuy

三、压力测试

1、JVM堆栈垃圾回收流程
在这里插入图片描述

2、优化方式
加内存(提升JVM堆中eden区和old区的内存空间,避免频繁的gc)
数据库优化,加索引
打开模板缓存,设置日志为error时记录
静态资源快速返回 动静分离
优化代码 减少循环查表
3、Nginx实现动静分离
(1)将所有的静态资源移动到nginx中
(2)/static/**下的所有内容由nginx返回,在nginx中进行相关配置,gulimall-conf中设置

  location /static/{
  root /usr/share/nginx/html
  }

在这里插入图片描述

4、优化三级分类数据获取
直接查询所有分类的结果,只查一次表,将其他循环查表的过程抽取为一个函数

四、缓存与分布式锁

为什么使用缓存

如何使用redis

引入data-redis-starter

<dependency>
    <groupId>org.springframework.boot</groupId>
    <artifactId>spring-boot-starter-data-redis</artifactId>
</dependency>

简单配置redis的host
使用自动配置好的String Redis Template redis
String Redis Template redis中 存储键值对 键与值都是String类型

//将数据放入缓存
@Override
public Map<Long, List<Catelog2Vo>>  getCatelogJson() {
    String catelogJson = redisTemplate.opsForValue().get("catelogJson");
    if (StringUtils.isEmpty(catelogJson)){
        //缓存中没有
        Map<Long, List<Catelog2Vo>> catelogJsonFromDB = getCatelogJsonFromDB();
        redisTemplate.opsForValue().set("catelogJson",JSON.toJSONString(catelogJsonFromDB));
        return catelogJsonFromDB;
    }

    //因为转化的对象是复杂对象,所以通过TypeReference
    Map<Long, List<Catelog2Vo>> catelogJsonFromDB = JSON.parseObject(catelogJson,new TypeReference<Map<Long, List<Catelog2Vo>>>(){});
    return catelogJsonFromDB;
}




//从数据库查询数据
public Map<Long, List<Catelog2Vo>>  getCatelogJsonFromDB() {
    //将数据库的多次交互,转为一次,一次性查询所有数据
    List<CategoryEntity> allList = baseMapper.selectList(null);
    //查出所有分类
    List<CategoryEntity> level1Categorys = getParent_cid(allList,0L);
    //分装数据
    Map<Long, List<Catelog2Vo>> resultMap = level1Categorys.stream().collect(Collectors.toMap(CategoryEntity::getCatId, v -> {
        //每一个的一级分类,查到这个一级分类的二级分类
        List<CategoryEntity> list = getParent_cid(allList,v.getCatId());
        List<Catelog2Vo> catelog2VoList = null;
        if (!StringUtils.isEmpty(list)) {
            catelog2VoList = list.stream().map(item -> {
                Catelog2Vo catelog2Vo = new Catelog2Vo(v.getCatId().toString(), null, item.getCatId().toString(), item.getName());
                //封装二级分类的三级分类
                List<CategoryEntity> entityList = getParent_cid(allList,item.getCatId());
                if (!StringUtils.isEmpty(entityList)){
                    List<Catelog2Vo.Catelog3Vo> catelog3Vos = entityList.stream().map(m -> {
                        Catelog2Vo.Catelog3Vo catelog3Vo = new Catelog2Vo.Catelog3Vo(item.getCatId().toString(),m.getCatId().toString(),m.getName());
                        return catelog3Vo;
                    }).collect(Collectors.toList());
                    catelog2Vo.setCatalog3List(catelog3Vos);
                }
                return catelog2Vo;
            }).collect(Collectors.toList());
            return catelog2VoList;
        }
        return catelog2VoList;
    }));
    return resultMap;
}

private List<CategoryEntity> getParent_cid(List<CategoryEntity> allList,Long parent_cid) {
    List<CategoryEntity> collect = allList.stream().filter(item -> {
        return item.getParentCid().equals(parent_cid);
    }).collect(Collectors.toList());
    return collect;
    //        return baseMapper.selectList(new QueryWrapper<CategoryEntity>().eq("parent_cid", v.getCatId()));
}

内存溢出以及解决

TODO 产生堆外内存溢出OutOfDirectMemoryError:
产生原因

  • springboot2.0以后默认使用lettuce作为操作redis的客户端,它使用netty进行网络通信
  • lettuce的bug导致netty堆外内存溢出。netty如果没有指定堆外内存,默认使
    用Xms的值,可以使用-Dio.netty.maxDirectMemory进行设置

解决方案:由于是lettuce的bug造成,不要直接使用-Dio.netty.maxDirectMemory 去调大虚拟机堆外内存,治标不治本。

  • 升级lettuce客户端。
  • 切换使用jedis

lettuce和jedis是操作redis的底层客户端,RedisTemplate是再次封装</font color=‘red’>

缓存失效 穿透、雪崩、击穿

**缓存穿透:**是指大量的并发请求访问一个数据库中从未出现的内容,由于缓存中没有这条内容,所以会并发查表导致数据库崩溃。
**解决办法:**将null也写入缓存中

**缓存雪崩:**是指设置缓存时,key使用了相同的过期时间,大量并发此时同时访问这些过期缓存,导致同时查表导致数据库崩溃。
**解决办法:**缓存过期时间在原来的基础上设置随机值。

**缓存击穿:**是指大量并发请求同时访问一个热点key,如果这个热点key刚好在缓存中过期,导致这个key的数据查询都落到数据库导致数据库崩溃。
**解决办法:**大量的并发只让一个人去查,其他人等待,查到之后释放锁,其他人回去到锁,查找缓存不会查找数据库。加锁方法使用synchronized(this),this表示当前对象。
注意: 缓存时许问题,确认缓存、查数据库和结果放入缓存是一个原子操作,要在锁内实现。

在这里插入图片描述

@Override
public Map<Long, List<Catelog2Vo>> getCatelogJson() {
    String catelogJson = redisTemplate.opsForValue().get("catelogJson");
    //缓存中没有
    if (StringUtils.isEmpty(catelogJson)) {
        //获取数据返回
        Map<Long, List<Catelog2Vo>> catelogJsonFromDB = getCatelogJsonFromDB();
        return catelogJsonFromDB;
    }

    //因为转化的对象是复杂对象,所以通过TypeReference
    Map<Long, List<Catelog2Vo>> catelogJsonFromDB = JSON.parseObject(catelogJson, new TypeReference<Map<Long, List<Catelog2Vo>>>() {
    });
    return catelogJsonFromDB;
}


//从数据库查询数据
public Map<Long, List<Catelog2Vo>> getCatelogJsonFromDB() {
    synchronized (this) {
        //判断缓存是否已经有数据,防止之前的线程已经放好数据
        String catelogJson = redisTemplate.opsForValue().get("catelogJsonFromDB");
        if (!StringUtils.isEmpty(catelogJson)) {
            //因为转化的对象是复杂对象,所以通过TypeReference
            Map<Long, List<Catelog2Vo>> resultMap = JSON.parseObject(catelogJson, new TypeReference<Map<Long, List<Catelog2Vo>>>() {
            });
            return resultMap;
        }


        //将数据库的多次交互,转为一次,一次性查询所有数据
        List<CategoryEntity> allList = baseMapper.selectList(null);
        //查出所有分类
        List<CategoryEntity> level1Categorys = getParent_cid(allList, 0L);
        //分装数据
        Map<Long, List<Catelog2Vo>> resultMap = level1Categorys.stream().collect(Collectors.toMap(CategoryEntity::getCatId, v -> {
            //每一个的一级分类,查到这个一级分类的二级分类
            List<CategoryEntity> list = getParent_cid(allList, v.getCatId());
            List<Catelog2Vo> catelog2VoList = null;
            if (!StringUtils.isEmpty(list)) {
                catelog2VoList = list.stream().map(item -> {
                    Catelog2Vo catelog2Vo = new Catelog2Vo(v.getCatId().toString(), null, item.getCatId().toString(), item.getName());
                    //封装二级分类的三级分类
                    List<CategoryEntity> entityList = getParent_cid(allList, item.getCatId());
                    if (!StringUtils.isEmpty(entityList)) {
                        List<Catelog2Vo.Catelog3Vo> catelog3Vos = entityList.stream().map(m -> {
                            Catelog2Vo.Catelog3Vo catelog3Vo = new Catelog2Vo.Catelog3Vo(item.getCatId().toString(), m.getCatId().toString(), m.getName());
                            return catelog3Vo;
                        }).collect(Collectors.toList());
                        catelog2Vo.setCatalog3List(catelog3Vos);
                    }
                    return catelog2Vo;
                }).collect(Collectors.toList());
                return catelog2VoList;
            }
            return catelog2VoList;
        }));
        
        

        //放入缓存
        redisTemplate.opsForValue().set("catelogJson", JSON.toJSONString(resultMap),1L, TimeUnit.DAYS);

        return resultMap;
    }
}



private List<CategoryEntity> getParent_cid(List<CategoryEntity> allList, Long parent_cid) {
    List<CategoryEntity> collect = allList.stream().filter(item -> {
        return item.getParentCid().equals(parent_cid);
    }).collect(Collectors.toList());
    return collect;
    //        return baseMapper.selectList(new QueryWrapper<CategoryEntity>().eq("parent_cid", v.getCatId()));
}

上面的本地锁只能锁住当前进程,在分布式的情况下无法保证锁住整个集群服务
在这里插入图片描述

分布式锁

可以让商品服务来占坑,当一个商品服务拿到锁后,其他商品服务必须等待
在这里插入图片描述

设置分布式锁需要考虑的问题
一二阶段为设置锁需要考虑的问题,二三阶段为删除锁需要考虑的问题

  • 第一阶段
    setnx会获取锁,然后执行业务,最后删除锁
    出现问题:当执行业务时发生宕机,无法执行删除锁的操作,其他线程无法拿到锁。造成死锁。
    解决问题:将锁设置一个自动过期时间,来保证锁肯定会被释放

在这里插入图片描述

方法名:getCateLogJsonFromDbWithRedisLock
//占分布式锁
Boolean lock=redisTemplate.opsForValue().setIfAbsent("lock","111");
if(lock){
	//如果获得锁,执行业务
	Map<String,List<Catelog2Vo>> dataFromDb=getDataFromDb();
	//执行完删除锁
	redisTemplate.delete("lock")
	return dataFromDb;
}else{
	return getCateLogJsonFromDbWithRedisLock();
}

改进后为:

方法名:getCateLogJsonFromDbWithRedisLock
//占分布式锁
Boolean lock=redisTemplate.opsForValue().setIfAbsent("lock","111");
if(lock){
	//如果获得锁,执行业务
	Map<String,List<Catelog2Vo>> dataFromDb=getDataFromDb();
	//设置过期时间
	redisTemplate.expire("key",30,TimeUnit.SECONDS)
	//执行完删除锁
	redisTemplate.delete("lock")
	return dataFromDb;
}else{
	return getCateLogJsonFromDbWithRedisLock();
}
  • 第二阶段
    出现问题:虽然设置了过期时间,但是如果在设置过期时间之前发生了宕机,过期时间没有设置上,又会导致死锁问题。
    解决问题:设置过期时间和占位必须是原子操作
    在这里插入图片描述
//占分布式锁
//setIfAbsent方法的第三个参数是设置过期时间
Boolean lock=redisTemplate.opsForValue().setIfAbsent("lock","111",300);
if(lock){
	//如果获得锁,执行业务
	Map<String,List<Catelog2Vo>> dataFromDb=getDataFromDb();
	//设置过期时间
	//redisTemplate.expire("key",30,TimeUnit.SECONDS)
	//执行完删除锁
	redisTemplate.delete("lock")
	return dataFromDb;
}else{
	return getCateLogJsonFromDbWithRedisLock();
}
  • 第三阶段
    出现问题:由于设置了自动过期时间,如果当前执行的业务很长,删除锁的时候,锁已经自动过期了,此时删除的可能是别人的锁。
    解决问题:给每个锁添加唯一的uuid,删除的时候判断一下,匹配的是自己的锁才能删除
    在这里插入图片描述
  • 第四阶段
    出现问题:判断完成之后,需要删除锁前,锁刚好过期,别人设置新的值,那么我们会删除别人的锁
    解决问题:删除锁必须保证原子操作(判断与删除同时进行)采用redis+lua脚本实现
    在这里插入图片描述
  String uuid = UUID.randomUUID().toString();
    //设置redis分布式锁,30s自动删除锁
    Boolean isLock = redisTemplate.opsForValue().setIfAbsent("lock", uuid,300L,TimeUnit.SECONDS);
    if (isLock){
        //抢锁成功。。。执行业务
        Map<Long, List<Catelog2Vo>> resultMap = null;
        try {
            resultMap = getLongListMap();
        }finally {
            //lua脚本解锁:让获取数据+对比数据成为原子操作
            String script = "if redis.call(\"get\",KEYS[1]) == ARGV[1] then\n" +
                "    return redis.call(\"del\",KEYS[1])\n" +
                "else\n" +
                "    return 0\n" +
                "end";
            Long lock = redisTemplate.execute(new DefaultRedisScript<Long>(script, Long.class),Arrays.asList("lock"),uuid);
        }
        return resultMap;

    }else {
        //抢锁失败。。。重试
        try {
            Thread.sleep(200);
        } catch (InterruptedException e) {
            e.printStackTrace();
        }
        // 睡眠0.2s后,重新调用 //自旋
        return getCatelogJsonFromDBWithRedisLock();
    }

Redisson

Redisson使用

  • pom导入
<dependency>
    <groupId>org.redisson</groupId>
    <artifactId>redisson</artifactId>
    <version>3.13.4</version>
</dependency>
  • 开启配置,写一个配置类
@Configuration
public class RedissonConfig {

    @Bean(destroyMethod = "shutdown")
    public RedissonClient redissonClient(){
        Config config = new Config();
        config.setTransportMode(TransportMode.EPOLL);
        config.useClusterServers()
                //可以用"rediss://"来启用SSL连接
                .addNodeAddress("redis://192.168.109.101:6379");
        return Redisson.create(config);
    }
   
}

可重入锁

基于Redis的Redisson分布式可重入锁RLock Java对象实现了java.util.concurrent.locks.Lock接口。同时还提供了异步(Async)、反射式(Reactive)和RxJava2标准的接口。

  • 什么是可重入锁:A中调用B,A拿到锁后,该锁可以由B直接使用,这个锁叫可重入锁,不可重入锁是 A拿到锁后,A调用B,B需要等待A锁的释放,而A锁需要等待B执行完才释放,造成死锁。
  • 如何使用Redisson分布式可重入锁
@RequestBody
@GetMapping(/"hello")
public String hello(){
	//1、获取锁 锁名字一样就是同一把锁
	RLock lock=redission.getLock("lock");
	//指定解锁时间的锁

	//2、枷锁
	lock.lock();//阻塞式等待
	//指定解锁时间的锁
	//lock.lock(10,TimeUnit.SECONDS)
	try{	
		//3、执行业务
		System.out.println("执行业务");
		Thread.sleep(30000);
	}catch(Exception e){
	
	}finally{
	//解锁
	lock.unlock();
	}
}

Question1: 这与上节redis中自己设置的锁有什么区别

这里是对自己设置的锁进行了封装:上节我们需要自己设置加锁和解锁时的原子操作。而Redisson直接封装了这些原子操作。由于这里加锁会自动设置过期时间,所以不会出现业务崩溃,锁释放不了导致死锁问题。
Question2: Redisson可重入锁,如何保证业务时间长而导致锁被自动删除。

  1. Redisson可重入锁提供了锁的续期:如果业务时间超长,运行期间会自动给锁续上新的30s(看门狗默认时间)。
  2. 这里有个疑问,看门狗在业务执行的时候会不断设置新的定时任务来给锁续期,如果此时业务崩溃,看门狗是失效了吗?如果是失效的话,那就相当于不会再继续进行续期,锁会在默认事件之后自动删除。

Question3: 看门狗如何进行锁的续期
只要占锁成功,就会启动一个定时任务,重新给锁设置过期时间,新的过期时间就是看门狗的默认时间。每隔(一个看门狗时间/3)=10s,会自动再次续期,续到30s

Question4: 如果指定自动解锁时间会发生什么
如果指定自动过期时间,看门狗会失效,不会再有锁的续期。自动解锁时间一定要大于业务执行时间。(如果小于会出现业务没执行完,锁已经被释放,此时别的进程抢占锁,当前进程删除锁是报错)。

读写锁

分布式可重入读写锁允许同时有多个读锁和一个写锁处于加锁状态。
读锁被称为共享锁,写锁被称为互斥锁
读读共享 读写/写写 都是互斥

RReadWriteLock rwlock = redisson.getReadWriteLock("anyRWLock");
// 最常见的使用方法
rwlock.readLock().lock();
// 或
rwlock.writeLock().lock();

// 10秒钟以后自动解锁
// 无需调用unlock方法手动解锁
rwlock.readLock().lock(10, TimeUnit.SECONDS);
// 或
rwlock.writeLock().lock(10, TimeUnit.SECONDS);

// 尝试加锁,最多等待100秒,上锁以后10秒自动解锁
boolean res = rwlock.readLock().tryLock(100, 10, TimeUnit.SECONDS);
// 或
boolean res = rwlock.writeLock().tryLock(100, 10, TimeUnit.SECONDS);
//...
lock.unlock();

在这里插入图片描述

信号量

生产者消费者问题中出现。例如停车与离开
信号量为存储在redis中的一个数字,当这个数字大于0时,即可以调用acquire()方法增加数量,也可以调用release()方法减少数量,但是当调用release()之后小于0的话方法就会阻塞,直到数字大于0

tryAcquire()返回一个布尔型量,表示当前是否可以获取数量,如果数量为0,返回false。但是不会阻塞。常用于分布式限流

@GetMapping("/park")
@ResponseBody
public String park() {
    RSemaphore park = redissonClient.getSemaphore("park");
    try {
        park.acquire(2);
    } catch (InterruptedException e) {
        e.printStackTrace();
    }
    return "停进2";
}

@GetMapping("/go")
@ResponseBody
public String go() {
    RSemaphore park = redissonClient.getSemaphore("park");
    park.release(2);
    return "开走2";
}

缓存与数据一致性

在对表进行修改时,缓存中的内容也需要修改,可以采用两种模式来进行修改

  • 双写模式:在写完数据库之后,再写缓存。
    存在问题:会出现脏数据的问题在这里插入图片描述

  • 失效模式:再写完数据库,删除缓存中的数据,下次再读数据库
    存在问题:也会产生脏数据
    在这里插入图片描述
    解决脏数据问题:

  • 设置过期时间,数据过期之后下一次重新查找数据库

  • 读写数据时,加上分布式锁的读写锁,经常写经常读会对性能有影响

如果想要保证强一致性可以使用Canal
Canal相当于一个数据库的从库,业务更新数据库后,它会及时的修改缓存。
在这里插入图片描述
注意: 实时更新的数据、一致性要求高的数据本就不应该放到缓存中,缓存中加上过期时间保证每天拿到的数据是当前最新数据就可。遇到实时更新的数据、一致性要求高的数据就应该查找数据库。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值