思考:系统的瓶颈到底在哪儿,redis的作用?

1.现在openfire确实已经到了瓶颈,然后根据网上优化方案,说是把session移入redis会有比较可观的改善。

但是问题来了,user的session在openfire里面是存在一个Concurrentmap里面的.也就是说这玩意儿也相当于一个缓存。
并没有说去查数据库,其实查数据库是很少的。那么把这个session从Concurrentmap移入redis当真有用吗?都作为一个缓存,走redis还得专门走一次网络,无论redis自己的协议亦或是内网传输有多快,都不可能比存在自己jvm里面的快吧?
之前跟老大讨论了,redis肯定有的一个好处就是,如果我把session、cache等其他一系列cluster需要同步的东西吃透了,那么把这些所有的存入redis,redis相当于一个中间层,那么之后就不需要集群这个玩意儿了,全去redis取。(之前看过一个数据就是redis单机每秒能处理100W次,某个著名XX说的)这样一来变相实现了集群,之后想加多少节点就加多少节点。
但是老大又告知我Hazelcast集群同步的原理,(其实都一个样)就是来一个,全部分发给其他节点。这种相当于每个节点都存储了所有的会话。这样肯定是比去redis取要快的。
说来说去,其实就是,用redis到底能不能提升容量,openfire自带的集群插件hazelcast已经是很强大了。内部的partition也很NB,用redis按理论来说到时候还更慢。
我们目前的瓶颈应该不在于内存,25G的内存感觉还没用完。到底问题出在了哪儿?
跟同事谈论又说是这个JDK自带的HashMap上了100M就会有问题。这些日子认真琢磨了下HashMap里面的东东,他说的应该就是会出现hash碰撞吧。
然后又发现设置初始值是非常有必要的,(hashmap size*2会引起重新拷贝和重新hash映射,嗯,好像是这个,之后确认下)
之前系统默认是0.25M,飘红后我改成了-1即无限大。现在看来是很不合理的,终于理解之前在openfire国外论坛看到的人家都设置的是一个实际的值。原来是有原因的。
扯远了,但是这些玩意儿说来说去都跟客户端能连接进来没啥关系啊 好像?那到底为什么内存还够的情况下,客户端无法连接进来了呢?(也说不定咱根本没那么多用户,搞这些事都是在大惊小怪呢,谁叫tsung这玩意儿就是测不准呢)
总结下,现在问题是不知道系统瓶颈在哪儿。
1.接下来先把map初始值调好。 MAX = 设置的 * 0.75,好像是这个。这个调好了应该就不会出现以前的会话不停的丢了进,进了丢了。(所以一切都是有原因的。只是你不知道而已,多学啊!)
2.把这个Concurrentmap测一下,看看200M的情况下会有哪些问题,put不进去了吗?
3.JVM监控,看看垃圾回收方面的问题?
4.JVM监控,看看是不是内存不够用啊?
5.fastutil 的map代替JDK的concurrentmap。这个先要看看是否支持并发和有什么问题。
(老大说无比成熟健壮,我还是看看吧,权当学习)
6.继续session、cache移入redis,搞了这么久了,有点成果了,至少弄了之后能懂这玩意到底能不能提升。

有时间多看看并发编程网,
我这问题貌似有点像这个:缓存无底洞问题
http://ifeve.com/redis-multiget-hole/
就是加内存也没什么卵用。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值