concurrentHashMap

大家好
之前和Daniel 交流一些java8的东西,比如hashmap里面添加了红黑树,比如stream Api,比如lamda表达式。后来Daniel说concurrentHashMap里面如何进行高并发的操作。我之前有所了解,但是了解不是很深刻,最近有时间正好研究一下的。
HashMap 在高并发的时候,会产生死循环,导致cpu爆炸。有一个装载因子0.75,当hashMap的数据量大于75%的时候,hashMap就需要扩容操作,扩容空间是原来空间的两倍,扩容的时候,就需要对所有的数据重新计算hashcode,然后赋值给新的hashmap。Rehash的过程,非常耗费时间和空间的。
当我们存入数据过多的时候,尤其在扩容的时候,理论比较多,个人理解为扩容后的hash值重新变化,对应的hash值也会变化,插入的时候,code有新和旧之分,执行的next的指向就会有不确定性,就可能出现相互指向导致了死循环。.
Hashtable 在高并发的情况,使用Synchronized来保证线程,特别是拿对象的时候,也在锁的操作,对性能是非常大的消耗。
ConcurrentHashMap有segment和HashEntry,segment就是我们所说的桶,它提供了锁分段的概念,segment和hashmap很像,一个数组和一个链表,一个segment有一个hashentry数组。
定位segment,存放到哪个segment其实和hashmap一样,就是通过hash算法来放到segment的桶里面,用来平均分配,尽可能保证各个元素平均放置来维持最大效能,
segment的get操作,是不锁的。最核心的思路就是用来存放value的,用的是violate,这样就保证了在多个线程中获取的值一定是最新的。用于维护一致的。插入的时候,那个桶是被锁住的。所以不会线程安全问题。
segment的put操作,为了现场安全,一定是要有锁的,segment只是对一个桶进行扩容,而不是对于整个concurrenthashmap来进行扩容。所以说concurrenthashmap是集合hashtable 和hashmap的优点集合在一起的。
但是concurrenthashmap的size()方法就比较麻烦的。在尝试两次count后,就会进行整张表锁起来,进行计算。
这个就是我自己的理解。当然也参考了一些链接。
http://cache.baiducontent.com/c?m=9f65cb4a8c8507ed4fece763105392230e54f73860838d5668d4e419ce3b46101b7bb0fb6179415a848461165cf3181baab0612e717973f6c1b7db08c9fecf68798776692c0b8731439459ef9c1a639e73d2&p=8736c64ad48918b743bd9b7d0c1780&newp=8b2a9715d9c040ae1ab4873f594789231610db2151d7d71f6b82c825d7331b001c3bbfb42324130ed8c57e6407ac4b5aebf73771320625a3dda5c91d9fb4c57479&user=baidu&fm=sc&query=concurrentMap&qid=a03f6ad00001a13b&p1=3
谢谢

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值